VOLVER «

La Defensoría participó de la charla de ONO sobre el uso de inteligencia artificial en los medios

lunes 2 de octubre de 2023

El organismo formó parte de un nuevo debate organizado por ONO, la Organization of News Ombuds and Standards Editors, que reúne a las defensoras y los defensores de las audiencias de todo el mundo. El foco estuvo puesto en la inteligencia artificial (IA) y su aplicación en las redacciones.

En el marco del ciclo de debates organizados por ONO, la Organization of News Ombuds and Standards Editors, que reúne a las defensoras y los defensores de las audiencias de todo el mundo, y a la cual la Defensoría del Público se reincorporó en 2021, el organismo participó de la charla sobre el uso de inteligencia artificial (IA) en las redacciones.

John Daniszewski, Vicepresidente y standard editor (responsable de la calidad editorial) en The Associated Press (AP), Garance Burke, investigadora periodística de AP y Elisabeth Ribbans, defensora de los lectores de The Guardian, encabezaron la jornada.

Daniszewski y Burke compartieron la experiencia de trabajo de la agencia de noticias estadounidense, que publicó un manual de estilo para el trabajo con IA. Daniszewski comentó que se basaron en la experiencia que AP ya tenía en la creación de contenidos por computadora para elaborar informes trimestrales. Pero advirtió que, contrariamente a lo que había sucedido con aquella experiencia (donde la base de datos inicial era provista por la propia agencia), en el caso de la IA no se sabe qué información ingresa en el sistema. Ni de dónde proviene.

La primera conclusión de AP es que, por ahora, ningún tipo de información generada por inteligencia artificial debería llegar al público. De todos modos, la agencia estableció que el personal puede experimentar y hacer pruebas.

Daniszewski también advirtió que el tema debe ser abordado con precaución, dado que la IA produce errores y presenta a menudo ideas fabricadas (“ilusiones”), más que hechos. Lo que más le preocupa en este sentido a AP son los sesgos y la confianza ciega que se le deposita a estas nuevas herramientas.

Por su parte, Burke comentó que la idea del manual era correr el eje de discusión de si la IA es buena o mala y traerla a las bases del periodismo. Es decir, pensar cómo funciona, a quién beneficia, a quién le hace ganar dinero.

La idea con este manual, explicó Burke, es generar una guía de uso. Hay algunas entradas básicas para describir qué es IA o qué es un algoritmo y, por ejemplo, sobre lo que el chat GPT puede o no hacer. Se trata también de brindar buenas prácticas, en términos de qué preguntas realizar, por ejemplo, en una conferencia de prensa, o a la hora de entender qué políticas está implementando determinado gobierno. El principal interés de AP, señaló Burke, es brindar más transparencia en el uso de estas herramientas.

Elisabeth Ribbans, defensora de los lectores del medio inglés The Guardian, comentó algunas quejas que recibieron a raíz de artículos –falsos–, que luego descubrieron que habían sido generados por el chat GPT. Señaló que la posibilidad de uso de IA es interesante, pero hay que tener cuidado: evaluar posibles impactos y mantener el eje en la cobertura responsable, ya que la IA puede llevar a noticias inventadas e inducir a errores.

Ribbans se refirió a tres principios generales establecidos por The Guardian para el uso de IA en las noticias: 1) Deben ser usadas para beneficio de los lectores, es decir cuando eso contribuya a la generación y distribución de periodismo original. 2) La idea es que el uso de IA mejore y facilite el trabajo cotidiano en las redacciones y 3) Que sea respetuoso en término de derechos y licencias para con aquellos que generan contenido. La idea de The Guardian es licenciar ese material para su reutilización en todo el mundo.

La perspectiva de The Guardian coincide con AP en que, por el momento, no se use texto o imágenes generados por IA en los artículos. Hay curiosidad pero también precaución y es por ello que el medio inglés elaboró un código editorial (denominado GeneraDve AI). Se trata de una etiqueta que describe cualquier tipo de inteligencia que es utilizada para crear nuevos textos, imágenes, videos, audios o códigos digitales. Algunos ejemplos destacados son ChatGPT y Midjourney. Este código alerta sobre temas de parcialidad, propiedad, plagio y derechos de propiedad intelectual en este tipo de contenidos y señala que se trata de información no fiable ni coherente, que tiende a introducir errores e imprecisiones.

De manera general, entonces, tanto los expositores como el resto de miembros de ONO presentes en la conversación se mostraron precavidos con respecto al uso de IA en los medios, fundamentalmente por la tendencia a la ficcionalización de información y por la falta de verificación.

VOLVER «