Las llamadas granjas de contenido son sitios web que publican artículos a granel para generar clics e ingresos publicitarios. Estas incluyen sitios web, cuyos artículos se crean utilizando la inteligencia artificial (IA) y se publican mediante bots de noticias.

¿Qué son los bots y sitios de noticias generadas por IA?
Son programas o algoritmos que seleccionan noticias de Internet de acuerdo a ciertos criterios, pero también pueden generar, por ejemplo, noticias actuales con la IA.

En un estudio reciente, la empresa de calificación de medios de Nueva York NewsGuard identificó 49 granjas de contenido en siete idiomas diferentes (chino, checo, inglés, francés, portugués, tagalo y tailandés), cuyo contenido parece proceder “casi en su totalidad ” de Large Language Models (LLM), Modelos de Leguaje Extensos, que pueden producir textos que parecen haber sido escritos por personas. La aplicación LLM disponible más conocida es probablemente ChatGPT de OpenAI.

Según NewsGuard, las características típicas de las página que publican textos generados por la IA es que carecen de información sobre quiénes son los operadores del sitio y autorías de los artículos, y tienen toneladas de publicidad.

¿Por qué son problemáticos?
Probablemente, el objetivo principal de la mayoría de estos sitios sea atraer usuarios, ahorrar personal y obtener ingresos por publicidad, sospecha NewsGuard. La desinformación deliberada es la excepción y no la regla.

Felix M. Simon, del Instituto de Internet de Oxford, opina que “los LLM no tienen conciencia, no pueden pensar. Solo pueden producir cadenas de palabras y frases basadas en probabilidades estadísticas”.

“Y eso conlleva al problema masivo de que un LLM produce textos, que suenan muy plausibles, pero no tienen nada que ver con la realidad”, afirma Ross King, jefe del departamento de Ciencia de Datos e Inteligencia Artificial del Instituto de Tecnología de Austria.

En este contexto, Gordon Crovitz, co-CEO de NewsGuard, hace un juicio severo sobre las granjas de contenido con textos de IA: “El uso de modelos de IA, conocidos por inventar hechos como si fuesen noticias para crear sitios web, es un fraude, porque se hace pasar por periodismo”, dijo a The Standard.

¿Se puede usar la IA para producir noticias falsas intencionadamente?
Los LLM disponibles tienen ciertas normas programadas, pero de hecho, es posible burlar a los chatbots hasta cierto punto, dándoles instrucciones crípticas.

La llamada “ingeniería rápida”, es decir, la “manipulación de instrucciones”, está ganando importancia, dice el investigador de IA Ross King: “Estoy bastante seguro de que habrá un mercado ilegal para las instrucciones”, dice King.

DW, siguiendo las pautas investigativas de NewsGuard, también encontró páginas con las características mencionadas en inglés, portugués, francés y también en español. Ross King opina al respecto que “son tecnologías que solían estar disponibles solo para investigadores y quizás actores gubernamentales, y ahora están disponibles para el público en general”.

¿Cómo distinguir los sitios de IA?
Felix M. Simon comparte la idea de que “habrá más de estas páginas”, pero el investigador de comunicación, sin embargo, considera que se sobreestima su importancia. Simon es optimista: la avalancha de sitios de IA aumentará la toma de conciencia de las personas, y muchos elegirán sus fuentes de información con más cuidado en el futuro.

Los expertos coinciden en que es importante fortalecer las habilidades mediáticas de los usuarios, porque aún no existen detectores fiables de videos, fotos o textos de IA.

Los usuarios pueden hacerse estas preguntas a la hora de averiguar si un texto o sitio web procede de un LLM: ¿Le causa el texto una buena/seria impresión? ¿La información contradice sus propios conocimientos? ¿Es un texto plausible? ¿Hay información sobre quién está detrás de la página, quién es el responsable de contenido, autorías de textos y fotos? ¿Los perfiles le parecen auténticos?

La IA puede crear imágenes y perfiles difíciles de desenmascarar. Si no encuentra información sobre dichas personas o imágenes en la red, posiblemente no existan de verdad.

(rmr/ers)

Autor: Jan D. Walter