El auge de la inteligencia artificial generativa ha traído consigo numerosos beneficios, pero también ha expuesto una problemática creciente: la proliferación de noticias falsas. Recientes incidentes han resaltado cómo esta tecnología, combinada con la inexactitud humana, puede resultar en la difusión de contenido erróneo, afectando la credibilidad de diversos medios.
Un caso notable involucra a la publicación WinBuzzer, que el pasado 26 de junio publicó un artículo titulado «Microsoft Is Getting Sued over Using Nearly 200,000 Pirated Books for AI Training». En dicho texto, se incluyó una cita del asesor legal de la Electronic Frontier Foundation (EFF), Corynne McSherry. Sin embargo, la EFF ha confirmado que la cita es falsa y que McSherry no escribió eso, desmintiendo así el contenido del artículo y cuestionando la veracidad de las fuentes utilizadas.
El fundador y editor en jefe de WinBuzzer, Markus Kasanmascheff, admitió que esta situación es un caso de «descuido de la IA», señalando que su equipo utiliza herramientas de inteligencia artificial para la investigación y análisis de fuentes. Kasanmascheff ofreció disculpas y reconoció que es esencial verificar rigurosamente cada cita y referencia antes de su publicación, una práctica que ha subestimado recientemente al depender excesivamente de la tecnología.
Este incidente no es aislado. Medios de todas las dimensiones están adoptando tecnologías de IA para reducir costos, a menudo a expensas de la reputación y la confianza del público. La Press Gazette del Reino Unido informó que varias publicaciones, entre ellas Wired y Business Insider, han tenido que retirar artículos sospechosos de ser generados por IA debido a la falta de verificación de hechos. En otro caso, el Chicago Sun-Times se vio obligado a disculparse tras publicar una lista de libros de verano generada por IA, cuyos títulos y descripciones fueron en gran medida inventados.
Expertos advierten sobre el riesgo inherente de que los modelos de lenguaje de IA generen citas falsas, lo que podría deteriorar aún más la credibilidad de las organizaciones de noticias. Por ello, se enfatiza la necesidad de que los periodistas y las salas de redacción realicen un cuidadoso control de hechos en los artículos que utilizan herramientas de IA, para preservar la integridad de su informe.
Entre los ejemplos más alarmantes de creación de documentación falsa se encuentra un artículo publicado el 18 de junio por la Arabian Post, que contenía una cita de una persona inexistente vinculada a la EFF. Este artículo fue eliminado tras que la organización denunciara la falsedad de los hechos.
A pesar de los esfuerzos por establecer directrices para la utilización de la IA en el periodismo, el hecho de que ciertos medios continúen generando contenido con citas fidedignas y atribuciones erróneas indica que la industria todavía se enfrenta a serios desafíos en su camino hacia la adaptación a nuevas tecnologías. En este contexto, se invita a los consumidores de noticias a ser más críticos y a informarse sobre cómo discernir contenido veraz de engañoso, ya que la veracidad en la información es fundamental para el funcionamiento de una sociedad bien informada.
Fuente: EFF.org