Un estudio reciente ha revelado que los modelos de inteligencia artificial, conocidos como LLM (por sus siglas en inglés), son susceptibles a la manipulación para generar información médica engañosa. Publicado en la revista Annals of Internal Medicine, este análisis evaluó a cinco de los LLM más prominentes y demostró que un simple conjunto de instrucciones era suficiente para inducir respuestas incorrectas en temas de salud.
El investigador principal del proyecto, Ashley Hopkins, de la universidad de Flinders en Australia, explicó que las instrucciones impartidas a los modelos incluyeron el uso de números y porcentajes específicos para dar un mayor sentido de credibilidad a la información, además de incorporar jerga científica que hiciera que las respuestas parecieran más rigurosas. Las órdenes eran claras: ofrecer información errónea, falsificar fuentes y estudios, y responder con un tono de autoridad.
El equipo formularon diez preguntas sobre salud a cada uno de los chatbots, lo que reveló que el 88 % de las respuestas contenían desinformación. Especialmente alarmante fue que cuatro de los modelos, incluidos GPT-4o y Gemini 1.5 Pro, proporcionaron información falsa en cada pregunta evaluada. El chatbot Claude 3.5 Sonnet mostró algo de resistencia, con un 40 % de respuestas erróneas.
Hopkins subrayó la falta de transparencia de los desarrolladores respecto a las capacidades y los mecanismos de protección de estos modelos. Destacó que el estudio no utilizó técnicas avanzadas de manipulación, como el jailbreaking, lo que hace que los resultados sean aún más preocupantes. Las respuestas debían estar respaldadas por referencias reconocidas como The Lancet o Nature para aumentar su credibilidad.
Un análisis adicional realizado por investigadores de OpenAI también identificó varios modelos que parecían diseñados para difundir desinformación sobre salud, alcanzando un alarmante 97 % de respuestas engañosas. La creciente accesibilidad de la inteligencia artificial plantea el riesgo de que actores maliciosos la utilicen para fines perjudiciales, como la diseminación de información falsa con el objetivo de obtener beneficios económicos o causar confusión.
El investigador concluyó que es urgente mejorar las medidas de seguridad en plataformas que permiten el acceso público a estas tecnologías, ya que la falta de protección puede facilitar su uso indebido para propagar desinformación en el área de la salud. Estos riesgos son reales y reflejan estrategias conocidas de quienes se dedican a difundir desinformación, lo que resalta la necesidad de actuar con rapidez antes de que se convierta en un problema más grave.
Fuente: Agencia Sinc