Los chatbots de inteligencia artificial, como ChatGPT, Gemini y Copilot, se han integrado rápidamente en la vida cotidiana, sirviendo de asistentes en diversas tareas, tanto profesionales como personales. Sin embargo, a pesar de su popularidad y de ser presentados como herramientas neutrales y objetivas, un reciente estudio revela que estos sistemas no son tan imparciales como se pensaba.
Investigadores de la Universidad de L’Aquila en Italia, junto con la Universitat Oberta de Catalunya, han encontrado que, aunque los chatbots han mejorado en la disminución del sexismo y han conseguido evitar ciertos sesgos de género, aún persisten problemas de discriminación asociados al edadismo. Este trabajo, publicado en la revista «Big Data & Society», demuestra que estos modelos no solo reproducen los estereotipos sociales, sino que además afectan a cómo se perciben y responden a las diferentes generaciones.
Para llevar a cabo la investigación, el equipo examinó cinco de los chatbots más utilizados a través de entrevistas en las que se les abordaba como si fueran interlocutores humanos. Mireia Fernández-Ardèvol, investigadora de la UOC y autora del estudio, expresó que, mediante un guion diseñado con situaciones ficticias, se buscó identificar a qué nivel los asistentes virtuales replicaban estereotipos. Los hallazgos muestran que, en general, los chatbots son más cuidadosos al tratar temas de género que al abordar cuestiones relacionadas con la edad.
El análisis incluyó interacciones en un entorno digital controlado, evitando así que el uso previo de los chatbots influenciara los resultados. Los investigadores plantearon preguntas que pedían a los chatbots asignar perfiles de edad o género a personajes ficticios basándose en sus hábitos digitales. Los resultados apuntan a una doble vara de medir: mientras que los modelos evitaban hacer suposiciones estereotipadas sobre género, asignaban de manera más evidente características vinculadas a la edad.
Es interesante notar que, a pesar de que los modelos de IA evitan comentarios sexistas, describen las funciones disponibles de manera dispar según la edad, resaltando tareas de asistencia y apoyo para personas mayores, mientras que las funciones creativas y de entretenimiento se asocian más a los usuarios jóvenes. Esto, según Fernández-Ardèvol, revela que los propios diseñadores de estos sistemas parecen considerar el sexismo como un problema más urgente que el edadismo, reflejando así una realidad cultural más amplia.
Por otro lado, esta discriminación basada en la edad no solo perpetúa estereotipos sociales, sino que también puede afectar seriamente oportunidades y acceso a servicios, especialmente para las personas mayores. Fernández-Ardèvol advierte del peligro de que estas representaciones sesgadas legitimen la discriminación, invisibilicen la diversidad y deterioren la percepción pública del envejecimiento.
Para corregir estos sesgos, la investigadora destacó la importancia de que las empresas tecnológicas reconsideren los datos que utilizan para entrenar estos sistemas. Se espera que los resultados de este estudio sirvan de guía para fomentar prácticas más justas y sociales en el desarrollo de futuras tecnologías de inteligencia artificial.
Fuente: Agencia Sinc


