El Software de Monitoreo Escolar Sacrifica la Privacidad de los Estudiantes por Promesas de Seguridad No Fundadas

0
91
A student looks at a computer with an eye looking back at the student, under a dark cloud with arms.

La creciente preocupación por la privacidad de los estudiantes está tomando protagonismo en muchos distritos escolares de Estados Unidos. Cada vez son más las instituciones que implementan software de monitoreo potenciado por inteligencia artificial, como Gaggle y GoGuardian, en los dispositivos y cuentas que los alumnos utilizan para sus actividades académicas. Esta situación ha generado un debate sobre la vigilancia de las comunicaciones privadas de los jóvenes, que incluye búsquedas en Internet, pulsaciones de teclado, chats y fotos.

Las empresas responsables de estos programas argumentan que su uso tiene como objetivo garantizar la seguridad de los estudiantes, previniendo comportamientos como el autolesionismo, el suicidio, la violencia y el abuso de sustancias. Sin embargo, aunque el suicidio es la segunda causa más común de muerte entre niños de 10 a 14 años en Estados Unidos, no existen estudios independientes que evidencien una mejora en la seguridad estudiantil asociada al uso de estas herramientas. De hecho, un estudio reciente de RAND sugirió que este tipo de vigilancia podría provocar más daño que beneficio.

Uno de los principales problemas radica en que la gestión de las alertas generadas por este software queda a discreción de los propios distritos escolares. Dado que muchas instituciones carecen de recursos para enfrentar problemas de salud mental, a menudo remiten estas alertas a las autoridades policiales, quienes pueden no estar capacitados para manejar crisis emocionales de jóvenes. Estos encuentros pueden resultar potencialmente peligrosos.

Los expertos destacan que la implementación de estas soluciones tecnológicas es mucho más sencilla que adoptar medidas sociales efectivas, que requieren de recursos y tiempo. Isabelle Barbour, consultora en salud pública, señala que la falta de inversión en la salud y el bienestar de los estudiantes genera un entorno en el que muchos llegan a la escuela con necesidades insatisfechas, lo que repercute en su capacidad de aprendizaje.

Un ejemplo pertinente es el caso de Gaggle, que ha afirmado haber salvado miles de vidas entre 2018 y 2023, basándose en métricas cuestionables. Los distritos escolares, ávidos de soluciones rápidas ante la crisis de salud mental juvenil, han adoptado este tipo de tecnología, a menudo sin cuestionar su efectividad o la invasión de la privacidad que implica.

Las experiencias de varios estudiantes han mostrado que el software puede cometer errores significativos, marcando contenidos que interpretó erróneamente. En un caso, la escuela de Lawrence, Kansas, tuvo que convocar a varios estudiantes para discutir fotos que el software había marcado como inapropiadas, mientras que los alumnos afirmaban que no contenían nudidad. Esta situación pone de relieve las fallas en la comprensión del contexto por parte de la inteligencia artificial.

Los estudiantes también están tomando la iniciativa al expresar su preocupación por cómo la vigilancia afecta sus derechos de privacidad y libertad de expresión. Algunos han logrado que se elimine el software en dispositivos utilizados por periodistas dentro de la escuela, evidenciando que la conciencia y la acción colectiva pueden hacer una diferencia en este contexto.

Mientras tanto, los estudiantes pueden adoptar ciertas medidas para proteger su privacidad, como considerar sus dispositivos escolares como herramientas de vigilancia, no iniciar sesión en cuentas personales en ellos, o incluso mantener los dispositivos apagados cuando no están en uso.

La situación actual resalta la necesidad de que las escuelas enfoquen sus esfuerzos en crear entornos seguros y acogedores para todos los estudiantes, en lugar de someterlos a un escrutinio constante a través de tecnologías invasivas. La implementación de medidas efectivas que aborden la salud mental juvenil y promuevan un clima escolar positivo debe ser la prioridad, en lugar de depender de soluciones tecnológicas que pueden resultar contraproducentes.
Fuente: EFF.org