Inicio Tecnología ¿Pueden ser los robots los nuevos piratas informáticos?

¿Pueden ser los robots los nuevos piratas informáticos?

0
¿Pueden ser los robots los nuevos piratas informáticos?

2020 fue el año más prolífico en ciberataques: la mayoría de empresas españolas, un 53%, notificaron ser víctimas de al menos un ataque en su sistema informático, de acuerdo a la quinta edición del Informe de ciberpreparación de Hiscox. Y, de acuerdo a los datos presentados por el Centro Nacional de Inteligencia (CNI) en las XIV Jornadas de Ciberseguridad del Centro Criptológico Nacional (CCN), no solo aumentó el número de ciberataques, sino también la gravedad de los mismos. Antes de que acabará el año, el CNI detectó 6.690 incidentes de peligrosidad muy alta. Por su parte, el CCN encontró 73.184 ciberamenazas totales a lo largo del año, lo que significa un aumento del 70 % respecto al año anterior. ¿Qué pasará si, además de los piratas informáticos que ya existen, se suman robots hackers? ¿Es posible este escenario? Los expertos descartan dicha opción.

¿Pueden ser los robots los nuevos piratas informáticos? 1

El miedo a la rebelión de las máquinas existe desde que empezó la industrialización, pero se acrecentó con el nacimiento de la inteligencia artificial (IA). Advierten de ello gurús de la seguridad digital como Bruce Schneier, quien en su informe The Coming AI Hackers afirma que en la interacción entre sistemas humanos e informáticos hay riesgos que son propios cuando un ordenador empieza a cubrir el papel de una persona. Hasta el punto de que puede llegar el momento en que quienes pirateen nuestros sistemas sean hackers no humanos.

Las decisiones vitales, dictadas por los algoritmos

Otros expertos comparten la idea de que este escenario es posible. Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, explicó que hace algunos años la matemática Cathy O’Neil advirtió que, en la época del algoritmo, muchas de las decisiones que afectan a nuestras vidas están dictadas por modelos matemáticos. Y, aunque eso podría conducir una mayor equidad si todos fuéramos juzgados con las mismas reglas, está ocurriendo totalmente lo contrario. Hablaba de eso y del lado oscuro del big data en Weapons of Math Destruction, uno de los libros de no ficción con mejores críticas en su año de publicación, ganador del Euler Book Prize 2019.

También te puede interesar:   Domingos Orange, 100 SMS al precio de 1

“No es la primera referencia, ni tampoco será la última, relativa a los potenciales peligros de esta tecnología”, dice Curto explicando que la inteligencia artificial, que en su forma actual solo es machine learning, combinada con sistemas de gran capacidad de procesamiento y tratamiento de datos (big data) “busca automatizar tareas de toda índole, desde la asignación de un crédito hasta la selección de personal. Y el uso de algoritmos no está libre de errores, bugs, omisiones, propósitos específicos y sesgos de todo tipo. Esto puede provocar problemas sociales, económicos y políticos”, afirma.

¿Cómo pueden llegar a ocasionarse estos problemas? De acuerdo a Jordi Serra, también profesor de los Estudios de Informática, Multimedia y Telecomunicación, la manera de trabajar los algoritmos “va más allá de lo que una persona pueda pensar. Se pueden programar pensando que harán, por ejemplo, una clasificación concreta y al final que lo hagan de otra manera, aunque el resultado sí puede ser idéntico al que se había pensado”. Afirma que el problema es que, mientras nosotros vemos datos y obtenemos esos datos de diferentes fuentes dándoles contexto, entendiéndolos y valorándolos, los sistemas de IA lo que hacen es buscar relaciones entre esos datos “más allá de lo que pueda significar cada dato. Y, al ser más rápidas, pueden encontrar relaciones entre los datos que los humanos no pensamos por tener ese conocimiento previo que nos hace pensar en que a lo mejor dos datos no están relacionados”. Esto quiere decir que, mientras los humanos tenemos una manera de pensar predeterminada a partir de la experiencia y del conocimiento que tenemos previo, las máquinas no. “El control de las máquinas no se tiene”, añade Serra.

Cómo evitar ataques

En esta misma línea se manifestó Josep Curto, que señaló que los sistemas de IA siguen mecanismos para detección de patrones y encontrar soluciones óptimas o de mayor recompensa, y cuando se trata de sistemas poco robustos en su gobierno, estos pueden derivar en algunos casos en lo que se denomina reward hacking, que se traduce en que, con el objetivo de lograr la mayor recompensa en el problema que resuelven, no tienen en cuenta el contexto o la regulación, al no estar esos factores reflejados en los datos. Además, durante las diferentes fases del proyecto pueden existir sesgos en la generación, la preparación, el análisis de los datos o la visualización de los resultados que pueden conducir a decisiones no éticas.

También te puede interesar:   Samsung planta cara a Blackberry con un teléfono con QWERTY completo

“Identificar estos problemas pasa por analizar los modelos generados mediante interpretabilidad antes y durante su puesta a producción. Es decir, se trata de monitorizar el modelo, cómo toma decisiones, qué sesgos le afectan, cómo evoluciona su rendimiento… Se trata, en definitiva, de introducir el gobierno de IA”, añade Josep Curto.

Sin embargo, hay algunas dificultades para llevarlo a cabo. Por ejemplo, que la IA es, en opinión de Serra, cada vez más opaca, “ya que continuamente salen algoritmos más potentes, más rápidos, aunque al final solo son cajas en las que se introducen los datos y tienen una salida. ¿Cómo lo hacen? Solo los expertos que crean los algoritmos de pensar las IA lo saben”, dice el profesor y miembro del grupo de investigación K-riptography and Information Security for Open Networks (KISON) de la UOC.

¿Estamos dando entonces demasiado poder a la tecnología basada en IA? ¿O quizá se está infravalorando la protección de la seguridad en lo relacionado con IA? Para el profesor Josep Curto el problema es este último punto. “Muchas organizaciones no tienen claro ni cómo funcionan los sistemas de IA ni cómo gobernarlos de forma adecuada ni tampoco el impacto social, por lo que no se toman en cuenta medidas de protección adecuadas en todo el ciclo del sistema”, asegura. Por eso es muy posible que, si no hay cambios de actitud, sucedan cada vez más casos como el de Cambridge Analytica. “A medida que digitalizamos todos los procesos de negocio, muchas empresas van a apostar por IA para extraer valor de estos activos. Pero sin principios éticos, identificación de sesgos, comprensión de cómo funcionan los algoritmos, los límites de cómo funcionan… será natural caer en escenarios como los comentados, ya sea por omisión o con premeditación y alevosía”, advierte Josep Curto.