Inicio Blog Página 9

¡Viva los Certificados de Corto Plazo!

0
Long Live Short-Lived Certificates!

El 20 de agosto de 2025, se llevará a cabo un evento clave en Bangkok, Tailandia, organizado por Out Of The Box. La conferencia, que tendrá lugar de 10:00 a.m. a 11:00 a.m. (hora local), contará con la presencia de Alexis Hancock, Directora de Ingeniería de la Electronic Frontier Foundation (EFF). Este encuentro se enfoca en la evolución de la infraestructura de clave pública web (PKI), un aspecto esencial en el ámbito de la ciberseguridad.

Durante la conferencia, se abordarán temas relevantes para los ingenieros de seguridad, como la reducción de los tiempos de recuperación ante compromisos de seguridad y la mejora en la gestión de certificados. Uno de los cambios clave que se discutirá es la reciente aprobación de la Propuesta SC-063 en el foro CA/Browser, que disminuye la duración de vida de los certificados TLS de 90 días a 10 días, con planes de llegar a 7 días en el futuro. Esta modificación permitirá a los defensores de redes y a los ingenieros de seguridad optimizar sus procesos y aumentar la confianza en la seguridad del transporte de datos.

El evento se celebrará en el InterContinental Bangkok, ubicado en 973 Phloen Chit Road, Lumphini, Pathum Wan. La inscripción es obligatoria y los interesados deben consultar el sitio web del evento para más detalles sobre costos y requisitos de registro.

Out Of The Box, llevado a cabo por el equipo de Hack In The Box, se caracteriza por destacar ataques y explosiones poco convencionales, ofreciendo un formato que incluye conferencias durante el día y actividades de networking por la noche. La colaboración de Hancock, reconocida por su labor en la expansión del cifrado y los derechos digitales, promete aportar una visión valiosa al evento.
Fuente: EFF.org

Creación de una Interfaz Conversacional en Lenguaje Natural para Consultas de Amazon Athena Usando Amazon Nova

0
Build a conversational natural language interface for Amazon Athena queries using Amazon Nova

La analítica de datos sigue siendo un desafío significativo para muchos usuarios empresariales que no dominan SQL, lo que puede llevar a retrasos en la obtención de información y dependencia de equipos de datos especializados. A menudo, las organizaciones se ven atrapadas en la complejidad de hacer que su información sea accesible, mientras intentan mantener las capacidades analíticas que ofrece Amazon Athena. Sin embargo, la llegada de agentes de inteligencia artificial modernos está revolucionando la forma en que las empresas interactúan con sus datos, permitiendo a los usuarios hacer preguntas en lenguaje natural en lugar de lidiar con comandos SQL complicados.

Los agentes de Amazon Bedrock permiten esta interacción simplificada mediante el uso de modelos de fundación que comprenden el lenguaje humano y pueden trabajar con diversas fuentes de datos. Este avance permite que los empleados obtengan respuestas directas de sus datos sin la necesidad de asistencia técnica. En esa línea, Amazon Nova, como parte de la familia de modelos de Bedrock, se ha destacado por ofrecer inteligencia de vanguardia y un rendimiento a nivel de la industria, con modelos diseñados para diferentes casos de uso. Entre sus características, incluye modelos de comprensión de lenguaje y aquellos dedicados a la generación de contenido, así como un modelo de conversión de voz a voz.

Uno de los mayores atractivos de Amazon Nova es su capacidad para manejar tareas de razonamiento complejo y realizar resúmenes precisos. Esto es crucial para traducir preguntas formuladas en lenguaje natural a consultas SQL y brindar explicaciones comprensibles sobre los resultados a los usuarios. Así, su versatilidad y precios competitivos lo convierten en una opción ideal para las empresas que buscan cerrar la brecha entre sistemas de datos técnicos y usuarios no técnicos.

Recientemente, se ha explorado una solución innovadora que utiliza Amazon Bedrock Agents, con Amazon Nova Lite, para crear una interfaz conversacional para consultas en Athena. Aunque en este caso se utilizó AWS Cost and Usage Reports como ejemplo, la adaptabilidad de esta solución permite su aplicación a otras bases de datos.

La arquitectura de esta solución combina varios servicios de AWS para transformar preguntas en lenguaje natural en consultas SQL precisas para AWS CUR. Los usuarios pueden interactuar con sus datos de manera sencilla, mientras un agente de consulta conversacional, impulsado por Amazon Nova Lite, mantiene el contexto y facilita la recuperación de datos exactos durante la conversación.

Características clave de esta solución incluyen autenticación de usuarios a través de Amazon Cognito, procesamiento de consultas en tiempo real y transformación de lenguaje natural a SQL. La gestión de conversaciones, consciente del contexto, es esencial para la eficiencia del sistema. Este enfoque no solo democratiza el acceso a los datos, sino que también preserva las capacidades analíticas de Athena, permitiendo interacciones más fluidas y efectivas con la información.

A medida que la inteligencia artificial y la analítica continúan evolucionando, este tipo de soluciones establece un nuevo estándar al hacer que el análisis de datos sea accesible para todos los niveles de usuarios en las organizaciones. Al integrar la potencia de la IA conversacional con las capacidades analíticas de Amazon Athena, se transforma la relación de los equipos con sus datos, permitiendo la obtención de información valiosa a través de simples diálogos.
vía: AWS machine learning blog

PwC y AWS: Construyendo IA Responsable con Razonamiento Automatizado en Amazon Bedrock

0
PwC and AWS Build Responsible AI with Automated Reasoning on Amazon Bedrock

Organizaciones de diversas industrias están adoptando soluciones de inteligencia artificial generativa mientras equilibran la precisión, la seguridad y el cumplimiento normativo. En un entorno global competitivo, la velocidad y la innovación se han vuelto fundamentales para mantener una ventaja en el mercado. Según un informe reciente de PwC, para las empresas es vital respaldar el despliegue rápido y garantizar la confianza verificable en los resultados producidos por la inteligencia artificial. En particular, en sectores regulados, la verificación matemática de resultados puede convertir el riesgo en una ventaja competitiva.

En este contexto, PwC y Amazon Web Services (AWS) están desarrollando nuevas comprobaciones en base a razonamientos que fusionan la expertise industrial con verificaciones automatizadas en Amazon Bedrock Guardrails para promover la innovación. Estos chequeos de razonamiento automático, una rama de la inteligencia artificial centrada en la búsqueda algorítmica de pruebas matemáticas, permiten validar si los resultados de los modelos de lenguaje grandes (LLM) son posibles, y a partir de agosto de 2025 estarán disponibles para su uso general.

La nueva política de guardrails se centra en mantener la precisión dentro de parámetros definidos y actúa mediante la evaluación del contenido generado por IA, comparándolo con reglas derivadas de documentos de políticas, incluyendo directrices de la empresa y estándares operativos. Esta metodología produce hallazgos que indican si el contenido de la IA se ajusta a las reglas establecidas, resalta ambigüedades existentes y ofrece sugerencias para eliminar supuestos.

Matt Wood, Director Técnico Global de PwC, enfatiza que «en un campo donde los avances ocurren a gran velocidad, el razonamiento es uno de los progresos técnicos más importantes para ayudar a nuestros clientes en la inteligencia artificial generativa».

Un caso destacado es el cumplimiento del Acta de IA de la Unión Europea, que requiere que las organizaciones clasifiquen y verifiquen todas las aplicaciones de IA según niveles de riesgo específicos y requisitos de gobernanza. PwC ha desarrollado un enfoque práctico utilizando chequeos de razonamiento automatizados en Amazon Bedrock. Esto transforma el cumplimiento del Acta de IA de un proceso manual a uno sistemático y verificable.

Además, PwC ha implementado un Orquestador de Contenido Regulador que automatiza la revisión de contenido médico, legal, regulatorio y de marca. Este sistema, que actúa como una capa de validación secundaria en los procesos de creación de contenido, ha mejorado la creación y revisión de contenido, al tiempo que eleva los estándares de cumplimiento.

Por último, en la gestión de cortes de servicios públicos, las comprobaciones automatizadas mejoran la eficiencia operativa y los tiempos de respuesta de las empresas del sector. El sistema puede generar protocolos estandarizados y verificar clasificaciones de incidentes producidas por IA, lo que agiliza la toma de decisiones en situaciones críticas.

A medida que la adopción de IA sigue evolucionando, la alianza entre AWS y PwC está enfocada en expandir las soluciones de chequeos automatizados en más industrias, desarrollar soluciones específicas de IA con verificación de cumplimiento incorporada y mejorar las características de explicabilidad para proporcionar una mayor transparencia.

La integración de los chequeos de razonamiento automatizado en Amazon Bedrock junto con la vasta experiencia de PwC representa un camino poderoso para ayudar a desplegar soluciones basadas en IA. Con la expectativa de contar con una certeza matemática y confianza verificable en los resultados de la IA, las organizaciones pueden innovar sin comprometer la precisión, la seguridad o el cumplimiento.
vía: AWS machine learning blog

Construyendo Agentes Conscientes del Contexto con Amazon Bedrock AgentCore Memory

0
Amazon Bedrock AgentCore Memory: Building context-aware agents

En el AWS Summit de Nueva York en 2025, se presentó Amazon Bedrock AgentCore Memory, una innovadora solución para la gestión de la memoria en asistentes de inteligencia artificial (IA). La capacidad de recordar es fundamental en las interacciones humanas, pero las tecnologías actuales de modelos de lenguaje a gran escala (LLMs) carecen de memoria persistente, lo que limita la eficacia de las conversaciones. Esto conduce a una experiencia de usuario frustrante, donde las máquinas olvidan información esencial en cuestión de minutos.

AgentCore Memory permite a los desarrolladores crear agentes que sean conscientes del contexto, sin la necesidad de gestionar infraestructuras de memoria complejas. Esta solución no solo simplifica la retención de información a corto plazo, sino que también proporciona capacidades de memoria a largo plazo, permitiendo la personalización del servicio. Así, los agentes pueden recordar preferencias y construir relaciones continuas con los usuarios, eliminando la repetición de preguntas y mejorando la fluidez de las interacciones.

El sistema está diseñado con cinco principios clave: almacenamiento abstracto, seguridad, continuidad, organización de datos y escalabilidad. Estos elementos aseguran que los agentes no solo acumulen datos, sino que lo hagan de manera estructurada y segura, haciendo posible una recuperación rápida de información relevante para cada conversación.

Las limitaciones de los métodos tradicionales para implementar la memoria en agentes AI se han abordado con este nuevo enfoque. En lugar de que los desarrolladores tengan que crear soluciones personalizadas para el seguimiento de la historia de las conversaciones, AgentCore Memory ofrece un servicio gestionado que ahorra tiempo y mejora la experiencia del usuario. Las herramientas permiten mantener conversaciones fluidas, recordando detalles cruciales como preferencias o información importante discutida anteriormente.

Además de la gestión de memoria, AgentCore Memory incorpora características avanzadas como ramificación y puntos de control, que potencian la interactividad y flexibilidad de las conversaciones. Los agentes pueden crear rutas alternativas en el diálogo sin perder el hilo de la conversación principal, facilitando escenarios complejos como la planificación de viajes o el asesoramiento financiero.

En resumen, Amazon Bedrock AgentCore Memory se presenta como una solución integral capaz de transformar la manera en que los asistentes de IA gestionan la memoria, proporcionando interacciones más humanas y personalizadas. La implementación de esta tecnología podría significar un gran avance no solo para el sector tecnológico, sino también para las experiencias de usuario en diversos ámbitos.
vía: AWS machine learning blog

Escaneos Faciales de Spotify: Solo el Comienzo

0
🫥 Spotify Face Scans Are Just the Beginning | EFFector 37.10

En un momento donde la defensa de los derechos digitales es más crucial que nunca, la Electronic Frontier Foundation (EFF) ha lanzado su boletín EFFector, una fuente centralizada para mantenerse informado sobre los últimos acontecimientos en la lucha contra la censura y la vigilancia. Este medio se ha convertido en un recurso fundamental para aquellos que buscan seguir de cerca las dinámicas de la privacidad y la libertad de expresión en el entorno digital.

En esta edición, se destaca un caso alarmante de intimidación gubernamental en Florida, donde las autoridades han emitido una citación a un local que albergó un evento de orgullo LGBTQ+, exigiendo videos de vigilancia del evento. Este acto ha levantado serias preocupaciones sobre la vigilancia estatal y el respeto a los derechos de las comunidades marginadas.

Por otro lado, la EFF critica la inacción de los corredores de datos en California, que han ignorado las solicitudes de acceso a datos personales a pesar de que la ley estatal les exige responder. Esta situación pone de manifiesto la necesidad de una mayor regulación y responsabilidad en el manejo de datos personales.

Asimismo, se analiza el proyecto de ley C-2 de Canadá, que podría facilitar la vigilancia por parte de Estados Unidos, abriendo la puerta a un acceso más amplio a los datos de los ciudadanos canadienses por parte de agencias estadounidenses. Este desarrollo plantea interrogantes sobre la cooperación internacional en asuntos de privacidad y derechos humanos.

Adicionalmente, el boletín incluye un componente educativo en forma de un podcast, donde se entrevista a miembros del equipo de EFF sobre temas relevantes. En esta ocasión, Paige Collings, activista sénior de discurso y privacidad, aborda los peligros de las medidas de verificación de edad que se están implementando en diversas partes del mundo.

Desde su lanzamiento en 1990, el boletín EFFector ha sido una herramienta esencial para mantener a los lectores informados sobre los derechos digitales, ofreciendo enlaces a actualizaciones, anuncios y otros relatos que nutren el movimiento por la privacidad en línea y la libertad de expresión. La EFF expresa su agradecimiento a los seguidores que hacen posible esta labor y anima a quienes aún no son miembros a unirse para continuar la lucha por un futuro digital más brillante.
Fuente: EFF.org

Amazon Escala Rufus: Construyendo Inferencia Multi-Nodo Con Chips AWS Trainium y vLLM

0
How Amazon scaled Rufus by building multi-node inference using AWS Trainium chips and vLLM

En un avance significativo en el ámbito de la inteligencia artificial, Amazon ha desarrollado un asistente de compras impulsado por inteligencia artificial generativa, denominado Rufus, que ya está disponible para millones de usuarios. Sin embargo, su implementación a gran escala presenta numerosos desafíos que requieren atención cuidadosa. Rufus se basa en un modelo de lenguaje grande (LLM) diseñado a medida, lo que demanda un enfoque innovador para mantener interacciones de alta calidad a la vez que se garantiza eficiencia en costos y baja latencia.

El equipo de Amazon ha centrado sus esfuerzos en crear una solución de inferencia multi-nodo utilizando Amazon Trainium y vLLM, una biblioteca de código abierto que permite una atención eficiente y de alto rendimiento en la entrega de LLMs. A medida que el modelo de Rufus se expandía, también lo hacía la necesidad de múltiples instancias de aceleradores, dado que un único chip no puede albergar el modelo completo. Esto obligó a los ingenieros a innovar en la fragmentación y distribución del modelo a través de varios nodos, utilizando técnicas como el paralelismo tensorial.

Las estrategias adoptadas para mejorar el rendimiento del modelo incluyen la maximización del uso de recursos de computación y memoria en múltiples nodos, sin comprometer la latencia. Además, se ha diseñado una infraestructura de inferencia multi-nodo que facilita la comunicación rápida entre nodos, garantizando una integración sólida entre componentes distribuidos.

La solución implementada consiste en una arquitectura de inferencia multi-nodo que utiliza un modelo de líder/seguidor. El nodo líder se encarga de la programación de solicitudes y la orquestación, mientras que los nodos seguidores se dedican a ejecutar los cálculos del modelo de forma distribuida. A través de esta configuración, cada nodo presenta un camino de ejecución coherente, lo que contribuye a la eficiencia del sistema en su conjunto.

Esta estrategia de despliegue ha permitido manejar solicitudes a gran escala de manera eficiente, gracias a un diseño que favorece la colocación de nodos según la topología de red, minimizando así la latencia. Con esta infraestructura, Amazon ha podido lanzar un modelo más grande que opera en decenas de miles de chips Trainium, logrando una capacidad ampliada que ofrece una experiencia de compra innovadora y una notable mejora en la interacción de los usuarios.

Con estos desarrollos, Amazon continúa fortaleciendo su posición en la inteligencia artificial, haciendo posible que Rufus ofrezca un servicio de preguntas y respuestas en tiempo real, siempre disponible para los clientes.
vía: AWS machine learning blog

Expansión de la Experiencia de la App de Xbox en PCs con Windows 11 Basados en Arm®

0
PC Gaming Preview.

La experiencia del Xbox PC app en dispositivos con Windows 11 basados en Arm® se verá significativamente mejorada con una nueva actualización que comienza a implementarse hoy. Este cambio permite a los usuarios descargar juegos y jugar localmente desde la aplicación, abriendo un catálogo de títulos más amplio para aquellos que estén suscritos a PC Game Pass o Game Pass Ultimate.

La colaboración entre Windows y Xbox se muestra más fuerte que nunca, ya que ambos equipos trabajan conjuntamente para asegurar la compatibilidad de su catálogo de juegos, además de desarrollar nuevas funciones que permitirán que más títulos sean accesibles en PCs basados en Arm® en los próximos meses. Esta iniciativa busca involucrar a los usuarios de Windows Insiders con el fin de realizar pruebas y asegurar el acceso total a sus bibliotecas de juegos.

La actualización, correspondiente a la versión 2508.1001.27.0 y superiores, está disponible para los usuarios de Windows Insiders que participen en el PC Gaming Preview. Para aquellos que deseen unirse a esta experiencia, el proceso es sencillo: deben descargar el Xbox Insider Hub desde la Microsoft Store, iniciar sesión con su cuenta de Microsoft y unirse a la sección de «PC Gaming». Una vez que estén registrados, podrán verificar actualizaciones en la tienda y acceder a la nueva versión de la aplicación.

Es importante tener en cuenta que la actualización se implementará de manera gradual, por lo que algunos Insiders podrán recibirla antes que otros. La oportunidad de ofrecer retroalimentación sigue disponible a través del menú del programa, permitiendo a los usuarios reportar problemas o sugerir mejoras.

Con esta actualización, los usuarios de Windows 11 en dispositivos Arm® tienen una razón más para disfrutar de su experiencia gaming.
vía: Microsoft Windows blog

Desarrolla un Agente de Análisis Financiero Inteligente con LangGraph y Strands Agents

0
Build an intelligent financial analysis agent with LangGraph and Strands Agents

La inteligencia artificial agentic está transformando la industria de servicios financieros al permitir decisiones autónomas y adaptaciones en tiempo real, superando así la automatización tradicional. Este avance tecnológico ofrece la posibilidad de contar con asistentes de IA capaces de analizar informes trimestrales de ingresos, compararlos con las expectativas de la industria y generar perspectivas sobre el rendimiento futuro, un proceso que implica una serie de pasos complejos, desde el procesamiento de documentos hasta la generación de insights.

Sin embargo, los flujos de trabajo de análisis financiero presentan desafíos técnicos únicos para la inteligencia artificial generativa, que obligan a repensar las implementaciones de modelos de lenguaje de gran tamaño para abordar las complejidades inherentes a este ámbito. A pesar de que los sistemas de IA agentic impulsan mejoras significativas en la eficiencia operativa y la experiencia del cliente, también plantean retos en términos de gobernanza, privacidad de datos y cumplimiento normativo. Las instituciones financieras deben equilibrar el potencial transformador de la IA agentic con la necesidad de contar con marcos sólidos de supervisión.

Para ilustrar una arquitectura que pueda adaptarse a las necesidades específicas de análisis financiero, se presenta un enfoque que combina tres tecnologías clave: LangGraph para la orquestación de flujos de trabajo, Strands Agents para el razonamiento estructurado, y el Protocolo de Contexto de Modelo (MCP) para la integración de herramientas. Este patrón arquitectónico se deriva de la experimentación con diferentes configuraciones en aplicaciones del ámbito financiero.

Antes de entrar en los detalles de la implementación, es fundamental comprender los desafíos centrales que influyeron en las decisiones arquitectónicas. En primer lugar, los flujos de análisis son inherentemente dinámicos, lo que exige estrategias de orquestación que manejen caminos de ejecución flexibles mientras mantienen la coherencia analítica. En segundo lugar, la integración de múltiples fuentes de datos resulta compleja debido a la necesidad de compatibilidad entre distintos sistemas.

La solución contemplada combina las tecnologías mencionadas: LangGraph permite gestionar flujos de trabajo dinámicos; Strands Agents actúa como una capa intermedia para coordinar entre modelos básicos y herramientas especializadas, y MCP estandariza la integración de diversas fuentes de datos. Juntas, estas herramientas crean un sistema modular, flexible y mantenible capaz de abordar la complejidad del análisis financiero.

El diseño de LangGraph se basa en descomponer problemas complejos en tareas más simples. Cuando un usuario desea comparar el rendimiento financiero de dos empresas, se lleva a cabo un proceso que verifica las consultas y determina los datos requeridos para el análisis. A su vez, Strands Agents realiza el razonamiento y la ejecución de tareas específicas, permitiendo así un ciclo de ejecución eficiente.

Por su parte, MCP proporciona una base para crear herramientas financieras estandarizadas, simplificando la comunicación entre servidores y herramientas especializadas. Esta aproximación modular permite a los analistas de finanzas concentrarse en desarrollar herramientas especializadas mientras los desarrolladores de agentes enfocan sus esfuerzos en el razonamiento y la orquestación.

La implementación práctica de esta arquitectura muestra cómo, mediante el correcto despliegue de estos sistemas, se pueden optimizar los flujos de trabajo de análisis financiero, ofreciendo respuestas precisas y dinámicas a las consultas del usuario. A medida que la industria se adapte a estas tecnologías emergentes, las instituciones financieras encontrarán nuevas oportunidades para innovar y mejorar sus procesos.
vía: AWS machine learning blog

Transforma Tu Almacenamiento con Papel Adhesivo y Viejos Botes

0
Con papel adhesivo y unos viejos botes puedes mejorar el almacenamiento de tu hogar en un santiamén

En un mundo donde el espacio en el hogar suele ser limitado y la organización se vuelve un desafío diario, una solución práctica y económica está ganando popularidad: la reutilización de viejos botes y papel adhesivo para mejorar el almacenamiento en casa. Esta tendencia, que se enmarca dentro del movimiento del “hazlo tú mismo”, no solo promueve la creatividad, sino que también aporta un valor significativo a la organización del hogar.

Numerosos hogares están optando por proyectos de bricolaje que transforman botes de vidrio, plástico o metal, que de otro modo terminarían en la basura, en soluciones funcionales de almacenamiento. Con simple papel adhesivo, disponible en una variedad de colores y diseños, se pueden personalizar estos recipientes para que se integren en la decoración de cualquier habitación.

La técnica es sencilla y no requiere habilidades avanzadas. Primero, se limpia el bote a fondo, eliminando cualquier residuo de su contenido anterior. Luego, se aplica el papel adhesivo alrededor del recipiente, cubriendo etiquetas y marcas no deseadas. Este proceso de personalización no solo permite mantener la estética del hogar, sino que también ayuda a identificar fácilmente el contenido de cada bote, optimizando así la organización.

Esta práctica ha cobrado aún más relevancia en tiempos donde la sostenibilidad es una prioridad. Al reutilizar materiales y darles una nueva vida, los hogares no solo reducen su impacto ambiental, sino que también fomentan la creatividad al involucrar a toda la familia en el proceso de organización. Padres e hijos pueden trabajar juntos, creando un espacio que refleja sus gustos personales y necesidades.

Además, las redes sociales están repletas de tutoriales e ideas inspiradoras para proyectos de almacenaje con botes. Desde especieros personalizables para la cocina, hasta organizadores de escritorio, las posibilidades son casi infinitas. Esto ha llevado a un auge en la comunidad de decoración y bricolaje, donde el intercambio de consejos y trucos se ha vuelto una actividad común.

Finalmente, esta tendencia no solo mejora la funcionalidad del hogar, sino que también puede ser una actividad gratificante que une a las familias. Con un poco de tiempo, esfuerzo y creatividad, es posible transformar el caos del almacenamiento en un sistema organizado y visualmente atractivo, todo mientras se contribuye al cuidado del medio ambiente.

El Juez Permite que la Demanda de una Víctima de Tortura contra el Fabricante de Espionaje Continúe

0
Torture Victim’s Landmark Hacking Lawsuit Against Spyware Maker Can Proceed, Judge Rules

En Portland, Oregón, la activista saudí de derechos humanos, Loujain Alhathloul, ha recibido un importante respaldo en su lucha legal contra el software de espionaje que facilitó su encarcelamiento y tortura. Un juez federal ha permitido que su demanda avance, marcando un hito en la jurisprudencia relacionada con los derechos humanos.

La Jueza del Distrito de Oregón, Karin J. Immergut, dictaminó que la demanda de Alhathloul contra DarkMatter Group y tres de sus exejecutivos puede continuar bajo la Ley de Fraude y Abuso Informático (CFAA), lo que representa un avance sin precedentes para un caso de derechos humanos en este contexto legal. Sin embargo, otras afirmaciones basadas en el Estatuto de Tortura Extranjera fueron desestimadas por el tribunal.

Alhathloul está representada por el Electronic Frontier Foundation (EFF), el Center for Justice and Accountability, Foley Hoag y Tonkon Torp LLP. David Greene, director de Libertades Civiles de la EFF, expresó que esta decisión judicial es un paso significativo para las víctimas de abusos humanos perpetrados por gobiernos extranjeros y sostenidos por tecnología de espionaje estadounidense.

La activista, que fue nominada al Premio Nobel de la Paz en 2019 y 2020, ha abogado durante más de una década por los derechos de las mujeres en Arabia Saudita. Su lucha incluye el derecho al conducir y la crítica al sistema de tutela masculina en su país.

La demanda alega que DarkMatter Group, junto con sus ejecutivos Marc Baier, Ryan Adams y Daniel Gericke, fueron contratados por los Emiratos Árabes Unidos para acosar a Alhathloul y a otros disidentes percibidos, como parte de una cooperación más amplia con Arabia Saudita. Según la denuncia, se utilizó tecnología de ciberespionaje de Estados Unidos para infectar el iPhone de Alhathloul y extraer datos, incluida comunicación con contactos estadounidenses. Posteriormente, fue detenida arbitrariamente por los servicios de seguridad de los Emiratos y entregada a Arabia Saudita, donde sufrió tortura. Aunque ya no está en prisión, enfrenta una prohibición de viaje ilegal que la mantiene atrapada en su país.

La demanda fue presentada en diciembre de 2021; sin embargo, tras ser desestimada en marzo de 2023 con la posibilidad de enmendarla, se presentó una versión revisada en mayo del mismo año. En su fallo, la jueza Immergut destacó que las reclamaciones de Alhathloul estaban vinculadas a contactos relacionados con el foro en Estados Unidos, dejando la puerta abierta a sus alegaciones bajo la CFAA.

Este fallo se da en un contexto global donde las violaciones de derechos humanos se han vuelto cada vez más evidentes, y se espera que sirva como modelo para otros casos similares en el futuro.
Fuente: EFF.org