En la actualidad, muchas empresas enfrentan un dilema en su adopción de la inteligencia artificial (IA), que se manifiesta como una especie de dualidad. A primera vista, se pueden observar iniciativas aprobadas, como asociaciones estratégicas con empresas de IA, proyectos piloto dirigidos por proveedores y documentos de políticas cuidadosamente redactados. Sin embargo, en el trasfondo, los ingenieros se dedican a conectar aplicaciones de IA con datos de negocio y herramientas de software como servicio (SaaS) utilizando protocolos específicos.
Los empleados han comenzado a experimentar con herramientas de código abierto en sus hogares, ya que no pueden conseguir que estas sean aprobadas por los sistemas de seguridad de la empresa. Por lo tanto, muchos equipos recurren a aplicaciones de IA «no oficiales» para cumplir con sus tareas más rápidamente y luego copian los resultados en sistemas oficiales.
El relato común entre las empresas es que no ven un retorno de la inversión (ROI) clara, sienten nerviosismo respecto a la seguridad o se sienten perdidas al intentar identificar cuál problema empresarial resolver primero. Sin embargo, como señaló uno de los panelistas en una cumbre reciente en Boston, si «el cliente es siempre el problema, probablemente tú seas el problema».
Este contexto pone de manifiesto un problema más profundo: las empresas no están desinteresadas en la IA autónoma, sino que se ven presionadas a adoptarla en estructuras de infraestructura y gobernanza que nunca se diseñaron para sistemas de este tipo. Esta es exactamente la razón por la que nace Barndoor AI, fundada por Oren Michels. Esta empresa se enfoca en permitir a las organizaciones adoptar sistemas autónomos sin perder el control sobre la seguridad, el cumplimiento normativo o la integridad operativa.
En un panel durante la Generative AI Summit en Boston, donde participaron Michels, cofundador y CEO de Barndoor.ai, y Quentin Hardy, de LGTM LLC, se pudo constatar esta tensión entre la adopción responsable de tecnologías AI. La discusión reveló que la verdadera problemática no radica en la capacidad de los modelos, sino en la «control, visibilidad y confianza». Si no se aborda esta cuestión, las empresas se encontrarán con mucho movimiento, pero sin un valor duradero.
La discusión también giró en torno a cómo la industria se ha llenado de términos técnicos que, sin embargo, no comunican a los directores financieros o de operaciones qué problema se está solucionando realmente ni cuáles son los costos asociados. En un entorno donde múltiples proveedores de software ofrecen complejas plataformas de IA, las empresas pequeñas o medianas no requieren otra gran solución, sino un espacio seguro para experimentar a nivel local y poder identificar los experimentos que realmente funcionan.
Además, se mencionó el fenómeno del «Shadow AI,» que ocurre cuando los empleados adoptan tecnologías de IA fuera del marco de gobernanza oficial. Este patrón recuerda a la adopción temprana de teléfonos inteligentes y servicios en la nube en las empresas, donde equipos de ventas y técnicos utilizaron dispositivos no autorizados hasta que la organización tuvo que adaptarse.
Los panelistas advirtieron que, aunque las experiencias no oficiales pueden facilitar la innovación, crear un entorno de riesgo puede llevar a problemas significativos, como la filtración de datos o el acceso no regulado a información crítica. Barndoor plantea que los sistemas de gobernanza deben ser una herramienta que permita el crecimiento, haciendo seguro probar nuevas ideas y permitiendo a las empresas gestionar el riesgo al mismo tiempo.
El objetivo es claro: proporcionar un «plano de control» que permita que los agentes de IA operen de manera segura y efectiva, garantizando al mismo tiempo visibilidad y gobernanza. Para que las empresas aprovechen al máximo la IA, necesitan crear estructuras que permitan su funcionamiento en un entorno seguro, donde la innovación no se vea ahogada por la burocracia, sino que se fomente a través de una gobernanza eficaz y una infraestructura confiable.
vía: AI Accelerator Institute





