Un experimento de ciberseguridad reveló que un agente autónomo pudo vulnerar en menos de dos horas la plataforma interna de IA de una consultora.
En un artículo de Más Información se explica que un agente autónomo de inteligencia artificial logró infiltrarse en la base de datos de la consultora internacional McKinsey & Company y acceder a millones de registros confidenciales en menos de dos horas, en un experimento que encendió las alertas sobre los riesgos de seguridad que enfrentan las empresas al implementar herramientas de IA en sus procesos internos.
De acuerdo con información publicada por el portal Infobae, la startup de ciberseguridad CodeWall reveló el 9 de marzo que su agente autónomo consiguió acceso total de lectura y escritura a la base de datos de Lilli, la plataforma de inteligencia artificial desarrollada por la firma consultora para apoyar el trabajo de sus empleados.
“Lilli fue lanzada en 2023 y es utilizada por más del 70% del personal de McKinsey, lo que representa cerca de 43 mil consultores que la emplean para analizar documentos, consultar archivos internos y procesar información estratégica”, explica.
El sistema gestiona más de 500 mil consultas al mes y concentra décadas de investigación, metodologías y análisis que constituyen parte fundamental del capital intelectual de la empresa. El agente de IA comenzó analizando la superficie pública de la plataforma y detectó documentación de su interfaz de programación con más de 200 puntos de acceso.
Aunque la mayoría requería autentificación, al menos 22 de ellos estaban expuestos. Uno de esos accesos presentaba una vulnerabilidad de inyección SQL, una falla de seguridad conocida desde los años noventa.
A diferencia de los escáneres de seguridad tradicionales, el sistema autónomo no siguió un protocolo fijo. En cambio, fue capaz de mapear las vulnerabilidades, probar distintas rutas y escalar privilegios automáticamente hasta alcanzar la base de datos central.
“Como resultado, obtuvo acceso a 46.5 millones de mensajes relacionados con estrategias empresariales, fusiones y adquisiciones, además de 728 mil archivos confidenciales, 57 mil cuentas de usuario y decenas de instrucciones del sistema que regulaban el funcionamiento del asistente de inteligencia artificial”, añadió.
Uno de los aspectos más preocupantes del caso fue la posibilidad de modificar los llamados system prompts, es decir, las instrucciones internas que determinan cómo responde la IA.
Al encontrarse en la misma base de datos comprometida, un atacante podría haber alterado esas directrices sin dejar rastros evidentes en los registros de seguridad. Esto habría permitido manipular recomendaciones financieras, análisis corporativos o incluso filtrar información sensible a través de las respuestas generadas por el sistema.
Tras ser notificada el 1 de marzo mediante la plataforma de divulgación responsable HackerOne, McKinsey aseguró haber corregido rápidamente las fallas. La empresa informó que al día siguiente se habían parchado los accesos vulnerables, desconectado el entorno de desarrollo y restringido la documentación pública de la API.
“En un comunicado emitido el 11 de marzo, la consultora afirmó que su investigación, respaldada por un análisis forense externo, no encontró evidencia de que datos de clientes hayan sido consultados por terceros no autorizados.
“No obstante, especialistas en ciberseguridad advierten que el incidente evidencia un problema más amplio: la rápida adopción de sistemas de inteligencia artificial sin auditorías de seguridad adaptadas a estas nuevas tecnologías”.
El caso demuestra que los sistemas de IA corporativos pueden convertirse en objetivos de alto valor para atacantes, especialmente cuando concentran grandes volúmenes de información estratégica.
Para los analistas, el episodio también revela una nueva superficie de ataque digital: la capa de instrucciones o prompts que gobiernan el comportamiento de los sistemas de inteligencia artificial.
Si estas directrices son manipuladas, los empleados podrían recibir información alterada sin sospechar que el origen del problema está en la propia herramienta que utilizan a diario.
Concluye el trabajo que el experimento de CodeWall fue presentado como una demostración tecnológica, pero especialistas advierten que el verdadero riesgo radica en que actores estatales o grupos criminales podrían emplear herramientas similares para comprometer sistemas corporativos en asunto de horas, lo que plantea un desafío urgente para la seguridad digital en la era de la inteligencia artificial.
De las anécdotas que se cuentan
No todo lo que brilla es oro.
¿Cuál es un ejemplo real de IA débil?
Lo más probable es que se trate de IA débil, también llamada IA estrecha.
Por ejemplo, si utilizas un asistente virtual como Siri o Alexa al que accedes a través de un dispositivo inteligente, estás utilizando IA débil.
Y por lo tanto, por su uso frecuente, los riesgos de que te roben información existen.
fcrisanto00@yahoo.com.mx
Twitter @fercrisanto
Facebook: Fernando Crisanto
clh