Google alerta sobre nueva era de ciberataques impulsados ​​por IA

Por diegoantonio , 11 Mayo 2026
Sumario
Google aseguró que interrumpió una operación criminal que buscaba usar inteligencia artificial para explotar una vulnerabilidad desconocida en una empresa.
Cuerpo de la Nota

Ciudad de México.- Google informó que frustró un intento de un grupo criminal que presuntamente buscaba utilizar inteligencia artificial para explotar una vulnerabilidad digital desconocida en una empresa no identificada, un caso que incrementa las alertas dentro del gobierno y del sector privado sobre los riesgos que la IA representa para la ciberseguridad .

La compañía ofreció pocos detalles sobre los atacantes y el objetivo de la operación, pero John Hultquist , analista jefe de inteligencia de amenazas de Google, advirtió que el episodio confirma un escenario del que los especialistas han hablado durante años: el uso de herramientas de inteligencia artificial por parte de piratas informáticos para ampliar su capacidad de vulnerabilidad de sistemas informáticos.

Hultquist sostuvo que la etapa de las vulnerabilidades y los ataques impulsados ​​por IA ya comenzaron. Su advertencia llega en un contexto de rápidos avances en modelos capaces de detectar fallas de seguridad, como Mythos , presentado hace un mes por Anthropic , y en medio de debates dentro de la administración del presidente Donald Trump sobre la supervisión de los sistemas de inteligencia artificial más potentes antes de su lanzamiento público.

Después de cumplir su promesa de campaña de eliminar las salvaguardas impulsadas por el expresidente Joe Biden en torno a esta tecnología, el gobierno republicano ha enviado señales contradictorias sobre el papel que debería asumir el Estado en la vigilancia de la IA . Para Dean Ball , investigador principal de la Foundation for American Innovation y exasesor de política tecnológica de la Casa Blanca, el tema divide opiniones entre quienes rechazan una respuesta regulatoria y quienes consideran que es necesaria.

Ball señaló que, aunque no favorece la regulación, considera que en este caso se requiere algún tipo de intervención. Su postura se marca en la preocupación por el impacto que podrían tener estas herramientas si son utilizadas para descubrir y explotar fallas en sistemas críticos.

De acuerdo con Google , el grupo criminal planeaba una operación de gran escala basada en una vulnerabilidad que había detectado. La falla habría permitido evadir la autenticación de dos factores para acceder a una popular herramienta en línea de administración de sistemas, cuyo nombre la empresa decidió no revelar.

La compañía clasificó el caso como un ataque de día cero , concepto utilizado para describir una vulnerabilidad de seguridad que era desconocida hasta el momento de su explotación, por lo que los especialistas no habían tenido tiempo de desarrollar una corrección. Google aseguró que notificó a la empresa afectada ya las autoridades, y que logró interrumpir la operación antes de que provocara daños.

Al revisar los rastros dejados por los atacantes, la empresa encontró indicios de que habrían empleado un modelo de lenguaje grande , la misma tecnología que impulsa a diversos chatbots, para descubrir la vulnerabilidad. Google no precisó qué sistema fue utilizado, aunque señaló que probablemente no se trató de Gemini , su propio modelo, ni de Claude Mythos , desarrollado por Anthropic.

La compañía tampoco identificó al grupo sospechoso, pero afirmó que no existen pruebas de que estuviera vinculado con un gobierno adversario. Sin embargo, indicó que grupos relacionados con China y Corea del Norte han explorado técnicas similares.

Hultquist explicó que, a diferencia de los espías gubernamentales, que suelen operar con mayor lentitud y discreción, los hackers criminales pueden beneficiarse especialmente de la velocidad que ofrece la inteligencia artificial para encontrar fallos de seguridad y convertirlos en herramientas de ataque. Según el analista, la capacidad de actuar con rapidez puede ser decisiva para obtener datos con multas de extorsión o para lanzar ataques de ransomware .

El caso también ocurre en medio de la inquietud generada por Mythos , el modelo de Anthropic que, según la compañía, tiene capacidades tan avanzadas en tareas de hackeo y ciberseguridad que solo puede ser compartido con un grupo reducido de organizaciones confiables.

La semana pasada, el Departamento de Comercio del gobierno de Trump anunció nuevos acuerdos con Google , Microsoft y xAI , la empresa de Elon Musk , para sus modelos de inteligencia artificial más poderosos antes de su publicación. Esos acuerdos se sumarían a compromisos previos alcanzados durante la administración Biden con Anthropic y OpenAI , creadora de ChatGPT . No obstante, el anuncio desapareció posteriormente del sitio web del Departamento de Comercio.

Anthropic, por su parte, creó la iniciativa Project Glasswing , que reúne a grandes compañías tecnológicas como Amazon , Apple , Google y Microsoft , además de firmas como JPMorgan Chase , con el objetivo de proteger el software crítico frente a los posibles efectos graves que el nuevo modelo podría generar en la seguridad pública, la seguridad nacional y la economía.

La relación de Anthropic con el gobierno estadounidense se ha visto tensionada por una disputa pública y legal con el Pentágono y con el propio Trump en torno al uso militar de su tecnología de IA . Mientras tanto, su principal competidor, OpenAI , presentó un modelo similar enfocado en ciberseguridad , disponible únicamente para defensores responsables de proteger infraestructura crítica, con el propósito de ayudarlos a localizar y corregir vulnerabilidades en su código.

Ball demostró que, a largo plazo, las herramientas de inteligencia artificial orientadas a programación podrían mejorar la protección frente a ataques rutinarios que afectan a hospitales, escuelas y otras organizaciones. Sin embargo, advirtió que actualmente existe una enorme cantidad de líneas de código que sostienen los sistemas informáticos del mundo y que podrían quedar expuestas si se liberan herramientas capaces de explotar sus fallas.

El investigador estimó que reforzar todo ese software podría tomar años y que ese proceso se beneficiaría de la coordinación del gobierno de Estados Unidos . Mientras tanto, anticipó un período de transición en el que los riesgos de ciberseguridad podrían aumentar de forma significativa, haciendo que el entorno digital sea más peligroso.

No te pierdas ninguna actualización importante. Explora nuestro portal para seguir informado sobre las últimas noticias en Puebla.

Foto: Especial 

djs

Galería de Imagenes
Imagen
Redes sociales
Contador
27
Publicar en
Sección
valoracion
0