El Pentágono emitió un ultimátum a la empresa de inteligencia artificial Anthropic, solicitando que su tecnología sea utilizada con fines militares sin restricciones, incluyendo operaciones de armamento autónomo y sistemas de vigilancia masiva en Estados Unidos. La compañía, fundada por exdirectivos de OpenAI, ha mantenido una postura firme de no eliminar los filtros de seguridad que limitan el uso bélico de su IA.
Según reportes de Polymarket y medios internacionales, el gobierno estadounidense ofreció una “última propuesta” a Anthropic y dio un plazo de 24 horas para aceptar, advirtiendo que la negativa podría derivar en la prohibición de su tecnología dentro del país. La presión se da en un contexto de creciente debate sobre los límites éticos y legales de la inteligencia artificial aplicada a la defensa.
Dario Amodei, director ejecutivo de Anthropic, reiteró que la empresa no retirará las salvaguardas que impiden que su IA sea usada para dirigir armas autónomas o para vigilancia masiva. “Nuestra prioridad es asegurar que la tecnología se utilice de manera ética y no se transforme en un instrumento de control o conflicto militar indiscriminado”, indicó Amodei en declaraciones recientes.
Por su parte, el Pentágono sostiene que la empresa no puede imponer sus propias restricciones internas al gobierno y que las operaciones deben cumplir únicamente con las leyes federales vigentes. Esta postura refleja la tensión entre la responsabilidad ética de las empresas de tecnología y las demandas estratégicas del Estado en materia de seguridad y defensa.
El conflicto también evidencia un dilema global: mientras la IA avanza rápidamente, surgen debates sobre cómo equilibrar innovación tecnológica, seguridad nacional y ética. Anthropic se encuentra en el centro de esta discusión, defendiendo un enfoque que priorice la protección de la sociedad frente al uso militar de sus desarrollos, aun frente a presiones de un gobierno con recursos estratégicos y políticos significativos.
Analistas en tecnología y defensa advierten que la resolución de este enfrentamiento podría sentar precedentes sobre cómo los gobiernos negocian con empresas privadas de IA y hasta qué punto pueden obligarlas a adaptar sus tecnologías para fines militares, sin importar las normas internas de las compañías.
En las próximas horas se espera la respuesta formal de Anthropic, que definirá si la empresa cede ante las presiones del Pentágono o mantiene sus límites éticos, lo que podría desencadenar sanciones regulatorias dentro de Estados Unidos y afectar el rumbo de la IA en contextos de seguridad nacional.
Mantente al tanto de todas las noticias Puebla. Haz clic aquí para seguir explorando nuestro portal.
foto ilustrativa
xmh