La IA y la ética

Por claudia , 10 Marzo 2026

Hoy, la IA está involucrada en el millonario mundo de los negocios y la Seguridad Pública. Confirma que el futuro estará marcado por la IA y su desarrollo.

La empresa Anthropic impuso ciertas condiciones éticas al Departamento de Defensa de Estados Unidos, que limitaban el uso de su tecnología para espionaje masivo y el desarrollo de armas autónomas.

Cuando el Pentágono solicitó que estas limitaciones fueran eliminadas, Anthropic se negó, lo que dio pie a la intervención de OpenAI. Sam Altman, CEO de OpenAI, elogió la postura de Anthropic, pero en pocas horas anunció un acuerdo con el Pentágono para reemplazar a Claude por ChatGPT.

Esta decisión ha sido ampliamente criticada por su falta de ética, lo que desató el movimiento de «cancelación de ChatGPT».

El acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos ha generado una ola de desinstalaciones de la aplicación móvil de ChatGPT.

Según la consultora Sensor Tower, el pasado sábado 28 de febrero se registró un aumento del 295% en las desinstalaciones en comparación con el día anterior.

Este aumento se produce después de que numerosos usuarios mostraran su desaprobación ante el acuerdo entre OpenAI y el Pentágono, que fue percibido como poco ético. Los usuarios reaccionaron con un movimiento en redes sociales denominado «Cancel ChatGPT», lo que también impactó directamente en las descargas y desinstalaciones de la app.

Con base en la información de Sensor Tower, la tasa habitual de desinstalaciones ronda el 9% de un día a otro, pero el sábado se evidenció un repunte masivo de usuarios que decidieron eliminar la aplicación.

El motivo detrás de este repunte fue la decisión de OpenAI de sustituir a Anthropic, una IA que previamente trabajaba con el Pentágono y -que generó la información que permitió la detención quirúrgica de Maduro, expresidente de Venezuela, la detención del mexicano Nemesio Oceguera “El Mencho”- con ChatGPT, en un acuerdo que muchos consideraron oportunista e inmoral.

El Departamento de Defensa de Estados Unidos llevaba meses utilizando la IA Claude de Anthropic para tareas relacionadas con documentos clasificados.

No obstante, Anthropic había impuesto ciertas condiciones éticas que limitaban el uso de su tecnología para espionaje masivo y el desarrollo de armas autónomas.

Cuando el Pentágono solicitó que estas limitaciones fueran eliminadas, Anthropic se negó, lo que dio pie a la intervención de OpenAI. Sam Altman, CEO de OpenAI.

El impacto de esta controversia se reflejó en el mercado de aplicaciones móviles. Según la consultora Appfigures, el sábado 28 de febrero las descargas de Claude superaron a las de ChatGPT por primera vez en Estados Unidos.

Claude se ha convertido en la aplicación más descargada en varios países fuera de Estados Unidos, como Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.

Este caso puede considerarse parte del «efecto Streisand», en el que los intentos de censurar o desacreditar una figura o empresa terminan por generar una repercusión aún mayor. Mientras que el Pentágono intentó pintar a Anthropic como la «mala» del conflicto, la respuesta pública ha sido ver a Anthropic como la empresa que defiende la ética y el alineamiento de la inteligencia artificial.

Esto ha convertido a la IA de Anthropic en una opción moralmente más respetable que ChatGPT para muchos usuarios.

Ahora Anthropic enfrenta sus propios desafíos. Diversos departamentos y agencias gubernamentales de Estados Unidos han comenzado a adoptar OpenAI y a dejar de utilizar los modelos de Anthropic.

Este cambio podría poner en peligro una reciente ronda de inversión en la que la empresa recaudó 60 mil millones de dólares, ya que, si el Departamento de Defensa etiqueta a Anthropic como un «riesgo para la cadena de suministro», los contratos con múltiples empresas podrían verse comprometidos.

El acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos, anunciado/actualizado a principios de 2026, representa una colaboración significativa para implementar modelos de IA de vanguardia en operaciones de seguridad nacional. Las consecuencias de esta alianza son profundas, abarcando cambios operativos, ética en IA y reacciones públicas.

OpenAI acordó permitir que el Pentágono despliegue sus modelos en redes clasificadas, superando las limitaciones anteriores que se dedicaban a usos no clasificados.

El Departamento de Defensa adjudicó a OpenAI un contrato valorado en aproximadamente 200 millones de dólares para el desarrollo y uso de prototipos de IA de "frontera".

OpenAI estableció restricciones estrictas para evitar el uso de sus tecnologías en la vigilancia doméstica de ciudadanos estadounidenses, la creación de armas autónomas o decisiones de alta importancia que requieran supervisión humana.

Tras la noticia del acuerdo, se produjo un impacto negativo en la opinión pública, evidenciado por un aumento del 295% en las desinstalaciones de ChatGPT en Estados Unidos. El acuerdo provocó tensiones internas, resultando en la renuncia pública de figuras clave dentro de OpenAI preocupadas por el uso militar de su tecnología.

OpenAI ajustó sus políticas en 2024 para eliminar la prohibición directa sobre aplicaciones militares y de guerra, abriendo la puerta a colaboraciones en ciberseguridad, logística y tareas administrativas de defensa.

El acuerdo posiciona a OpenAI frente a competidores como Anthropic, con el objetivo de proporcionar las mejores herramientas de IA para la seguridad nacional.

Aunque la empresa busca limitar el uso a situaciones no letales, la colaboración ha forzado un debate sobre los límites de la IA en el ámbito de la defensa y la seguridad nacional.

Hoy, la IA está involucrada en una discusión ética, su uso para espiar a los ciudadanos viola derechos humanos, pero el gobierno de Estados Unidos justifica su uso como un asunto de Seguridad Nacional.

De las anécdotas que se cuentan

La BUAP ha integrado activamente el debate sobre la inteligencia artificial (IA) y la ética en su comunidad universitaria, ubicándose como un referente en la gobernanza tecnológica

La creación de "Aura" (Agencia de Inteligencia Artificial y Ética Algorítmica), lanzada en 2026 busca gobernar la IA con criterio, pensamiento crítico y un profundo compromiso social, asegurando que la tecnología sea una herramienta de apoyo y no un sustituto del talento humano.

La institución ha organizado master classes, como la encabezada por el maestro. Marcelo García Almaguer, para reflexionar sobre cómo los algoritmos no son neutros y pueden tener sesgos, enfatizando que "la IA no piensa como nosotros".

Ante el uso de IA, la universidad ha enfocado la discusión en el uso responsable, la honestidad académica y la necesidad de verificar la información, enfocando la IA más como una herramienta de enseñanza que como una forma de plagio.

fcrisanto00@yahoo.com.mx
Twitter @fercrisanto
Facebook: Fernando Crisanto

 

 

 

clh

Contador
26