Foro sobre IA alerta que la inteligencia artificial puede replicar y amplificar desigualdades históricas

Por diegoantonio , 1 Febrero 2026
Sumario
En el foro “ La inteligencia artificial en la vida pública de México ”, especialistas advirtieron que la IA , al operar sobre datos seleccionados por género , clase , raza o territorio , puede replicar y amplificar desigualdades históricas , por lo que pidieron marcos éticos y regulación que mantienen el control humano al centro.
Cuerpo de la Nota

Ciudad de México, México. – La inteligencia artificial (IA) dejó de ser una promesa futurista para convertirse en una tecnología que ya interviene en el lenguaje , la producción de conocimiento , la toma de decisiones y múltiples procesos de la vida cotidiana. Pero, al operar sobre datos cargados de datos históricos , puede reproducir y amplificar desigualdades y vulnerar derechos humanos , advirtieron especialistas reunidos en un foro realizado en la capital del país.

Bajo esta preocupación se desarrolló el encuentro “ La inteligencia artificial en la vida pública de México: declaración de ética y buenas prácticas para el uso y desarrollo de la IA ”, donde autoridades y analistas debatieron sobre los retos políticos, sociales y ambientales que plantea el avance acelerado de la IA . En el auditorio Jaime Torres Bodet del Museo Nacional de Antropología , el 29 de enero, coincidieron en que estas herramientas carecen de agencia moral : no deciden por sí mismas, pero sí replican, automatizan y escalan modelos de desigualdad ya existentes. Cuando los datos están seleccionados por género , clase , raza o territorio , los algoritmos tienden a reproducir esas distorsiones y, lejos de corregir injusticias, pueden institucionalizarlas a gran escala .

La doctora María Funes Argüello , especialista en Ciencias Biomédicas y coordinadora de Investigación Científica de la UNAM , subrayó que el uso responsable de la inteligencia artificial no puede desligarse de su impacto social , ni dejarse exclusivamente en manos del mercado . Recordó que la IA “no duda ni contrasta hipótesis”, de modo que, sin controles humanos , existe el riesgo de asumir sus resultados como verdades incuestionables , lo que calificó de “sumamente peligroso”. Por ello, llamó a construir marcos normativos y éticos que regulen tanto el desarrollo como el uso de estas tecnologías en instituciones educativas y de investigación .

El uso de IA en las aulas , especialmente en el nivel superior, está reconfigurando el sentido de la educación y del mérito académico . Plataformas de enseñanza han comenzado a incorporar sistemas de inteligencia artificial para no quedarse atrás frente a las nuevas generaciones, pero se ven obligados a hacerlo con criterios de cuidado , transparencia y compromiso ético . Un informe reciente de la firma de análisis Gallup indica que alrededor del 79% de las personas de la Generación Z utilizan plataformas de IA , como ChatGPT , en su vida diaria, y casi la mitad lo hace de manera semanal , lo que plantea preguntas sobre qué significa realmente “aprender” en este nuevo entorno.

Otro punto de preocupación abordado en el foro fue el riesgo de automatización y desplazamiento de empleos , en particular en áreas administrativas y artísticas . Los participantes insistieron en que la eficiencia tecnológica no puede justificarse a costa de la dignidad laboral ni de la función social del trabajo humano . A ello se suma un desequilibrio en la inversión : mientras las empresas privadas concentran el liderazgo en el desarrollo de IA , el Estado enfrenta serios retos para sostener el financiamiento a la ciencia y la tecnología . Recordaron que, aunque en diciembre de 2025 la presidenta Claudia Sheinbaum anunció un aumento de siete mil millones de pesos al presupuesto del sector, este monto sigue siendo aproximadamente un 32% menor que el registrado en 2015 , cuando se destinaron alrededor de 94.5 mil millones de pesos .

La discusión también se centra en la privacidad , la protección de datos personales y las formas en que la violencia de género se ve amplificada por los algoritmos . Se habló, por ejemplo, de la generación de imágenes sexualizadas sin consentimiento , la vigilancia masiva y la normalización de prácticas que vulneran derechos humanos . Los expertos recalcaron que la actuación humana sigue siendo “el punto de partida”: la IA no sustituye la responsabilidad de quienes toman decisiones críticas, ni elimina los dilemas éticos que éstas entrañan.

En ese contexto, Pablo Pruneda , investigador del Instituto de Investigaciones Jurídicas de la UNAM , advirtió que centrar la regulación únicamente en la herramienta tecnológica sería un error. Puso como ejemplo los “deepfakes” y los llamados “deepnudes” o “deeporn” , creaciones de desnudos mediante IA que resultan casi indistinguibles de imágenes reales. A su juicio, el foco de la sanción penal debe estar en la conducta humana que produce y difunde ese contenido, no en la misma herramienta. Subrayó que el Estado mexicano necesita un plan claro para enfrentar estos delitos y, al mismo tiempo, evitar normas que terminen restringiendo la tecnología sin eficacia real y que, en lugar de fortalecer el Estado de derecho , lo debiliten.

En paralelo, se recordó que la Secretaría de las Mujeres ha acordado acuerdos iniciales con plataformas como Meta , YouTube , Google y TikTok para combatir la violencia de género en entornos digitales. No obstante, se mencionó que sistemas como “Grok” , una IA de la plataforma X (antes Twitter ), han sido utilizados para manipular y difundir imágenes explícitas de mujeres sin su consentimiento, mientras que en tiendas digitales de compañías como Google y Apple siguen disponibles numerosas aplicaciones con funciones similares.

A estas problemáticas se suma un aspecto poco visibilizado: el impacto ambiental de la inteligencia artificial . Los centros de datos , el hardware y la infraestructura necesaria para entrenar y operar modelos de IA consumen grandes cantidades de energía y agua , además de materiales como litio y cobalto . Esto se traduce en emisiones de CO₂ asociadas a la generación de electricidad ya la fabricación de equipos , así como en contaminación del aire derivada del uso de generadores diésel y de los procesos de minería ligados a la cadena de suministro.

Ante la complejidad de estos desafíos, los especialistas coincidieron en que cualquier intento de regulación de la IA debe ir acompañado de alfabetización digital y de una apuesta decidida por la educación pública , de modo que la ciudadanía pueda comprender, debatir y participar en las decisiones sobre el uso de estas tecnologías. La disputa, señalaron, no es solo tecnológica , sino también por el sentido de lo público , los derechos y el futuro . La pregunta central ya no es si la IA debe usarse en la vida cotidiana, sino bajo qué principios, límites y multas .

En su intervención final, Funes Argüello recordó que no se trata de diseñar sistemas completamente desligados del ser humano , sino de construir tecnologías independientes desde la corresponsabilidad y el diálogo interdisciplinario . La inteligencia artificial , dijo, tiene un enorme potencial para transformar sectores claves de la sociedad, pero lo decisivo será cómo se implementan estas herramientas. Por ello, llamó a activar mecanismos reforzados de evaluación humana ya definir con claridad las responsabilidades institucionales , para que la IA no se limite a automatizar sesgos y desigualdades históricas , sino que contribuya a reducirlos.

¿Quieres mantenerte al tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!

Foto: Especial

Djs

 
Galería de Imagenes
Imagen
IA
Contador
21
Publicar en
Sección
valoracion
0