Tecnología

Exhiben sesgo de IA en valores culturales

Por Redacción | jueves, 12 de marzo de 2026

EMX-Exhiben sesgo de IA en valores culturales

Por si faltaran motivos para desconfiar de los chatbots de Inteligencia Artificial (IA), tal herramienta ahora ha probado ser una fuente dudosa de información sobre algunas culturas y sociedades.


CIUDAD DE MÉXICO.- Por si faltaran motivos para desconfiar de los chatbots de Inteligencia Artificial (IA), tal herramienta ahora ha probado ser una fuente dudosa de información sobre algunas culturas y sociedades.

Un estudio realizado por académicos de diferentes universidades de Estados Unidos encontró que los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), como ChatGPT, responden con representaciones estereotipadas y sistemáticamente sesgadas de las poblaciones humanas, esto a partir de hacer estimaciones imprecisas de sus valores morales.

"Los resultados indican que los LLM no deben considerarse herramientas fiables para inferir valores culturales o morales de poblaciones humanas", se advierte en el artículo publicado en la revista científica Proceedings of the National Academy of Sciences (PNAS).

"En lugar de reflejar con precisión la realidad empírica, los modelos parecen reproducir estereotipos presentes en los datos de entrenamiento, que a su vez reflejan desigualdades en la producción y circulación global de información", refiere el estudio liderado por el psicólogo Mohammad Atari, de la Universidad de Massachusetts Amherst.

Los investigadores pidieron a diferentes modelos de la familia GPT estimar el grado en que una persona promedio de distintas nacionalidades respalda cada uno de los seis valores propuestos en la Teoría de los Fundamentos Morales: cuidado, igualdad, proporcionalidad, lealtad, autoridad, pureza.

Sus respuestas se compararon con los datos de una encuesta internacional con más de 93 mil participantes en 48 países, quienes naturalmente difieren en la importancia que otorgan a dichos valores morales.

"Nuestros hallazgos indican que los LLM capturan deficientemente la diversidad moral global, pues sobreestiman sistemáticamente algunos valores morales -especialmente el cuidado-, y subestiman otros -especialmente la pureza-", detalla el artículo.

"De manera notable, al examinar distintas versiones de GPT encontramos que estos modelos pueden sobreestimar las preocupaciones morales generales de algunos países occidentales -por ejemplo, Estados Unidos, Canadá y Australia-, y subestimar las de países no occidentales -como Nigeria, Marruecos e Indonesia-".

Entre las serias implicaciones que los académicos señalan derivado de este análisis hay riesgos epistemológicos: Si investigadores, periodistas o responsables de políticas públicas se valen de este tipo de chatbots, podrían obtener representaciones distorsionadas de las sociedades.

"La reproducción de estereotipos culturales puede reforzar prejuicios existentes y perpetuar visiones simplificadas o jerárquicas del mundo", previene el equipo de investigadores.

"Estos hallazgos subrayan la necesidad de cautela al utilizar LLM para realizar inferencias culturales o psicológicas sobre poblaciones humanas. Asimismo, resaltan la importancia de seguir recurriendo a métodos empíricos tradicionales -encuestas, estudios interculturales y trabajo de campo- para comprender las variaciones morales en el mundo", concluyen.

-Con información de Agencia Reforma