Cuando los algoritmos discriminan: Reflexiones sobre el sesgo y la colonialidad digital en la Inteligencia Artificial

Celaya, Gto., a 20 de abril de 2026.- Personal académico y estudiantes del Campus Celaya‑Salvatierra (CCS) de la Universidad de Guanajuato (UG) reflexionan sobre el sesgo algorítmico en la Inteligencia Artificial (IA) y su impacto en el ámbito de los derechos humanos.
La conferencia titulada “Cuando los algoritmos discriminan: el sesgo algorítmico de la IA como amenaza a los derechos humanos”, impartida por Jorge Alberto Andrade Aldana, maestro en Justicia Constitucional y profesor de la División de Ciencias Sociales y Humanidades de la UG, reunió en dos sesiones —modalidad virtual y presencial— a estudiantes, profesoras y profesores del CCS.
La ponencia abrió un espacio de reflexión profunda sobre cómo la Inteligencia Artificial (IA) no es una herramienta neutra, sino un sistema que puede perpetuar sesgos estructurales en la recopilación y selección de información. A través de este análisis, se planteó un panorama de conocimiento general que invitó a las y los participantes a cuestionar la “colonialidad digital” y la urgencia de una justicia algorítmica.
En el primer bloque de análisis se abordó el funcionamiento de la IA mediante machine learning y los algoritmos que identifican patrones para la toma de decisiones. Este proceso de concentración de la información marca un primer sesgo ante la pluralidad informativa, al carecer de filtros de género, derechos humanos e interseccionalidad, por mencionar algunos.
Al delegar procesos críticos, como la selección de personal, a sistemas diseñados mayoritariamente por hombres (70 % de los desarrolladores de IA son varones), aunado a visiones morales específicas presentes en quienes desarrollan estas herramientas, se corre el riesgo de automatizar la exclusión bajo una apariencia de objetividad técnica.
Asimismo, se remarcó la concentración de la infraestructura y la inversión en el Norte Global, lo que supone un sesgo que va más allá de un error tecnológico, trasladándolo a un conflicto de poder y justicia.
Aunado a esto, la influencia del idioma inglés y de los contextos de países como EUA o China impone una visión del mundo que ignora la riqueza lingüística, cultural y de generación de conocimiento de otras regiones, así como el hecho de que el uso de asistentes virtuales con voces y nombres femeninos refuerza estereotipos de servicio, subordinación y roles de género preestablecidos.
Un eje fundamental de las conferencias fue la aplicación de la “matriz colonial del poder”, de Aníbal Quijano, al entorno digital. Se analizó cómo el patriarcado, el capitalismo y el colonialismo se entrelazan para jerarquizar el conocimiento y los recursos.
Bajo esta lógica, se cuestionó la idea de un “individuo universal”, pues el ser humano es, en realidad, un cúmulo de realidades sociales, económicas y geográficas, lo que hace evidente la necesidad de la interseccionalidad como una herramienta clave para comprender que no existen soluciones tecnológicas únicas.
Finalmente, el encuentro concluyó con un llamado a transitar hacia una ética del cuidado y una justicia algorítmica que rediseñe los sistemas digitales para proteger a los sectores más vulnerables, de manera que el desarrollo tecnológico futuro no sea un eco del pasado colonial, sino un motor de equidad y reconocimiento del otro, ante una evolución tecnológica que permea cada vez más los aspectos más cotidianos de nuestra vida social y política.

