top of page

Cómo asegurar el uso ético de la inteligencia artificial para que la inclusión sea real y no superficial

  • 16 dic 2025
  • 2 Min. de lectura

La inteligencia artificial (IA) se ha presentado como una herramienta con gran potencial para promover la inclusión social, educativa y laboral. Sin embargo, este potencial solo puede concretarse si su diseño, implementación y uso se realizan de manera ética y responsable. De lo contrario, la IA corre el riesgo de generar una inclusión meramente superficial, que aparenta equidad pero que, en la práctica, reproduce o incluso profundiza desigualdades existentes.


Para asegurar un uso ético de la IA, el primer aspecto clave es la eliminación de sesgos en los datos y algoritmos. Los sistemas de IA aprenden a partir de grandes volúmenes de datos, y si estos reflejan prejuicios sociales, culturales o económicos, la tecnología los replicará. Por ello, es fundamental utilizar conjuntos de datos diversos, representativos y auditables, así como evaluar de forma continua los resultados de los algoritmos para detectar discriminaciones hacia determinados grupos.


En segundo lugar, la transparencia y comprensibilidad son esenciales para una inclusión real. Las personas afectadas por decisiones automatizadas deben poder comprender cómo y por qué un sistema de IA llega a determinadas conclusiones. Esto es especialmente importante en ámbitos sensibles como la educación, la selección de personal, la salud o el acceso a servicios públicos. Una IA limita la capacidad de las personas para cuestionar decisiones injustas y perpetúa relaciones de poder desiguales.

Otro elemento fundamental es la participación activa de los grupos involucrados. La inclusión no debe diseñarse únicamente desde una perspectiva técnica, sino incorporando las voces de personas con discapacidades, comunidades marginadas y usuarios finales en todas las etapas del desarrollo de la IA. Esta participación ayuda a identificar necesidades reales y evita soluciones simbólicas que no responden a los problemas concretos de la población.


Asimismo, es necesario establecer marcos normativos y principios éticos claros, que definan responsabilidades y límites en el uso de la IA. Las instituciones educativas, las empresas y los gobiernos deben asumir un compromiso activo con la equidad, garantizando que la tecnología respete los derechos humanos, la privacidad y la dignidad de las personas.


Finalmente, asegurar una inclusión real implica promover la alfabetización digital y el acceso equitativo a la tecnología. No basta con crear sistemas inclusivos si gran parte de la población no tiene los conocimientos o recursos necesarios para utilizarlos. La educación en IA y el acceso universal a herramientas tecnológicas son condiciones indispensables para que la inclusión sea efectiva y sostenible.


En conclusión, el uso ético de la inteligencia artificial es clave para que la inclusión no se limite a un discurso superficial. Solo a través de la eliminación de sesgos, la transparencia, la participación social, la regulación ética y el acceso equitativo se puede garantizar que la IA contribuya verdaderamente a una sociedad más justa e inclusiva.


Por: Michelle Jara Barrón 

Facultad de comunicación, Universidad Anáhuac México Campus Norte.

Comentarios


bottom of page