¿La inteligencia artificial debilita la mirada clínica?
- hace 19 horas
- 2 Min. de lectura

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México
La medicina ha celebrado a la inteligencia artificial como una aliada formidable: algoritmos que detectan tumores invisibles al ojo humano, sistemas que predicen riesgos con mayor exactitud que los protocolos tradicionales, diagnósticos veloces que ahorran tiempo y salvan vidas. Sin embargo, un estudio publicado en The Lancet Gastroenterology and Hepatology abre un horizonte inquietante: los médicos que usan IA para identificar lesiones durante colonoscopias se volvieron, en cuestión de meses, menos capaces de detectarlas por sí mismos.
El fenómeno se conoce como deskilling, o descualificación: cuando una habilidad se atrofia porque una tecnología la sustituye. La paradoja es evidente: cuanto más eficaz es la herramienta, menos ejercita el profesional la pericia que le permitió alguna vez depender solo de sus sentidos. La IA no solo aprende de nosotros; también nosotros desaprendemos con ella.
Entre la confianza y la dependencia
El gastroenterólogo Omer Ahmad lo resume con claridad: el proceso es bidireccional. Alimentamos a la IA con datos que perfeccionan sus respuestas, pero su intervención moldea nuestra conducta clínica. Si la máquina resalta con un recuadro el tejido sospechoso, el ojo humano se acomoda a esa mediación y pierde agudeza cuando el recuadro desaparece.
Aquí surge un dilema ético: ¿puede un médico delegar a una máquina una competencia que constituye la esencia de su oficio? ¿Qué significa ser especialista si la destreza central se terceriza?
La medicina como práctica antropológica
Desde una perspectiva antropológica, la medicina no es solo ciencia aplicada: es un arte del cuidado, donde el cuerpo del otro se convierte en texto a ser leído. La descualificación implica que el médico puede perder esa alfabetización corporal, delegando en una pantalla lo que antes descifraba con experiencia, intuición y sensibilidad.
Walter Benjamin hablaba del “aura” en el arte: la huella irrepetible de lo humano en la obra. Algo similar ocurre con la clínica: el diagnóstico no es solo un dato, es un encuentro de miradas, un gesto de confianza, una escucha del cuerpo que habla. Si la IA borra ese aura, ¿qué queda del acto médico?
Ética de la corresponsabilidad
El riesgo no es la IA en sí misma, sino la pérdida de equilibrio. Una medicina futura debe pensarse como corresponsabilidad humano-algorítmica: algoritmos que potencien la precisión, pero médicos que mantengan la capacidad de juicio autónomo, la intuición clínica y la sensibilidad ética.
La clave está en no confundir ayuda con sustitución. La IA puede ser lupa, pero no mirada; puede ser memoria, pero no experiencia; puede ser cálculo, pero no cuidado.
El desafío, entonces, no es prohibir la IA, sino preguntarnos qué lugar queremos darle en el oficio de sanar. Porque la medicina, en su raíz, no es solo tecnología de cuerpos, sino práctica de humanidad compartida. Si permitimos que el médico se descualifique, no solo empobrecemos su habilidad técnica, sino la experiencia profunda de confianza que funda toda relación terapéutica.
La pregunta queda abierta: ¿queremos doctores que confíen ciegamente en un recuadro luminoso, o médicos capaces de mirar más allá de la pantalla y escuchar lo que ninguna máquina puede detectar: la fragilidad y la esperanza del ser humano que tienen enfrente?
Comentarios