top of page

Quién controla la Inteligencia Artificial: disputas políticas, jurídicas y culturales que definen el campo

  • hace 15 minutos
  • 9 Min. de lectura

Observatorio IA · Anáhuac Landscape


Dr. Vinicius Covas — Profesor Investigador, Facultad de Comunicación, Universidad Anáhuac México


La IA dejó de ser solo tecnología para convertirse en objeto de disputa política, jurídica y cultural. Esta semana, los límites entre quién controla la IA, para qué y con qué valores se pusieron sobre la mesa — desde los tribunales federales en San Francisco hasta las redacciones, las plataformas de video y la Casa Blanca. Cinco hitos que, leídos juntos, revelan una sola pregunta de fondo: ¿quién tiene el derecho de decidir cómo opera la inteligencia artificial cuando las consecuencias son institucionales, bélicas o culturales?



01 · Anthropic ante el juez: la primera gran batalla por las líneas rojas de la IA militar


El martes 24 de marzo, Anthropic compareció ante la jueza federal Rita Lin en San Francisco para solicitar una orden de emergencia que pause la designación del Pentágono como "riesgo para la cadena de suministro" — una etiqueta históricamente reservada para adversarios extranjeros como Huawei, no para startups tecnológicas estadounidenses.


La historia comienza en julio de 2024, cuando Anthropic firmó un contrato de 200 millones de dólares con el Pentágono y se convirtió en el primer laboratorio de IA en desplegar su tecnología en redes clasificadas del Departamento de Defensa. La relación fue productiva: Claude se usó para análisis de inteligencia, planificación operacional y operaciones cibernéticas. Sin embargo, cuando en septiembre comenzaron a renegociarse los términos para expandir el despliegue en la plataforma GenAI.mil, las conversaciones se rompieron en un punto concreto.

El Departamento de Guerra exigió acceso irrestricto a Claude para "todos los fines lícitos".


Anthropic puso dos condiciones: que su tecnología no fuera usada para armas completamente autónomas sin supervisión humana ni para vigilancia masiva de ciudadanos estadounidenses.


El Pentágono consideró esas condiciones inaceptables. En febrero de 2026, el presidente Trump ordenó a todas las agencias federales cesar el uso de Anthropic "de inmediato". Poco después, el Secretario de Defensa Pete Hegseth designó formalmente a la empresa como riesgo para la cadena de suministro nacional — un mecanismo legal que obliga a todos los contratistas de defensa a certificar que no usan Claude en su trabajo con el Pentágono.


La respuesta de la industria fue notable: más de 30 empleados de OpenAI y Google DeepMind — competidores directos de Anthropic — presentaron amicus briefs apoyando a la empresa. Microsoft también presentó un escrito legal en su apoyo, argumentando que el uso de esta designación contra una empresa estadounidense sienta un precedente peligroso para todo el ecosistema tecnológico. La jueza Lin, al escuchar los argumentos el 24 de marzo, no ocultó su posición: "No sé si es un asesinato, pero parece un intento de paralizar a Anthropic."


Perspectiva InteligencIA


El caso no es sobre Anthropic: es sobre si una empresa privada puede establecer restricciones éticas a cómo se usa su tecnología y sobrevivir para contarlo. El Pentágono no está comprando software — está comprando capacidad de toma de decisiones en escenarios bélicos. La distinción importa porque implica una cadena de responsabilidad moral que el modelo tradicional de contratación gubernamental no fue diseñado para gestionar.


Lo que el gobierno está argumentando, en esencia, es que una vez que vende su tecnología a una institución pública, el desarrollador pierde el derecho a opinar sobre su uso. Eso tiene implicaciones que van mucho más allá de Anthropic: establece que las condiciones éticas de uso no son parte legítima de un contrato tecnológico. ¿Cuál es el modelo de gobernanza para IA en contextos donde el cliente es el Estado y el producto son juicios de vida o muerte? Esa pregunta no tiene respuesta en ningún marco legal vigente — y este caso será el primer intento de construirla.


02 · Casa Blanca publica su marco nacional de IA: preemption federal como estrategia regulatoria


El 20 de marzo, la Casa Blanca publicó su "National Policy Framework for Artificial Intelligence" — un documento de cuatro páginas con recomendaciones legislativas para el Congreso que define la postura regulatoria de la administración Trump de forma más clara que cualquier declaración anterior.


El eje central del documento es la preemption federal: el gobierno federal busca invalidar las leyes estatales de IA que considere "excesivamente restrictivas" para la innovación. En la práctica, esto significa que estados como California — que tiene algunas de las regulaciones de IA más avanzadas del mundo, incluyendo leyes de transparencia de datos de entrenamiento y protección laboral frente a automatización — podrían ver sus regulaciones neutralizadas por una ley federal de mínimos.


El marco establece siete prioridades legislativas: protección infantil, control de costos energéticos de centros de datos, respeto a la propiedad intelectual, prevención de la censura, formación en IA para la fuerza laboral, seguridad nacional, y sandboxes de experimentación regulatoria. Lo que no menciona es igualmente significativo: no propone crear ningún organismo federal de supervisión de IA, no establece responsabilidades para los desarrolladores por daños de terceros, y no menciona mecanismos de rendición de cuentas para sistemas de alto riesgo. El modelo es deliberadamente opuesto al EU AI Act, que clasifica los sistemas de IA por nivel de riesgo y establece requisitos obligatorios antes del despliegue.


El contexto político es relevante: el documento se publica días después de que la misma administración intentara eliminar a Anthropic del ecosistema federal por poner condiciones éticas a su tecnología. La coherencia entre ambas acciones es perfecta — y reveladora.


Perspectiva InteligencIA


La táctica no es inédita: fue la misma que usó la administración con internet en los años 90, cuando se optó por un entorno de mínima regulación federal para favorecer la innovación. El resultado fue una industria tecnológica que creció a velocidad extraordinaria — y también 30 años de consecuencias en términos de privacidad, desinformación y concentración de poder que todavía procesamos.


La paradoja central de esta semana es que el mismo gobierno que declara querer un mercado libre de IA acaba de intentar eliminar a uno de los laboratorios más orientados a la seguridad del ecosistema — precisamente por poner condiciones éticas a su tecnología. Lo que parece construirse no es un mercado libre de IA: es un mercado libre para ciertos actores con afinidad política. Para México y LATAM, la pregunta urgente no es solo qué dice Washington — es si la región tiene capacidad y voluntad de construir su propia postura regulatoria antes de que la ausencia de regulación se convierta en el estándar de facto importado.


03 · El 82% de los periodistas ya usa IA: el estado del oficio según Muck Rack 2026


El 19 de marzo, Muck Rack publicó su State of Journalism 2026, una de las encuestas más amplias sobre el estado del periodismo en la era de la IA. El estudio recopiló respuestas de cerca de 900 periodistas activos, principalmente en Estados Unidos, con representación adicional del Reino Unido, Canadá e India.


El dato más citado: 82% de los periodistas reporta usar herramientas de IA como parte de su flujo de trabajo habitual. Las aplicaciones más comunes incluyen transcripción de entrevistas, síntesis de documentos extensos, generación de titulares alternativos, limpieza de datos para periodismo de datos y, en algunos casos, redacción de borradores revisados por editores humanos. La adopción ya no está concentrada en grandes medios — el estudio indica que publicaciones pequeñas y medianas muestran tasas de uso similares o superiores.


Sin embargo, el mismo reporte registra una señal de alerta que no debe leerse de forma aislada: 26% de los periodistas identifica la IA no supervisada como una de las principales amenazas al periodismo — un aumento de ocho puntos porcentuales respecto al año anterior. La desinformación y la falta de financiamiento empatan como las preocupaciones número uno, con 32% cada una. Otro dato estructuralmente significativo: solo 21% considera que las redes sociales son muy importantes para producir su trabajo, una caída de 12 puntos desde 2024 — la mayor contracción registrada en este indicador.


Perspectiva InteligencIA


La adopción masiva de IA en redacciones ya es un hecho consumado — el debate no es si usarla, sino cómo gobernarla editorialmente. Lo más revelador del reporte no es el 82%, sino que la preocupación por la IA no supervisada creció más rápido que la adopción misma: los periodistas usan la herramienta y al mismo tiempo desconfían de ella. Esa no es una contradicción — es una señal de madurez profesional ante una tecnología que todavía no tiene protocolos editoriales estandarizados.


La caída del uso de redes sociales como fuente periodística merece análisis propio: señala un reordenamiento de la arquitectura informativa que está ocurriendo más rápido de lo que las escuelas de comunicación han podido procesar. Si las redes dejan de ser el termómetro de la agenda noticiosa, ¿qué ocupa ese lugar? Parte de la respuesta está en los propios modelos de IA, que cada vez más filtran, sintetizan y priorizan información antes de que llegue a los periodistas. Eso no es solo un cambio de herramienta — es un cambio en quién construye la agenda.


04 · El Reuters Institute documenta cómo la IA está transformando el periodismo de investigación


El 17 de marzo, el Instituto Reuters para el Estudio del Periodismo de la Universidad de Oxford organizó su conferencia anual "AI and the Future of News 2026", con más de 3,000 asistentes registrados en línea y panelistas de BBC, Reuters, The Economist, The Guardian y el Pulitzer Centre, entre otros.


La conferencia abordó tres ejes centrales. El primero: cómo las redacciones están usando IA para investigaciones de alto volumen de datos — procesamiento masivo de documentos judiciales, análisis geoespacial automatizado, cruce de bases de datos de registros públicos. Los casos presentados por Reuters y The Economist muestran que la IA no está reemplazando la decisión editorial, pero sí comprimiendo drásticamente el tiempo de análisis previo a esa decisión. El segundo eje fue el fact-checking: los panelistas discutieron tanto las capacidades como los límites de la verificación automatizada, con énfasis en que la IA puede acelerar la detección de inconsistencias pero no puede establecer la verdad en contextos de disputa política o científica. El tercer eje — el más debatido — fue el de los estándares editoriales: qué transparencia debe exigirse cuando la IA participó en la producción de una nota, y qué responsabilidad asume el medio cuando el modelo comete un error.

Un hallazgo transversal de la conferencia, presentado por la investigadora Joanna Kao del Pulitzer Centre, fue particularmente incómodo: una proporción significativa de la cobertura periodística sobre IA aparece sin fuentes especializadas. Los medios que reportan sobre IA con menos rigor del que aplican a otras áreas técnicas — medicina, finanzas, ciencia — contribuyen a construir una opinión pública con escasa base empírica sobre la tecnología que más está transformando la sociedad.


Perspectiva InteligencIA


Las escuelas de comunicación tienen aquí una responsabilidad doble que vale la pena nombrar con precisión: formar periodistas que cubran la IA con el mismo rigor con que cubren economía o salud pública, y también formar periodistas que usen la IA con criterio editorial propio. Ambas habilidades son distintas — y en los programas actuales, ninguna de las dos recibe la atención que merece.


El hallazgo de Kao sobre la cobertura de IA sin fuentes especializadas apunta a algo más profundo: el periodismo que debería ser el guardián crítico de la tecnología está reproduciendo, en muchos casos, la narrativa que los propios laboratorios de IA generan sobre sí mismos. Eso no es un problema de herramientas — es un problema de formación y de cultura editorial. Y es exactamente el tipo de brecha que una facultad de comunicación con enfoque en IA tiene la responsabilidad de cerrar.


05 · OpenAI cierra Sora: el fin del primer experimento de video generativo masivo


El 24 de marzo, OpenAI anunció el cierre completo de Sora — la app móvil, la plataforma web Sora.com y la API pública de generación de video. El anuncio llegó en un mensaje breve en redes sociales: "Nos despedimos de Sora. Compartiremos más pronto, incluyendo los tiempos de la app y la API."

La historia de Sora es la historia más completa que existe sobre los límites del producto de IA generativa de consumo. Lanzada en septiembre de 2025 con una interfaz inspirada en TikTok, la app alcanzó su pico en noviembre con 3.3 millones de descargas mensuales — y cayó a 1.1 millones en febrero de 2026. El problema no fue solo económico, aunque el costo de inferencia de video de alta calidad era, según reportes internos, "económicamente irreconciliable" con los precios que los usuarios estaban dispuestos a pagar. El problema fue que la app se convirtió rápidamente en una máquina de deepfakes: videos de figuras públicas sin consentimiento, violaciones sistemáticas de copyright con personajes de Disney y Marvel, y un sistema de moderación que no pudo seguir el ritmo de la creatividad adversarial de sus usuarios.


El cierre arrastró también el acuerdo de mil millones de dólares que OpenAI había anunciado con Disney en diciembre de 2025 — un contrato que buscaba usar Sora para producción de contenido audiovisual a escala. Disney confirmó que "respeta la decisión de OpenAI y explorará otras plataformas". El modelo Sora 2 permanece disponible, pero solo dentro de ChatGPT Pro/Plus, sin API pública. Un ejecutivo de OpenAI resumió la decisión con una frase que revela mucho sobre la estrategia actual de la empresa: "No podemos perder este momento distraídos por misiones secundarias."


Perspectiva InteligencIA


Sora no fracasó por falta de tecnología — el modelo era técnicamente impresionante. Fracasó porque la generación de video a escala no es un problema de ingeniería resuelto, sino un problema de gobernanza no resuelto. La diferencia importa: si fuera un problema de ingeniería, más inversión lo resolvería. Al ser un problema de gobernanza — quién puede generar qué, con la imagen de quién, bajo qué condiciones de consentimiento y distribución — la solución requiere marcos institucionales, legales y culturales que todavía no existen.

Para la industria creativa y para quienes forman comunicadores, la pregunta ya no es si la IA puede generar contenido audiovisual convincente. Puede hacerlo. La pregunta es bajo qué condiciones institucionales y éticas ese contenido puede circular — y quién tiene la autoridad para establecerlas. El cierre de Sora no es el fin del video generativo: es la primera señal pública de que el mercado solo no puede resolver ese problema.


Observatorio IA · Anáhuac Landscape · anahuaclandscape.com


Dr. Vinicius Covas — Facultad de Comunicación, Universidad Anáhuac México Edición #53 · 28 de marzo, 2026



Comentarios


bottom of page