top of page

DeepSeek V3.2 y V3.2‑Speciale: modelos de razonamiento abierto que desafían a GPT‑5 y Gemini 3 Pro

  • 1 dic
  • 8 Min. de lectura
ree

Antecedentes de la IA del día y de la compañía

El laboratorio chino DeepSeek se ha consolidado en 2025 como uno de los principales actores del ecosistema de inteligencia artificial de código abierto. Desde su aparición con los modelos de la serie V3, basados en arquitecturas de mezcla de expertos de gran escala, la compañía ha apostado por compartir pesos y documentación para fomentar la investigación reproducible. El 1 de diciembre de 2025 lanzó DeepSeek V3.2 y su variante V3.2‑Speciale, concebidas como modelos de razonamiento de alta precisión capaces de rivalizar con los sistemas propietarios más avanzados, como GPT‑5 de OpenAI y Gemini 3 Pro de Google.


El anuncio señala que V3.2 es el sucesor oficial de la versión experimental V3.2‑Exp y que está disponible a través de la aplicación de DeepSeek, su interfaz web y la API pública. La variante V3.2‑Speciale, en cambio, se ofrece temporalmente —hasta el 15 de diciembre— y sólo mediante la API, con el propósito de mostrar la frontera de razonamiento matemático y computacional: alcanza puntuaciones de nivel oro en competiciones como la Olimpiada Internacional de Matemáticas y el Concurso Internacional de Programación. DeepSeek acompaña el lanzamiento con un informe técnico y libera los modelos en Hugging Face, reafirmando su compromiso con la transparencia y la comunidad investigadora.


Ficha técnica

Atributo

Detalle

Nombre del software

DeepSeek V3.2 / V3.2‑Speciale

Compañía

DeepSeek (Hangzhou, China)

Fecha de lanzamiento

1 de diciembre de 2025

Dominio

Modelo de lenguaje de gran escala orientado al razonamiento y uso de herramientas

Arquitectura

Mezcla de expertos (MoE) con entrenamiento supervisado y un conjunto sintético de más de 1 800 entornos y 85 000 instrucciones complejas para agentes

Capacidades destacadas

• Integración de modo de pensamiento que genera cadenas de razonamiento y respuesta final

• Soporte para uso de herramientas: el modelo puede invocar herramientas externas mientras razona


• Contexto largo con eficiencia de inferencia


• Variante Speciale enfocada en razonamiento matemático avanzado, sin llamadas a herramientas y con rendimiento comparable a Gemini 3 Pro


• Rendimiento oro en competencias IMO, CMO e ICPC


Métricas de desempeño (reportadas)

Puntuación de 30.6 % en el examen Humanity’s Last Exam (HLE), 73.1 % en SWE‑Bench Verified y 96.0 % en la competición AIME 2025 (según notas de la compañía)

Idiomas soportados

Principalmente inglés y chino; la comunidad trabaja en versiones multilingües

Licencia

Código y pesos liberados en Hugging Face bajo licencia open source; disponible a través de API y de una interfaz web

Precio

La compañía informa que la variante Speciale comparte el mismo esquema de facturación que V3.2; se basa en tokens consumidos por uso

Integraciones

App y web de DeepSeek; API pública; compatible con entornos de agente y con plataformas de construcción de agentes

Tecnologías relacionadas

Generación de razonamiento y supervisión de herramientas, registro de trazas para evaluación y optimización de prompts, y guardrails de seguridad opcionales (en desarrollo)


Descripción de la aplicación

DeepSeek V3.2 surge como un modelo de propósito general enfocado en la inferencia racional; su diseño responde a la necesidad de ir más allá de las grandes redes generativas centradas en completar textos, proponiendo un sistema que razona de manera explícita. La documentación de la compañía explica que V3.2 permite habilitar un parámetro thinking en la API que devuelve una estructura con dos campos: reasoning_content, donde se despliega la cadena de razonamiento interna, y content, que contiene la respuesta final utilizable por el usuario. Esta transparencia en el proceso cognitivo resulta útil para depurar errores, estudiar sesgos y enseñar a los usuarios cómo se llega a una conclusión.


El avance más notable de V3.2 radica en la integración del razonamiento con el uso de herramientas: el modelo puede descomponer un problema en pasos, invocar una herramienta externa —por ejemplo, un buscador, un intérprete de código o una calculadora—, analizar los resultados y continuar razonando. Esta capacidad contrasta con los sistemas que sólo llaman herramientas cuando concluyen la generación, y responde a la tendencia de la IA agentic: agentes que planifican y ejecutan acciones complejas en entornos reales.


La variante V3.2‑Speciale amplía esta visión hacia el razonamiento matemático y científico. DeepSeek afirma que iguala el desempeño de Gemini 3 Pro y obtiene resultados de nivel oro en competencias internacionales. Para lograrlo, se sacrifica la capacidad de llamar herramientas durante la inferencia, concentrando todos los recursos en el cálculo interno. La variante se ofrece sólo a través de la API hasta el 15 de diciembre, a modo de prueba de concepto.


El lanzamiento se complementa con una nueva metodología de entrenamiento para agentes, que según la compañía busca mejorar la forma en que estos descomponen tareas, gestionan el razonamiento a largo plazo y ejecutan acciones en entornos complejos Además, se publica un conjunto de datos sintéticos con más de 1 800 entornos y 85 000 instrucciones complejas, permitiendo a la comunidad estudiar cómo entrenar agentes y evaluar el impacto del razonamiento explícito en la ejecución de tareas.


Ventajas y desventajas

Ventajas

  1. Rendimiento competitivo: DeepSeek V3.2 logra niveles de desempeño similares a GPT‑5 y Gemini 3 Pro en pruebas de razonamiento. Esto demuestra que las propuestas open source pueden competir con actores cerrados y favorecer la diversidad en el ecosistema.

  2. Transparencia en el razonamiento: la posibilidad de extraer la cadena de razonamiento (reasoning_content) proporciona una herramienta pedagógica valiosa, permite detectar alucinaciones y facilita la depuración de decisiones.

  3. Integración de herramientas: al combinar razonamiento con llamadas a herramientas externas, el modelo puede ejecutar tareas complejas de manera más eficiente y reducir la intervención humana.

  4. Open source y comunidad: la publicación de los pesos y del conjunto de datos fomenta la auditoría independiente, el reentrenamiento local y la adaptación a dominios específicos.

  5. Variante especializada: V3.2‑Speciale ofrece un enfoque de alto rendimiento para problemas matemáticos y de programación competitiva, útil para investigación científica y educación avanzada.


Desventajas

  1. Riesgo de uso indebido: la disponibilidad de pesos de alto rendimiento facilita que actores maliciosos reentrenen el modelo para fines de desinformación o explotación; requiere marcos de seguridad robustos.

  2. Complejidad computacional: las arquitecturas MoE exigen recursos significativos; correr V3.2 localmente puede resultar prohibitivo para muchas instituciones sin acceso a clusters de GPU.

  3. Transparencia parcial de datos: aunque se publica un resumen del conjunto sintético, no se detalla el origen de los datos subyacentes, lo que dificulta evaluar sesgos y cumplimiento con normativas como el AI Act de la UE, que exige publicar un resumen del contenido de entrenamiento.

  4. Limitaciones lingüísticas: el soporte se centra en inglés y chino; en comunidades de habla hispana o indígena se requerirán adaptaciones adicionales.

  5. Impacto ambiental desconocido: la compañía no ha revelado el consumo energético; investigaciones sobre modelos similares indican que estos sistemas pueden requerir grandes cantidades de energía, lo que suscita preocupaciones de sostenibilidad.


Diferencias con otras inteligencias artificiales

  • GPT‑5.1 (OpenAI): GPT‑5.1 combina modelos rápidos e intensivos con un enrutador que decide cómo responder; está orientado al uso general, multimodal y con un enfoque comercial cerrado. DeepSeek V3.2, al ser open source, ofrece mayor transparencia y libertad de modificación pero carece de las capacidades multimodales integradas (voz, imagen) de GPT‑5.1. Además, V3.2 expone explícitamente la cadena de razonamiento, mientras que OpenAI evita revelar procesos internos para mitigar el prompt injection.

  • Gemini 3 Pro (Google): Gemini 3 Pro es un modelo multimodal con un contexto de un millón de tokens y funciones de planificación, edición de video y agenteicidad avanzada. DeepSeek V3.2 se centra exclusivamente en el texto y el razonamiento lógico; sin embargo, la variante Speciale alcanza resultados comparables a Gemini 3 Pro en las pruebas de razonamiento. Gemini 3 está cerrado, mientras que V3.2 se libera bajo licencia abierta.

  • Claude Sonnet 4.5 y Opus 4.5 (Anthropic): los modelos de Anthropic priorizan la seguridad y la reducción de alucinaciones, y se integran en aplicaciones comerciales como Microsoft 365. DeepSeek V3.2 apuesta por la investigación abierta; carece de la integración empresarial de Anthropic pero permite a los desarrolladores explorar su funcionamiento interno.

  • Nano Banana Pro (Google, Gemini 3 Pro Image) y Sora 2 (OpenAI): estos modelos generan imágenes y videos de alta fidelidad, mientras que DeepSeek V3.2 se limita al texto. Las comparaciones ponen de relieve la especialización: V3.2 es una herramienta de razonamiento textual, no un generador multimedia.


Potencial para profesionales, académicos e investigadores, administrativos, usuarios cotidianos y egresados

  • Académicos e investigadores de la comunicación: V3.2 permite analizar discursos complejos, generar argumentaciones estructuradas y verificar la coherencia de narrativas. La transparencia de su razonamiento facilita estudios sobre sesgos y procesos cognitivos de la IA, aportando elementos para la crítica de la cibercultura y la ética comunicativa.

  • Profesionales de otras disciplinas: En ciencias e ingeniería, la capacidad de integrar razonamiento con herramientas externas favorece la resolución de problemas matemáticos, la elaboración de demostraciones y el diseño de algoritmos. En derecho o economía, el modelo puede desglosar casos complejos, calcular escenarios y ofrecer justificaciones explícitas. En ciencias de datos, el uso de V3.2 como motor de agente permite automatizar tareas de limpieza, análisis y presentación de datos.

  • Administrativos y usuarios cotidianos: Las personas que gestionan proyectos pueden beneficiarse de la planificación de tareas y delegación a través de agentes conectados a V3.2, automatizando la búsqueda de información, redacción de informes y verificación de fuentes. Para estudiantes y público general, el modelo funciona como tutor que explica paso a paso cómo resolver problemas, fomentando la alfabetización digital.

  • Egresados y comunidad Anáhuac: Los egresados pueden emplear la IA en emprendimientos de análisis de datos, consultoría o educación, adaptando el modelo a necesidades locales gracias a su carácter abierto. Para la Universidad, la implementación de V3.2 brinda una oportunidad de formación en ética de IA, creación de repositorios de evaluación y desarrollo de agentes propios, en línea con la visión de ciudadanía digital corresponsable.


Índice de valoración del Observatorio

Criterio

Puntaje (0–10)

Justificación

Uso y accesibilidad

7

La API y la aplicación web permiten probar el modelo con relativa facilidad; sin embargo, la configuración local requiere recursos de cómputo significativos y conocimientos técnicos.

Normatividad y transparencia

6

DeepSeek libera los pesos y publica un informe técnico, pero no divulga completamente los datos de entrenamiento. El cumplimiento con el AI Act de la UE —que exige un resumen del conjunto de datos y evaluaciones de riesgo— es incierto.

Consideraciones éticas y legales

6

La transparencia en la cadena de razonamiento es positiva, pero el acceso abierto implica riesgos de uso indebido y de sesgos no documentados. No hay información sobre mitigación de sesgos ni consumo energético.

Valoración de usuarios e influenciadores

8

La comunidad open source ha recibido con entusiasmo el lanzamiento por su alto desempeño y el carácter abierto; expertos destacan la integración de herramientas y el modo de pensamiento. No obstante, algunos señalan que la adopción masiva requiere controles y una gobernanza adecuada.

Valoración del Observatorio

7

El Observatorio reconoce a DeepSeek V3.2 como un hito en el razonamiento abierto y un referente para la investigación responsable. Su puntuación se ve moderada por la falta de transparencia total y las incógnitas en torno al impacto ambiental y la regulación.


Conclusión

DeepSeek V3.2 y V3.2‑Speciale constituyen una apuesta audaz por democratizar el razonamiento artificial. Al liberar modelos con desempeño comparable a los líderes del sector y al ofrecer cadenas de pensamiento accesibles, DeepSeek contribuye a la transparencia y al avance de la comunidad científica. En consonancia con las reflexiones de autores como Luciano Floridi, es imprescindible que estos avances se acompañen de marcos éticos que pongan la dignidad humana y el bien común en el centro. La apertura no exime de responsabilidad: la comunidad y los reguladores deben asegurarse de que estas herramientas no perpetúen sesgos ni se utilicen para desinformar.


Para los profesionales y académicos de la comunicación, V3.2 ofrece un laboratorio ideal para analizar la lógica interna de la IA, fomentar la alfabetización digital y diseñar narrativas responsables. Pero su adopción en contextos reales debe incluir análisis de impacto y mecanismos de supervisión. En síntesis, DeepSeek V3.2 inaugura una nueva era de colaboración entre agentes humanos y no humanos, donde la apertura y la reflexión crítica serán claves para aprovechar su potencial y evitar sus riesgos.


Enlace para conocer y probar el software: https://huggingface.co/deepseek-ai

Comentarios


bottom of page