DeepSeek AI publicó DeepSeek V3, un modelo de lenguaje de código abierto con 671 mil millones de parámetros que logra un 81.1% de resolución en SWE-bench Verified, el benchmark estándar para medir la capacidad de los modelos de IA para resolver issues reales de GitHub. Este resultado supera a Claude 3.5 Sonnet, GPT-4o y Gemini 1.5 Pro en la misma métrica, posicionando a un modelo open source chino al frente de la industria en tareas de ingenieria de software. DeepSeek V3 utiliza una arquitectura Mixture of Experts (MoE) que activa solo 37 mil millones de parámetros por inferencia, lo que reduce significativamente el costo computacional sin sacrificar rendimiento. La empresa reporto que entreno el modelo por 5.5 millones de dólares, una fracción del costo estimado de modelos comparables de OpenAI o Anthropic. El lanzamiento generó un intenso debate en la industria sobre la sostenibilidad de los modelos propietarios frente al avance del open source. Los pesos del modelo estan disponibles en Hugging Face bajo una licencia que permite uso comercial, y la comunidad ya esta desarrollando versiones cuantizadas para ejecutar en hardware de consumo. Para la comunidad de IA en español, DeepSeek V3 abre la posibilidad de desplegar capacidades de codificación de primer nivel de forma local y gratuita.