{"id":280003,"date":"2025-12-09T20:12:09","date_gmt":"2025-12-09T20:12:09","guid":{"rendered":"https:\/\/www.europesays.com\/es\/280003\/"},"modified":"2025-12-09T20:12:09","modified_gmt":"2025-12-09T20:12:09","slug":"la-elite-de-los-modelos-abiertos-hablaba-en-chino-mistral-acaba-de-situar-a-europa-en-un-nivel-que-ni-eeuu-logro-alcanzar","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/es\/280003\/","title":{"rendered":"La \u00e9lite de los modelos abiertos hablaba en chino. Mistral acaba de situar a Europa en un nivel que ni EEUU logr\u00f3 alcanzar"},"content":{"rendered":"<p>Durante el \u00faltimo a\u00f1o, la \u00e9lite de los modelos abiertos para programaci\u00f3n asistida, al menos en benchmarks como <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/epoch.ai\/benchmarks\/swe-bench-verified\" target=\"_blank\">SWE-Bench Verified<\/a>, ha hablado con acento chino. Nombres como <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/he-probado-deepseek-v3-chat-deepseek-r1-razonamiento-openai-google-meta-tienen-aqui-rivales-formidables\" data-vars-post-title=\"He probado DeepSeek en la web y en mi Mac. ChatGPT, Claude y Gemini tienen un problem\u00f3n\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/he-probado-deepseek-v3-chat-deepseek-r1-razonamiento-openai-google-meta-tienen-aqui-rivales-formidables\" rel=\"nofollow noopener\" target=\"_blank\">DeepSeek<\/a>, <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\" data-vars-post-title=\"Kimi K2 Thinking: qu\u00e9 es, caracter\u00edsticas de este modelo de inteligencia artificial y diferencias con Gemini y ChatGPT\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\" rel=\"nofollow noopener\" target=\"_blank\">Kimi<\/a> o <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\" data-vars-post-title=\"Qwen: qu\u00e9 es y c\u00f3mo usar la inteligencia artificial de Alibaba gratis sin tener que pagar cuotas\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/qwen-que-como-usar-inteligencia-artificial-alibaba-gratis-tener-que-pagar-cuotas\" rel=\"nofollow noopener\" target=\"_blank\">Qwen<\/a> se hab\u00edan instalado en los puestos m\u00e1s altos de las pruebas y marcaban el ritmo en las tareas complejas de ingenier\u00eda de software, mientras Europa buscaba todav\u00eda su posici\u00f3n. La llegada de <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/mistral.ai\/news\/devstral-2-vibe-cli\" target=\"_blank\">Devstral 2<\/a> altera ese reparto. No desplaza a quienes ya estaban arriba, pero sit\u00faa a Mistral en el mismo nivel de exigencia y convierte a una compa\u00f1\u00eda europea en aspirante real en un terreno que hasta ahora parec\u00eda reservado a otros.<\/p>\n<p><strong>Cambio de liga: el salto t\u00e9cnico que llevaba tiempo gest\u00e1ndose<\/strong>. Durante los \u00faltimos meses, los modelos abiertos desarrollados en Europa y Estados Unidos hab\u00edan mostrado una evoluci\u00f3n constante, aunque a\u00fan sin el rendimiento necesario para competir en las pruebas m\u00e1s exigentes. El progreso era evidente, pero faltaba un proyecto capaz de consolidarlo en un nivel superior y demostrar que ese camino pod\u00eda dar resultados comparables a los referentes del sector.<\/p>\n<p><strong>Devstral 2 en datos: rendimiento, tama\u00f1o y licencias<\/strong>. El nuevo modelo de Mistral alcanza los 123B par\u00e1metros en una arquitectura densa y ofrece un contexto ampliado de 256K tokens, acompa\u00f1ado de una licencia MIT modificada que facilita su adopci\u00f3n en entornos abiertos. Su versi\u00f3n compacta, Devstral Small 2, reduce el modelo a 24B par\u00e1metros bajo licencia <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/www.apache.org\/licenses\/LICENSE-2.0\" target=\"_blank\">Apache 2.0.<\/a> <a rel=\"noopener, noreferrer nofollow\" href=\"https:\/\/cms.mistral.ai\/assets\/d295e716-acbe-4d05-8764-861ca2f2a2eb.png?width=1686&amp;height=1093\" target=\"_blank\">En las cifras de SWE-Bench Verified publicadas por la compa\u00f1\u00eda<\/a>, Devstral 2 obtiene un 72,2%, una marca que lo sit\u00faa en el tramo m\u00e1s competitivo de los modelos abiertos evaluados y que confirma su presencia entre las alternativas m\u00e1s avanzadas del segmento.<\/p>\n<p>                   <img class=\"centro_sinmarco\" height=\"1093\" width=\"1686\" loading=\"lazy\" decoding=\"async\"  fetchpriority=\"high\"  src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765311129_751_450_1000.png\" alt=\"Devstral Swe Bench Verified Openweights Vs Proprietary Models Dark 1\"\/><\/p>\n<p>La refleja un panorama concentrado en la parte alta del benchmark. Entre los modelos abiertos, <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5\" data-vars-post-title=\"El nuevo modelo de DeepSeek razona, es gratis... y supera a GPT-5\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/deepseek-ha-lanzado-su-nuevo-modelo-razonador-gratis-supera-a-gpt-5\" rel=\"nofollow noopener\" target=\"_blank\">DeepSeek V3.2<\/a> encabeza el conjunto con un 73,1%, seguido por <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\" data-vars-post-title=\"Kimi K2 Thinking: qu\u00e9 es, caracter\u00edsticas de este modelo de inteligencia artificial y diferencias con Gemini y ChatGPT\" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/kimi-k2-thinking-que-caracteristicas-este-modelo-inteligencia-artificial-diferencias-gemini-chatgpt\" rel=\"nofollow noopener\" target=\"_blank\">Kimi K2 Thinking<\/a> con un 71,3% y por propuestas como Qwen 3 Coder Plus y Minimax M2, que se sit\u00faan en el entorno de los 69 puntos. En niveles inferiores aparecen GLM 4.6, GPT-OSS-120B, CWM y DeepSWE, con resultados m\u00e1s moderados. En el \u00e1mbito comercial cerrado (modelos propietarios), el gr\u00e1fico incorpora puntuaciones superiores: <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/basics\/gemini-3-cuales-novedades-nuevo-modelo-inteligencia-artificial-google\" data-vars-post-title=\"Gemini 3: cu\u00e1les son las novedades del nuevo modelo de inteligencia artificial de Google \" data-vars-post-url=\"https:\/\/www.xataka.com\/basics\/gemini-3-cuales-novedades-nuevo-modelo-inteligencia-artificial-google\" rel=\"nofollow noopener\" target=\"_blank\">Gemini 3 Pro<\/a> alcanza un 76,2%, GPT 5.1 Codex Max sube hasta el 77,9% y <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/nuevo-claude-sonnet-4-5-esta-aqui-anthropic-quiere-ser-imbatible-programacion-su-ambicion-va-alla\" data-vars-post-title=\"El nuevo Claude Sonnet 4.5 ya est\u00e1 aqu\u00ed: Anthropic quiere ser imbatible en programaci\u00f3n, aunque su ambici\u00f3n va m\u00e1s all\u00e1\" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/nuevo-claude-sonnet-4-5-esta-aqui-anthropic-quiere-ser-imbatible-programacion-su-ambicion-va-alla\" rel=\"nofollow noopener\" target=\"_blank\">Claude Sonnet 4.5<\/a> firma un 77,2%, todos ellos por encima de las mejores marcas registradas por los modelos abiertos.<\/p>\n<p><strong>Qu\u00e9 mide realmente SWE-Bench Verified y por qu\u00e9 importa<\/strong>. SWE-Bench Verified es una prueba dise\u00f1ada para evaluar si un modelo puede resolver tareas reales de programaci\u00f3n, no ejercicios sint\u00e9ticos. Cada caso presenta un error en un repositorio de c\u00f3digo abierto y exige un parche que haga pasar las pruebas antes fallidas. La evaluaci\u00f3n busca medir si el sistema entiende la estructura del proyecto, identifica la causa del problema y propone una soluci\u00f3n coherente. Es una m\u00e9trica \u00fatil y exigente, aunque limitada a repositorios en Python y a un conjunto concreto de situaciones que no cubren toda la amplitud del trabajo en software.<\/p>\n<p><strong>De copilotos a agentes que act\u00faan sobre el proyecto<\/strong>. La llegada de Devstral 2 coincide con un cambio m\u00e1s amplio en la forma de trabajar con herramientas de programaci\u00f3n. Ya no se trata solo de recibir sugerencias en el editor, sino de contar con agentes capaces de explorar un repositorio completo, interpretar su estructura y proponer cambios coherentes con su estado real. En ese contexto aparece Vibe CLI, una herramienta que permite a Devstral analizar archivos, modificar partes del c\u00f3digo y ejecutar acciones directamente desde la terminal, acercando estas capacidades al flujo de trabajo cotidiano de los desarrolladores.<\/p>\n<p><strong>Coste y despliegue: qu\u00e9 puede hacer cada tipo de usuario con Devstral<\/strong>. El modelo estar\u00e1 disponible de forma gratuita durante un periodo inicial y despu\u00e9s pasar\u00e1 a costar 0,40 d\u00f3lares por mill\u00f3n de tokens de entrada y 2,00 d\u00f3lares por mill\u00f3n de salida, mientras que la versi\u00f3n Small 2 tendr\u00e1 un precio inferior. Su despliegue tambi\u00e9n marca diferencias: Devstral 2 requiere al menos cuatro GPU de clase H100, orientadas a centros de datos, mientras que Devstral Small 2 est\u00e1 pensado para ejecutarse en una \u00fanica GPU y, seg\u00fan la documentaci\u00f3n de Mistral, la familia Devstral Small tambi\u00e9n puede funcionar en configuraciones solo con CPU, sin GPU dedicada. Esta variedad permite que tanto empresas como desarrolladores individuales encuentren un punto de entrada adecuado.<\/p>\n<p>    <a href=\"https:\/\/www.xataka.com\/robotica-e-ia\/hace-cuarto-siglo-estudiante-unio-32-tarjetas-graficas-geforce-para-jugar-a-quake-iii-alli-salio-cuda\" class=\"pivot-outboundlink\" data-vars-post-title=\"Hace un cuarto de siglo un estudiante uni\u00f3 32 tarjetas gr\u00e1ficas GeForce para jugar a Quake III. De all\u00ed sali\u00f3 CUDA \" rel=\"nofollow noopener\" target=\"_blank\"><br \/>\n     <img loading=\"lazy\" decoding=\"async\" alt=\"Hace un cuarto de siglo un estudiante uni\u00f3 32 tarjetas gr\u00e1ficas GeForce para jugar a Quake III. De all\u00ed sali\u00f3 CUDA \" width=\"375\" height=\"142\" src=\"https:\/\/www.europesays.com\/es\/wp-content\/uploads\/2025\/12\/1765311129_106_375_142.jpeg\"\/><br \/>\n    <\/a><\/p>\n<p>La aparici\u00f3n de Devstral 2 introduce un elemento inesperado en un espacio donde las compa\u00f1\u00edas chinas marcaban el paso y donde ni siquiera Estados Unidos, pese a su liderazgo en inteligencia artificial, contaba con un modelo abierto en esta franja alta de rendimiento en SWE-Bench Verified. Mistral no desplaza a quienes ya estaban arriba, pero s\u00ed ampl\u00eda la conversaci\u00f3n y demuestra que Europa puede competir en un terreno donde hasta ahora no figuraba. Es un movimiento que no altera la jerarqu\u00eda general, aunque s\u00ed abre un margen nuevo para la evoluci\u00f3n de las herramientas de programaci\u00f3n asistida.<\/p>\n<p>Im\u00e1genes | Xataka con Gemini 3<\/p>\n<p>En Xataka | <a class=\"text-outboundlink\" href=\"https:\/\/www.xataka.com\/robotica-e-ia\/openai-google-niegan-que-vayan-a-meter-anuncios-chatgpt-gemini-realidad-que-cuentas-no-salen-solo-suscripciones\" data-vars-post-title=\"OpenAI y Google niegan que vayan a meter anuncios en ChatGPT y Gemini. La realidad es que las cuentas no salen s\u00f3lo con suscripciones \" data-vars-post-url=\"https:\/\/www.xataka.com\/robotica-e-ia\/openai-google-niegan-que-vayan-a-meter-anuncios-chatgpt-gemini-realidad-que-cuentas-no-salen-solo-suscripciones\" rel=\"nofollow noopener\" target=\"_blank\">OpenAI y Google niegan que vayan a meter anuncios en ChatGPT y Gemini. La realidad es que las cuentas no salen s\u00f3lo con suscripciones<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"Durante el \u00faltimo a\u00f1o, la \u00e9lite de los modelos abiertos para programaci\u00f3n asistida, al menos en benchmarks como&hellip;\n","protected":false},"author":2,"featured_media":280004,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[81],"tags":[119,123,124,25,24,117,121,122,23,118,120],"class_list":{"0":"post-280003","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-ciencia-y-tecnologia","8":"tag-ciencia","9":"tag-ciencia-y-tecnologia","10":"tag-cienciaytecnologia","11":"tag-es","12":"tag-espana","13":"tag-science","14":"tag-science-and-technology","15":"tag-scienceandtechnology","16":"tag-spain","17":"tag-technology","18":"tag-tecnologia"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@es\/115691437871330547","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/280003","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/comments?post=280003"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/posts\/280003\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media\/280004"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/media?parent=280003"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/categories?post=280003"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/es\/wp-json\/wp\/v2\/tags?post=280003"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}