El enfado creciente con la inteligencia artificial generativa (GenAI) no pasó desapercibido para los diccionarios en 2025. Un par de diccionarios eligieron como palabra de 2025 ‘slop’ o ‘AI slop’, definida como contenido de baja calidad producido en grandes cantidades por la IA.

«‘Slop’ se cuela en todo», escribió el diccionario Merriam-Webster. El año también apuntó a un posible pinchazo de la IA, con un creciente debate sobre el estallido de la burbuja. A pesar de ello, el pesimismo no ha frenado a las tecnológicas, que han redoblado su apuesta con nuevos modelos. El nuevo Gemini 3 de Google sacudió el sector, y OpenAI habría declarado un ‘código rojo’ para acelerar la mejora de su GPT-5.

Pero, como los chatbots solo son tan buenos como los datos con los que se entrenan, y los líderes del sector advierten que hemos alcanzado el «pico de datos», 2026 podría alumbrar otro tipo de IA en medio del cansancio. Esto es lo que podríamos ver en IA en el 2026.

El auge de los modelos de mundo de IA

La advertencia sobre el pico de datos para 2026 no tiene que ver con la escasez. Hay muchos datos sin usar, señalan los expertos, pero son difíciles de acceder por múltiples razones, como el software en el que se almacenan, la regulación o los derechos de autor.

Ahí es donde podrían entrar los modelos de mundo de IA. Aprenden observando vídeos, utilizando datos de simulación y otras entradas espaciales, y después construyen sus propias representaciones de escenas u objetos. Por supuesto, requieren grandes volúmenes de datos para entrenarse, pero sus usos difieren de los de los chatbots.

En términos sencillos, en lugar de predecir la siguiente palabra, como hacen los grandes modelos de lenguaje (LLM), predicen qué ocurrirá en el siguiente estado del mundo y modelizan cómo se mueven las cosas a lo largo del tiempo.

También pueden entenderse como ‘gemelos digitales’, donde se crea una réplica digital de un lugar con datos en tiempo real y se ejecutan simulaciones para prever qué podría suceder allí.

Esto implica que los modelos de mundo podrían dar lugar a sistemas de IA capaces de comprender la gravedad y la relación causa-efecto sin que haya que programarlos específicamente para ello.

A medida que la gente se harta del ‘AI slop’ y de las limitaciones de los LLM, los modelos de mundo podrían cobrar protagonismo en 2026, ya que son clave para crear IA aplicada desde la robótica hasta los videojuegos.

El consejero delegado de Boston Dynamics dijo a ‘Euronews Next’ en noviembre que la IA había impulsado el desarrollo de sus robots, incluido su célebre perro robot. «Aún queda muchísimo trabajo por hacer, pero nada de esto habría sido posible sin la IA. Así que es un momento realmente emocionante», dijo Robert Playter.

Las empresas ya se han subido a la ola de los modelos de mundo, con Google y Meta anunciando sus propias versiones para robótica y para hacer más realistas sus modelos de vídeo.

También están entrando grandes nombres, entre ellos uno de los llamados padrinos de la IA, Yann LeCun, que anunció en 2025 que dejaría Meta para lanzar su propia startup de modelos de mundo. La empresa de Fei-Fei Li, World Labs, anunció igualmente su primer lanzamiento, Marble, en 2025. Empresas tecnológicas chinas como Tencent también están desarrollando sus propios modelos de mundo.

La vía europea para la IA

En Europa podría ocurrir lo contrario, en lugar de una IA a gran escala, podría hacerse más pequeña. Los pequeños modelos de lenguaje, en lugar de los LLM de las tecnológicas estadounidenses, han empezado a ganar terreno en Europa.

Pese al nombre, los pequeños modelos de lenguaje son muy capaces. Son versiones ligeras de los LLM diseñadas para funcionar en teléfonos móviles o en ordenadores de baja potencia. Aunque usan menos parámetros y consumen menos energía, mantienen sólidas capacidades de generación de texto, resumen, respuesta a preguntas y traducción.

Estos modelos más pequeños pueden resultar más atractivos desde el punto de vista económico en medio de las sospechas de un estallido de la burbuja de la IA. Las empresas de IA de Estados Unidos, en particular, están levantando cantidades enormes de financiación y alcanzando valoraciones inéditas.

Gran parte de ese dinero se destina a la construcción de centros de datos gigantescos, con fuertes inversiones de compañías como OpenAI y xAI, de Elon Musk, además de Meta y Google.

«El año que viene seguirán creciendo las dudas sobre la sostenibilidad financiera y los beneficios socioeconómicos del boom actual de la IA a gran escala, incluso si la burbuja no estalla del todo», dijo Max von Thun, director de Europa y asociaciones transatlánticas en el Open Markets Institute.

Él dijo a ‘Euronews Next’ que los gobiernos se mostrarán «cada vez más cautelosos» ante la dependencia de la IA y la infraestructura de nube estadounidenses, debido a las «claras intenciones» del Gobierno de Estados Unidos de «armar las dependencias tecnológicas para obtener rédito político«.

Esto podría significar que Europa «acelerará los esfuerzos para construir capacidades locales, mientras explora enfoques de IA más acordes con sus fortalezas, como modelos más pequeños y sostenibles entrenados con datos industriales y públicos de alta calidad», dijo.

Modelos más poderosos

Más allá de la fiebre de la IA, 2025 estuvo marcado por inquietantes debates sobre la psicosis de IA, en la que los usuarios desarrollan delirios o vínculos obsesivos con chatbots. Una demanda contra OpenAI en agosto alegaba que ChatGPT era un ‘coach de suicidio‘ que había animado a un joven de 16 años a quitarse la vida.

OpenAI negó posteriormente las acusaciones y respondió que el adolescente no debería haber usado la tecnología sin consentimiento paterno y que no tendría que haber eludido las medidas de protección de ChatGPT.

El caso plantea serias dudas sobre los efectos de los chatbots en usuarios vulnerables y sobre las responsabilidades éticas de las tecnológicas. 2026 podría causar aún más daño a los usuarios a medida que estos modelos ganen potencia, según un experto.

Los ingenieros que diseñan estos sistemas probablemente no programaron la tecnología para dañar a niños o adultos vulnerables, dijo Max Tagmark, profesor del MIT que investiga en IA y física y presidente del Future of Life Institute (FLI). Puede que ni siquiera supieran que ocurría, añadió a Euronews Next.

Es preocupante, especialmente a medida que las máquinas se vuelven más potentes con software y código más sofisticados, señaló, al tiempo que anticipó «una IA más poderosa» en 2026 que podría traer agentes de IA más capaces, menos pasivos y más parecidos a «un sistema biológico».

Los agentes de IA están diseñados para tomar acciones autónomas para ayudar a las personas y no requieren instrucciones explícitas, ya que recopilan datos según las preferencias del usuario.

Hoy por hoy no son tan avanzados, pero la promesa es que podrían llegar a serlo. Por ejemplo, ahora un agente de IA puede planificar y sugerir unas vacaciones, pero una persona aún tendría que hacer clic para comprar el vuelo.

Choque social por una IA sin trabas

2026 también podría traer choques sociales en torno a la IA, ya que Tegmark afirma que crece la resistencia en Estados Unidos contra su despliegue sin regulación. La regulación de la IA se está relajando en Estados Unidos, donde vive Tegmark.

El presidente de Estados Unidos, Donald Trump, firmó en noviembre una orden ejecutiva para impedir que los estados elaboren sus propias normas sobre IA, algo que probablemente tendrá grandes consecuencias en el desarrollo de la tecnología en 2026.

Trump justificó la decisión alegando que el sector corre el riesgo de verse ahogado por un mosaico de normas gravosas mientras libra una batalla con los competidores chinos por el liderazgo tecnológico.

Freno a la carrera hacia la superinteligencia

En octubre, miles de figuras públicas, incluidos líderes de la IA y la tecnología, pidieron a las empresas de IA que frenaran su carrera hacia la superinteligencia, entendida de forma amplia como una IA que supera las capacidades cognitivas humanas.

La petición, organizada por el FLI, reunió firmas a lo largo de todo el espectro político, incluidos Steve Bannon, exestratega jefe de Trump, Susan Rice, exasesora de Seguridad Nacional de Estados Unidos con Barack Obama, líderes religiosos y destacados científicos informáticos.

Tegmark afirmó que este sondeo demuestra que «la gente en Estados Unidos se está volviendo contra la IA». Añadió que una de las razones del rechazo es que la superinteligencia «haría que cualquier trabajador no pudiera ganarse la vida, porque todos los empleos los ocuparían robots».

Pero advirtió de que el cansancio y el sentimiento anti-IA pueden frenar los avances que promete la tecnología, en sectores como la sanidad. «Si no hay regulación, nos perderemos la buena IA, porque podríamos sufrir un gran rechazo a la tecnología«, dijo.

«En el próximo año, espero un movimiento social mucho más amplio en todo el espectro político, que presione contra el trato de favor a las corporaciones para fijar estándares de seguridad para la IA, y habrá una campaña de presión masiva en contra. Será todo un choque», dijo Tegmark.