De un tiempo a esta parte, parece que el puñetazo de Sam Altman sobre el tablero de la inteligencia artificial (IA) ha provocado que el desarrollo de este ámbito avance a una velocidad vertiginosa. Mientras tanto, la robótica, especialmente la relativa a la creación y perfeccionamiento de humanoides, ha venido dando pasos más cortos y torpes.

Los modelos de lenguaje escriben, razonan, programan y crean imágenes con una soltura que, aunque todavía no supera al genio humano, sí que sobrepasa, y no es poco, la media de nuestra especie. Un logro que, hace apenas una década, parecía ciencia ficción. En cambio, los robots siguen, literalmente, tropezando. Se desequilibran, su manipulación no es fluida y, pese a algunos trucos asombrosos, fallan justo en aquello que los humanos hacemos sin pensar. ¿Por qué?

La respuesta, aunque pueda parecer contraintuitiva, no es nueva. La dio el ingeniero y roboticista Hans Moravec en 1976, mucho antes de que existieran ChatGPT, Boston Dynamics o Nvidia como las conocemos hoy. En su ensayo The Role of Raw Power in Intelligence, Moravec advertía que el principal obstáculo para la inteligencia artificial no estaba donde todo el mundo miraba. El mayor escollo entonces y ahora no era el razonamiento abstracto, sino que una máquina desarrollara percepción y acción en el mundo físico.

Casi medio siglo después, la industria parece haberle dado la razón. La robótica ofrece imágenes muy distintas según el foco de la cámara. Por un lado, los robots de Boston Dynamics realizan piruetas, saltos y coreografías que rozan lo inverosímil, pero su precisión a la hora de realizar movimientos más cotidianos sigue siendo ortopédica. Por otro, humanoides como el ruso Aldol apenas consiguen mantenerse en pie en demostraciones públicas.

La diferencia no es solo técnica, sino simbólica. Tras décadas de ficciones futuristas en el cine, un robot con forma humana promete, por su mera apariencia, capacidades humanas. Y cuando no las cumple, la decepción es inmediata, viral y, sobre todo, costosa porque, inevitablemente, repele a los inversores.

Aquí entra en juego una de las ideas más incómodas del campo, formulada por Rodney Brooks, fundador de iRobot. Sus llamadas “tres leyes” no oficiales de la robótica, inspiradas en cierto modo en las de Asimov, no hablan de ética, sino de mercado y realidad industrial.

La primera es lapidaria: “La apariencia de un robot promete lo que puede hacer y lo inteligente que es, y debe cumplir o superar ligeramente esa promesa o no será aceptado”. La segunda introduce el factor humano: “Cuando robots y personas coexisten, los robots no deben quitar autonomía a las personas, especialmente cuando fallen, como inevitablemente ocurrirá”.

Sin embargo, es la tercera la que aquí nos interesa, pues enfría cualquier expectativa de aceleración milagrosa: “Las tecnologías robóticas requieren más de diez años de mejora continua para alcanzar una fiabilidad del 99,9 %, y cada década adicional solo compra unos pocos años más de robustez”. Una afirmación que, de ser real, va contra la lógica de mercado aceleracionista actual y que, por tanto, ralentiza el desarrollo de la robótica al espantar, a corto plazo, la inversión.

El robot humanoide Ameca, de Etisalat, se presentó en el MWC de 2024.El robot humanoide Ameca, de Etisalat, se presentó en el MWC de 2024.

Esto no afecta del mismo modo a la IA puramente digital. Un modelo puede equivocarse, alucinar o producir respuestas absurdas sin poner en peligro a nadie ni romper nada. Su inteligencia es abstracta, no salta a la vista, es mediada por una pantalla. La robótica, en cambio, está condenada a enfrentarse a la materia, la gravedad, la fricción, al desgaste y, cómo no, al juicio directo del ojo. Y ahí es donde, de nuevo, Moravec fue especialmente clarividente.

“La evolución del cerebro comenzó hace mil millones de años con el desarrollo de células capaces de transmitir señales electroquímicas”, recordaba. Ese proceso lento y ciego dio lugar a sistemas sensoriales y motores de una eficacia que hoy seguimos sin comprender del todo. “Los animales más complejos exhiben comportamientos que parecen mágicos en comparación con los programas actuales”. No porque piensen mejor, sino porque perciben y actúan de manera más sofisticada y, al tiempo, instintivamente.

Hans Moravec.Hans Moravec.

La paradoja de Moravec

De ahí nace lo que más tarde se conocería como la paradoja de Moravec: es relativamente fácil conseguir que una máquina juegue al ajedrez o resuelva problemas lógicos, pero mucho más difícil lograr que camine, reconozca objetos o manipule el entorno con la soltura de un niño pequeño. El propio Moravec lo formuló con crudeza técnica: “Un ordenador de propósito general es versátil, pero su capacidad de procesar información sensorial cruda —como la visión de alto nivel— está, incluso en términos extremadamente optimistas, un factor de millones por debajo de los sistemas biológicos equivalentes”.

La clave está entonces en el tiempo evolutivo. En las áreas perceptivas y motoras del cerebro humano se condensan, como escribió Moravec, “mil millones de años de experiencia sobre la naturaleza del mundo y cómo sobrevivir en él”. El razonamiento consciente, en cambio, es una capa reciente, frágil y superficial. Un “truco nuevo”. Por eso la IA ha avanzado tan rápido en lenguaje, imágenes o texto: son creaciones culturales humanas, sistemas simbólicos que entendemos porque los hemos inventado. Replicarlos es difícil, pero no tanto como replicar aquello que nunca diseñamos deliberadamente: nuestro cuerpo en el mundo.

Esta diferencia explica también el contraste entre los discursos de los grandes líderes tecnológicos. Sam Altman, CEO de OpenAI, lo resumía con una frase tan sencilla como reveladora en la entrada de su blog titulada The Gentle Singularity: la IA se acelera de forma visible, pero “los robots no están caminando por las calles”. Todavía.

Elon Musk, por su parte, encarna en este aspecto el optimismo industrial llevado al extremo. Ha llegado a asegurar que Tesla tendrá humanoides en baja producción para uso interno y que aspira a una alta producción para otras empresas en 2026. En los informes trimestrales de la propia Tesla se habla ya de líneas de producción de primera generación para Optimus, con vistas a fabricar en volumen. Y el magnate tecnológico no se queda ahí: ha llegado a proyectar el impacto económico del robot humanoide en cifras de “trillones de dólares” a largo plazo, por lo que el mensaje es claro: quien resuelva la paradoja de Moravec, obtendrá un premio colosal.

Sin embargo, Rodney Brooks lleva años advirtiendo de que ese horizonte está mucho más lejos de lo que sugieren las presentaciones a lo Steve Jobs. Desde su punto de vista, incluso los humanoides mínimamente útiles y rentables están a más de diez años vista, y eso asumiendo progresos sostenidos y sin grandes retrocesos. Su criterio es siempre el mismo: de nada sirve una demo sin un producto comercializable inmediatamente después, sin posibilidad de réplica fiable y consumible en el mundo real.

Entre ambos polos se sitúa Jensen Huang, CEO de Nvidia, que ha convertido la robótica en la siguiente frontera natural de la IA. Huang habla insistentemente de physical AI, una inteligencia artificial capaz de entender fricción, inercia y relaciones de causa y efecto. No una IA encerrada en el marco digital, sino sistemas que interactúan con la realidad. Nvidia presenta esta transición como un motor de reindustrialización y Huang ha llegado a minimizar los plazos, sugiriendo que no se trata de algo a décadas vista, sino de un horizonte de pocos años.

En una línea más matizada, Demis Hassabis, CEO de Google DeepMind, ha insistido en que comprender el mundo físico requiere algo más que dotar a un sistema de cuerpo. Simular la realidad, entender sus regularidades y restricciones, sigue siendo un desafío científico en sí mismo. El embodiment —dotar de corporeidad a una mente— ayuda, pero no es una bala de plata.

En un punto intermedio entre el escepticismo ingeniero y el optimismo corporativo es donde algunos ven un posible punto de inflexión. El divulgador tecnológico Rodrigo Taramona ha planteado que el verdadero salto podría no venir tanto de nuevos robots como de una infraestructura computacional capaz de sacar la IA del entorno puramente digital.

“Nvidia es una de las empresas más valoradas ahora mismo en el mercado mundial porque ha basado su negocio en producir GPUs”, recuerda. “En concreto, lleva años produciendo el Hopper, la mejor GPU para IA. Desde ChatGPT hasta Midjourney funcionan gracias a Hopper. Pero es que además Nvidia ya ha empezado a implementar la microarquitectura Blackwell, lo que va a inaugurar la era de las máquinas inteligentes”.

La clave, según Taramona, está en un cambio de marco: “Es un chip que va a trasladar por fin la IA a la robótica. Hasta ahora la IA ha funcionado en un único marco, el digital. Nunca salía de la pantalla”. Si ese nexo entre cálculo masivo, simulación del mundo físico y acción encarnada llega a consolidarse, el desfase histórico entre IA y robótica podría empezar a reducirse. La incógnita es si bastaría con más potencia o si el cuerpo seguirá siendo, incluso entonces, el mayor obstáculo.

Al respecto, Taramona reconoce que la tesis de Moravec ayuda a explicar por qué durante tanto tiempo se asumió que el avance en robótica y en vehículos autónomos sería necesariamente lento. “Esto se escribió en una etapa muy temprana, previa al aprendizaje por refuerzo y a los grandes modelos actuales, que están consiguiendo cosas realmente sorprendentes”, matiza. El divulgador también consiente que el problema de la robótica sigue siendo enorme y recuerda, por ejemplo, las dificultades que tuvo OpenAI con su mano robótica, ampliamente documentadas, pero empieza a percibir grietas en fronteras que antes parecían insalvables.

Uno de los cambios clave, según Taramona, residiría en cómo se entrenan los robots antes incluso de existir físicamente. Señala como ejemplo el documental The Thinking Game, producido por DeepMind, que retrata el trabajo de Demis Hassabis y su equipo. “Más allá de que sea una pieza publicitaria, lo más interesante es ver cómo entrenan a los robots en simulación, con datos sintéticos antes incluso de fabricarlos”.

En lugar de construir un robot y luego enseñarle a moverse, es diseñado primero en un entorno virtual y se le deja interactuar con las leyes de la física mediante recompensas: avanzar en línea recta, moverse más rápido, manipular objetos con mayor eficiencia. Ese proceso, explica Taramona, se aproximaría más a una resolución natural de problemas, mediante ensayo y error, que al aprendizaje forzado de estrategias prefabricadas.

“El humano no aprende porque se le explique cómo moverse. Puede que haya imitación, pero sobre todo aprende porque es arrojado a un entorno y tiene que enfrentarse a la física”. Como ocurre con los bebés, que experimentan de forma caótica hasta encontrar estrategias que funcionan, estos robots aprenderían explorando qué movimientos les proporcionan más recompensas.

Tal vez, en última instancia, la robótica no esté estancada, sino enfrentándose desde el primer momento a un problema que aún dista de encontrar una solución óptima. La IA ha avanzado más rápido no porque sea más profunda, sino porque precisamente empezó por la capa más evidente del pensamiento humano. El cuerpo, como la evolución ha demostrado durante millones de años, no se conquista, en palabras de cierto político moderno, por simple asalto. Pendiente queda, de hecho, debatir si precisamente debe conquistarse.

Manu Collado

Profesor de Filosofía, articulista, dramaturgo, guionista y un largo etcétera. Cuando buscas la definición de intrusista laboral, sale mi foto.