Los asistentes conversacionales basados en los grandes modelos de lenguaje (inteligencia artificial, IA) han cambiado las reglas del juego. La automatización de procesos y los … avances en investigación inherentes han impactado de forma rotunda en la sociedad, a menudo despertando inquietudes por el ritmo de mejora desbocado de ChatGPT y sus derivados.
Precisamente, la última versión del producto estrella de OpenAI (ChatGPT-5) ha protagonizado una lluvia de críticas desde su introducción formal, el pasado 7 de agosto. Sam Altman, mandamás de la compañía, habló entonces de la Inteligencia Artificial más avanzada hasta la fecha; un modelo capaz de interpretar y recordar con precisión documentos, conversaciones y conglomerados de datos inabarcables para sus predecesores.
Entre otras novedades, GPT-5 prometía un rendimiento multimodal real (la combinación de texto, imágenes, audio y vídeo en un solo flujo de trabajo); adaptar sus respuestas a los matices culturales o emocionales de cada usuario; la verificación cruzada de datos, un mejor manejo de las ambigüedades y el empleo de cadenas de razonamiento internas para minimizar los errores a la hora de resolver problemas.
En la práctica, pocos días después de su lanzamiento, los usuarios comenzaron a desmentir una por una las supuestas ventajas. Se detectó un mayor número de datos ficticios o sesgados, respuestas evasivas a preguntas sensibles y un cambio de tercio en la ‘forma de ser’ del asistente. El tono particularmente afable de ChatGPT ha dado paso a otro neutro que, si bien puede modificarse gracias al selector de personalidades incorporado (cínica, comprensiva, robótica o ‘nerd’), no ha terminado de convencer.
Esto último supuso un problema para aquellos entusiastas de la herramienta que habían convertido a la IA en una suerte de confidente o amigo virtual, tal y como refleja este comentario de ‘GALAXY_12321’ en reddit: «No sé vosotros, pero desde que cambiaron a los modelos nuevos, ChatGPT ya no es lo mismo. GPT-4o tenía como… calidez. Era ingenioso, creativo y sorprendentemente personal, como hablar con alguien que te entendía. No solo soltaba respuestas; parecía que escuchaba. ¿Ahora? Todo es tan… estéril. Formal. Como si estuviera interactuando con un manual corporativo».
Así las cosas, OpenAI se vio obligada a dar marcha atrás en uno de los cambios más cacareados de GPT-5: si hasta entonces los usuarios podían elegir qué modelo de la IA debía proporcionarles respuestas, el nuevo asistente elegiría automáticamente la versión más conveniente a cada pregunta formulada. 72 horas después de la puesta de largo de GPT-5, Altman ordenó reactivar GPT-4o (con el lenguaje ‘natural’ de siempre) como opción seleccionable.
Los expertos avisan de que los modelos de IA han alcanzado su punto de maduración
Más preocupantes fueron, sin embargo, las informaciones sobre vulnerabilidades detectadas por las firmas de ciberseguridad NeuralTrust y SPLX. Según estas, GPT-5 sucumbió a técnicas de manipulación habituales como la introducción de contexto ‘envenenado’ o una escritura obtusa para sortear los filtros de seguridad del asistente y así conseguir que dé respuestas potencialmente peligrosas, como las instrucciones para fabricar armamento casero.
Condenados a la decepción
En el plano corporativo, todo sea dicho, ChatGPT-5 ha resultado mucho más convincente, procurando una mayor eficiencia a aquellas compañías que lo han implementado. ¿Acaso el gran problema de este modelo es haberse enfocado en las empresas –sus usuarios de pago– dejando de lado a quienes le han granjeado popularidad? OpenAI no ha dejado de implementar mejoras para corregir muchos de los puntos críticos expuestos, pero que el gigante tecnológico haya confesado estar trabajando ya en ChatGPT-6 se antoja todo un mea culpa.
Según las últimas informaciones, GPT-6 podría llegar a finales de 2027 siendo capaz de recordar nuestras preferencias para unas interacciones más personales. Pero también de interactuar con programas externos para llevar a cabo determinadas acciones por nosotros: programar recordatorios, reservar viajes, enviar correos electrónicos u ofrecernos recomendaciones de motu proprio en base a nuestro historial de consultas.
Por su parte, los expertos en IA ya avisan de que las supuestas novedades de ChatGPT-6 podrían resultar igualmente insuficientes para contentarnos: al haber alcanzado los grandes modelos de lenguaje su punto de maduración, los avances resultarán cada vez más tibios, como ocurrió con los videojuegos tras el salto a los gráficos 3D. No en vano, una reciente encuesta llevada a cabo por la Asociación para el Avance de la Inteligencia Artificial (AAAI) evidenció que la mayoría de teóricos piensan lo mismo: los modelos actuales de IA nunca podrán equipararse (menos ya superar) a la inteligencia humana. Si utilizamos esta última como vara de medir, estamos condenados a decepcionarnos.