El vertiginoso ascenso de la inteligencia artificial, especialmente de los grandes modelos lingüísticos (LLM), ha generado expectativas desmesuradas. Se preveía un avance exponencial, una carrera hacia la Inteligencia Artificial General (AGI) que igualaría o superaría la inteligencia humana. Sin embargo, recientes indicios apuntan a una posible desaceleración, lo que nos obliga a replantear este paradigma.
El estancamiento de los LLM: ¿un techo a la vista?
A pesar de las millonarias inversiones de gigantes tecnológicos como OpenAI (recientemente con 6.600 millones de dólares) y xAI (de Elon Musk, buscando 6.000 millones para adquirir chips de Nvidia), el progreso de los LLM no se ajusta a las previsiones iniciales. Se esperaba que el aumento exponencial de la potencia computacional y los datos de entrenamiento generarían un salto cualitativo, pero este no se está materializando a la velocidad esperada.
Expertos como Gary Marcus, crítico reconocido del campo, señalan que la valoración en bolsa de compañías como OpenAI y Microsoft se basa en la hipótesis, en su opinión una fantasía, de un escalado continuo hacia la AGI. Esta desaceleración cuestiona la viabilidad de este modelo basado en el crecimiento ilimitado.
Las limitaciones de los datos y la necesidad de un cambio de enfoque
Uno de los factores clave detrás de este estancamiento es la finitud de los datos lingüísticos. Scott Stevenson, CEO de Spellbook, lo explica claramente: concentrarse únicamente en acumular datos, creyendo que la inteligencia artificial aumentará proporcionalmente al volumen de datos, está condenado al fracaso. Algunos laboratorios, según Stevenson, han priorizado la cantidad sobre la calidad.
Sasha Luccioni, investigadora de Hugging Face, apunta a un problema más profundo: la excesiva obsesión por el tamaño de los modelos en detrimento de la sofisticación y el propósito de los mismos. En su opinión, la búsqueda de una AGI es irreal y el paradigma ‘cuanto más grande, mejor’ ha llegado a su límite. Esta visión está respaldada por el retraso del lanzamiento del sucesor de GPT-4 por parte de OpenAI, que se encuentra por debajo de lo esperado.
Un nuevo enfoque: eficiencia y razonamiento
En respuesta a esta realidad, las compañías están experimentando un cambio de estrategia. OpenAI, por ejemplo, ha desarrollado su modelo o1, el cual prioriza la precisión mediante el mejoramiento de sus capacidades de razonamiento, en lugar de la simple acumulación de datos.
Esta tendencia a priorizar la eficiencia y el razonamiento inteligente, en lugar del escalado exponencial de datos, es una clara señal del cambio de paradigma en marcha. Stevenson lo compara con el descubrimiento del fuego: no se trata de echar más leña, sino de utilizar el fuego (la IA) para tareas específicas.
El futuro de la IA: perspectivas optimistas y cautelosas
A pesar de los signos de estancamiento, la opinión de los expertos es divergente. Sam Altman, CEO de OpenAI, afirma que no hay barreras para el progreso. Dario Amodei, CEO de Anthropic, se mantiene optimista, prediciendo la llegada de la AGI para 2026 o 2027, basándose en el ritmo de mejora observado.
Walter De Brouwer, profesor de Stanford, ofrece una metáfora elocuente: los LLM son como estudiantes que pasan del instituto a la universidad. Inicialmente eran chatbots que improvisaban, cometiendo errores. Ahora se está transitando hacia una etapa de razonamiento más sofisticado, un enfoque más ‘homo sapiens’ de ‘pensar antes de actuar’.
En conclusión, la desaceleración en el avance de la IA podría no representar el fin de su auge, sino un cambio de paradigma. La carrera por la AGI podría estar llegando a un punto de inflexión donde la eficiencia, el razonamiento y la precisión se posicionan como factores críticos para el desarrollo de la inteligencia artificial. El futuro, aunque incierto, nos invita a observar con atención este proceso de maduración.