Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima

Publicado: agosto 14, 2025, 12:23 pm

Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima

GPT-5 es algo mejor que GPT-4. El problema de esa frase está en la palabra «algo». El nuevo modelo «unificado» de OpenAI no parece representar el salto cualitativo que muchos esperaban, y eso ha vuelto a hacer sonar las alarmas. Uno podría preguntar ¿y si la IA ya no se vuelve mucho mejor de lo que es ahora?, pero quizás eso esté pasando ya y la pregunta sea otra: ¿qué hacemos entonces?

El escalado funciona, pero menos. En 2020 un equipo de investigadores de OpenAI publicaron un estudio titulado «Leyes del escalado para Modelos Neuronales de Lenguaje». En él planteaban una especie de Ley de Moore de la IA: cuantos más datos y cómputo dedicases a entrenar modelos, mejor serían. Aquella observación se demostró claramente cuando lanzaron GPT-3, que era 10 veces más grande que GPT-2 pero era mucho, muchísimo mejor que aquel modelo.

Desaceleración. Gary Marcus, profesor de psicología y ciencias neuronales en la Universidad de Nueva York, explicó en 2022 que aquel estudio no tenía mucho sentido: «las llamadas leyes del escalado no son leyes universales como la de la gravedad, sino simplemente meras observaciones que podrían no mantenerse para siempre». Hasta Satya Nadella se mostró de acuerdo con dicha afirmación hace unos meses en el evento Ignite 2024. Y como estamos viendo, sus dudas se han hecho realidad. El escalado funciona y los modelos son algo mejores que sus predecesores, pero la desaceleración parece estar ahí.

Pero GPT-5 no está tan mal. Lo cierto es que GPT-5 ha mejorado en métricas relevantes. Los responsables de Epoch AI evaluaron su comportamiento en FrontierMath, por ejemplo. Los resultados eran un poco mejores que su predecesor o4-mini, pero no había grandes saltos de rendimento. Aun así destacaban cómo GPT-5 sí ha sido el primer modelo en lograr resolver un problema concreto como si «hubiera comprendido totalmente el problema».

Captura De Pantalla 2025 08 14 A Las 10 42 52

En el ámbito de las matemáticas, GPT-5 se comporta algo mejor que sus predecesores, pero la diferencia no es radical. Los problemas más difíciles (Tier 4) siguen siendo casi imposibles para los modelos de IA. Fuente: Epoch AI.

Y piensa mejor. Otro análisis independiente del analista Zvi Mowshowitz señalaba que aunque el modelo base de GPT-5 era correcto sin más, sus variantes avanzadas (GPT-5 Pro y GPT-5 Thinking) eran una mejora sustancial respecto a o3-Pro y o3 respectivamente, sobre todo al mitigar las alucinaciones. Según sus datos, «GPT-5 Auto» (la versión base) parece un producto pobre a no ser que uses el plan gratuito de ChatGPT».

Igual lo que necesitamos es una IA simbólica. La IA simbólica («clásica») representa el conocimiento usando símbolos y reglas, y se basa en la lógica y el razonamiento formal para resolver problemas y tomar decisiones. Este tipo de IA dominó el panorama de la IA hasta los 90, pero la falta de avances notables hizo que aquella disciplina se estancase y vivimos un invierno de la IA. «Salimos» de él con la IA conexionista, las redes neuronales que representan el conocimiento mediante conexiones y pesos de los nodos de una red de neuronas artificiales. Esta disciplina fue la que dio lugar al auge de la IA generativa y el éxito arrollador de ChatGPT y sus rivales. Su sorprendente buen comportamiento desató la actual fiebre de la IA, pero los avances de rendimiento están desacelerando.

Los escépticos de la IA redoblan su discurso. Analistas como Ed Zitron —más extremo— o Gary Marcus —defensor de la IA simbólica— siempre han avisado de las exageradas expectativas generadas por la IA generativa. Incluso quienes fueron instrumentales en la creación de ChatGPT, como el ingeniero Ilya Sutskever, advertían de las limitaciones del escalado. Los modelos de razonamiento han suavizado las críticas y son una gran alternativa para ese aparente estancamiento de los modelos estándar, pero aun con ellos la sensación es que la IA no va a ir mucho más allá.

Así nunca llegaremos a una AGI.  Thomas Wolf, cofundador y Chief Science Officer de Hugging Face, reflexionaba sobre el problema hace unos meses y llegaba a la conclusión de que las IAs se han convertido en «un país de hombres que dicen sí a todo en servidores». Para él las cosas empezaban a ser inquietantes:

«Para crear a un Einstein en un centro de datos no necesitamos un sistema que tenga todas las respuestas, sino más bien uno que sea capaz de preguntarse cosas que nadie había pensado o nadie se había atrevido a preguntar».

Como apuntaba este experto, la IA actual no genera (normalmente) nuevo conocimiento, y «simplemente llena los huecos de lo que los humanos ya sabían». La IA actual es como un estudiante fantástico y muy aplicado, pero ese estudiante no desafía lo que se le ha enseñado. No lo cuestiona y no propone ideas que van contra los datos con los que ha sido entrenado. Yann LeCun, uno de los pioneros de la IA, ya llegó a una conclusión sobre la IA generativa actual: es tontísima.

Bajando expectativas. El panorama es preocupante para quienes están invirtiendo miles de millones de dólares en centros de datos o en entrenar nuevos modelos fundacionales, sobre todo porque ese impacto puede no ser tan gigantesco como habían pronosticado y prometido. Ed Zitron indicaba en The New Yorker que «este es un mercado de 50.000 millones de dólares, no uno de un billón de dólares». Marcus se mostraba de acuerdo. «De 50.000 millones, sí. Quizás de 100.000».

{«videoId»:»x8hj0vy»,»autoplay»:false,»title»:»ChatGPT: Lo que NO SABÍAS que PODÍAS HACER | TRUCOS», «tag»:»», «duration»:»790″}

Qué pasa si la IA se ha estancado. Si efectivamente es así, lo que podemos esperar es que la IA se convierta en una herramienta útil para ahorrar tiempo y mejorar el resultado de ciertas tareas —ya lo está haciendo—, pero no para provocar ese impacto sísmico en la sociedad y el empleo que personalidades como Altman, Musk, Amodei o Zuckerberg defienden con sus inversiones. Si eso pasa tendremos sin duda una potente herramienta para hacer las cosas mejor y más rápido. Que fue justo lo que nos permitieron otras disrupciones fantásticas como el PC o internet.

Pero muchos probablemente esperábamos más. Mucho más. Y ahí está el problema. En las expectativas.

Imagen | Levart Photographer

En Xataka | Hay demasiados modelos de IA. Eso plantea una verdadera sentencia de muerte para Anthropic y Claude

(function() {
window._JS_MODULES = window._JS_MODULES || {};
var headElement = document.getElementsByTagName(‘head’)[0];
if (_JS_MODULES.instagram) {
var instagramScript = document.createElement(‘script’);
instagramScript.src = ‘https://platform.instagram.com/en_US/embeds.js’;
instagramScript.async = true;
instagramScript.defer = true;
headElement.appendChild(instagramScript);
}
})();


La noticia

Los escépticos de la IA avisaron de que nos estábamos emocionando mucho y no les creímos: la IA es tontísima

fue publicada originalmente en

Xataka

por
Javier Pastor

.

Related Articles