Desintoxicación digital
¿Y si la IA no mejora mucho más que esto? - Cal Newport

¿Y si la IA no mejora mucho más que esto? - Cal Newport

      En los años transcurridos desde el lanzamiento de ChatGPT a finales de 2022, ha sido difícil no dejarse llevar por sentimientos de euforia o temor sobre los impactos inminentes de la IA generativa. Esta reacción ha sido alimentada, en parte, por las declaraciones categóricas de los CEOs tecnológicos, que se han inclinado hacia una retórica cada vez más grandilocuente.

      «La IA está empezando a ser mejor que los humanos en casi todas las tareas intelectuales», dijo recientemente a Anderson Cooper el CEO de Anthropic, Dario Amodei. Añadió que la mitad de los empleos administrativos de nivel inicial podrían «desaparecer» en los próximos uno a cinco años, creando niveles de desempleo de hasta el 20 % —un pico visto por última vez durante la Gran Depresión.

      Mientras tanto, Sam Altman, de OpenAI, dijo que la IA ahora puede rivalizar con las capacidades de un solicitante de empleo con un doctorado, lo que llevó a una publicación a preguntar lamentándose: «¿Entonces qué les queda a los graduados?»

      Para no quedarse atrás, Mark Zuckerberg afirmó que la superinteligencia «ahora está a la vista». (Sus accionistas esperan que tenga razón, ya que supuestamente está ofreciendo paquetes de compensación de hasta 300 millones de dólares para atraer a los mejores talentos en IA a Meta.)

      Pero hace dos semanas, OpenAI finalmente lanzó su tan esperado GPT-5, un modelo de lenguaje a gran escala que muchos esperaban ofrecería saltos en capacidades comparables a los avances llamativos introducidos por lanzamientos importantes anteriores, como GPT-3 y GPT-4. Sin embargo, el producto resultante pareció estar simplemente bien.

      GPT-5 era marginalmente mejor que los modelos anteriores en ciertos casos de uso, pero peor en otros. Tenía algunas actualizaciones de usabilidad agradables, pero otras que algunos encontraron molestas. (En cuestión de días, más de 4.000 usuarios de ChatGPT firmaron una petición en change.org pidiendo a OpenAI que volviera a poner a disposición su modelo anterior, GPT-4o, ya que lo preferían al nuevo lanzamiento.) Un reseñador temprano en YouTube concluyó que GPT-5 era un producto «sobre el que resultaba difícil quejarse», que es el tipo de cosa que dirías sobre el iPhone 16, no sobre una tecnología que define una generación. El comentarista de IA Gary Marcus, que había estado prediciendo este resultado durante años, resumió sus primeras impresiones con brevedad al calificar a GPT-5 como «tardío, sobrevalorado y decepcionante».

      Todo esto apunta a una pregunta crítica que, hasta hace poco, pocos habrían considerado: ¿Es posible que la IA que estamos usando actualmente sea básicamente tan buena como va a ser durante un tiempo?

      En mi artículo más reciente para The New Yorker, que salió la semana pasada, intenté responder a esta pregunta. Al hacerlo, terminé informando sobre una narrativa técnica que no se entiende ampliamente fuera de la comunidad de IA. El rendimiento revolucionario de los modelos de lenguaje GPT-3 y GPT-4 se debió a mejoras en un proceso llamado preentrenamiento, en el que un modelo digiere una cantidad asombrosamente grande de texto, enseñándose a sí mismo a ser más inteligente. Las mejoras aclamadas de ambos modelos se debieron a aumentar tanto su tamaño como la cantidad de texto con la que fueron preentrenados.

      En algún momento después del lanzamiento de GPT-4, sin embargo, las empresas de IA empezaron a darse cuenta de que este enfoque ya no era tan eficaz como antes. Continuaron aumentando el tamaño del modelo y la intensidad del entrenamiento, pero observaron rendimientos decrecientes en las ganancias de capacidad.

      En respuesta, a partir del otoño pasado, estas empresas dirigieron su atención a técnicas de posentrenamiento, una forma de entrenamiento que toma un modelo que ya ha sido preentrenado y lo refina para que funcione mejor en tipos específicos de tareas. Esto permitió a las empresas de IA seguir informando progresos en las capacidades de sus productos, pero estas nuevas mejoras eran ahora mucho más focalizadas que antes.

      Así expliqué este cambio en mi artículo:

      «Una metáfora útil aquí es un coche. Se puede decir que el preentrenamiento produce el vehículo; el posentrenamiento lo pone a punto. [Los investigadores de IA habían] predicho que al ampliar el proceso de preentrenamiento aumentas la potencia de los coches que produces; si GPT-3 era un sedán, GPT-4 era un coche deportivo. Una vez que esta progresión flaqueó, sin embargo, la industria dirigió su atención a ayudar a los coches que ya habían construido a rendir mejor.»

      El resultado fue una serie confusa de modelos con nombres inescrutables —o1, o3-mini, o3-mini-high, -4-mini-high—, cada uno con mejoras de posentrenamiento a medida. Estos modelos presumían aumentos muy publicitados en determinados benchmarks, pero ya no los grandes saltos en capacidades prácticas que solíamos esperar. «No oigo a muchas empresas que usan IA decir que los modelos de 2025 son mucho más útiles para ellas que los de 2024, aunque los modelos de 2025 obtengan mejores resultados en los benchmarks», me dijo Gary Marcus.

      El enfoque de posentrenamiento, al parecer, puede conducir a productos marginalmente mejores, pero no a los grandes saltos continuos en capacidad que serían necesarios para cumplir las predicciones más extravagantes de los CEOs tecnológicos.

      Nada de esto, por supuesto, implica que las herramientas de IA generativa sean inútiles. Pueden ser muy útiles, especialmente para ayudar con la programación informática (aunque quizá no tanto como algunos pensaban), o para realizar búsquedas inteligentes, o para impulsar herramientas personalizadas que ayuden a entender grandes cantidades de texto. Pero esto dibuja un panorama muy distinto del que sostiene que la IA es «mejor que los humanos en casi todas las tareas intelectuales».

      Para más detalles sobre esta narrativa, incluida una predicción concreta de lo que realmente esperar de esta tecnología en el futuro cercano, lee el artículo completo. Pero mientras tanto, creo que es seguro, al menos por ahora, desviar tu atención de las afirmaciones cada vez más hiperbólicas de los titanes tecnológicos y centrarte en cambio en las cosas que importan más en tu vida.

Otros artículos

¿Y si la IA no mejora mucho más que esto? - Cal Newport

En los años transcurridos desde el lanzamiento de ChatGPT a finales de 2022, ha sido difícil no dejarse llevar por sentimientos de euforia o de temor sobre el ... Leer más