Últimamente no paro de ver cómo un estudio del MIT sobre el uso de ChatGPT y otros LLMs se comparte por todas partes como si fuera la prueba definitiva de que las inteligencias artificiales están convirtiendo a la humanidad en una panda de inútiles. El estudio en sí es real, se titula Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task (Kosmyna et al., 2024), y sí, sus datos son interesantes, pero lejos de “probar” nada sobre la estupidización humana:
No quiero leerme el estudio, ¿qué dice?
TL;DR: Cuando la gente usa LLMs para escribir ensayos:
- Su cerebro se activa menos (según el EEG)
- Recuerdan menos lo que escribieron
- Sienten menos que el texto es suyo
Conclusión que saca medio internet:
➡ “¡Las LLMs nos están convirtiendo en idiotas!”
Esto es lo de siempre, creo: El problema no es la herramienta. Es cómo la usas.
Esto ya pasó
Esto me recuerda a lo que pasó con las calculadoras en su día: “¡Van a acabar con el cálculo mental!” o con los GPS: “¡La gente ya no sabrá orientarse nunca más por sí misma!”. Y, digo yo, ¿es eso intrínsicamente malo?
¿La realidad?
- Los matemáticos dejaron de perder semanas con cálculos manuales y pudieron centrarse en probar teorías.
- Los GPS nos quitaron el miedo a perdernos y nos dejaron disfrutar del camino (o llegar antes, que no está nada mal, eh).
Con las LLMs pasa lo mismo. Si las usas para pensar por ti, malo. Pero si las usas como lo que son (una herramienta para ahorrar tiempo y energía), te vuelves más ágil, no más tonto.
Lo importante es dónde pones el esfuerzo
Pongo unos ejemplos:
- Si estoy trabajando en una idea matemática compleja que puede llevarme a algo grande, ¿tiene sentido que pierda una semana haciendo cuentas que un ordenador resuelve en segundos?
- Si estoy programando un sistema, ¿de verdad tengo que escribir a mano todo el boilerplate y pelearme con los mismos patrones una y otra vez, hasta quemarme antes de llegar a lo que importa?
- Si estoy escribiendo un artículo, ¿mi trabajo consiste principalmente en formatear el texto y revisar comas… o en dar forma a la idea que quiero compartir?
La clave está en eso: si la idea es tuya, el valor lo aportas tú. La LLM está para ayudarte a que salga al mundo con la menor fricción posible.
El estudio analiza el resultado de usar sin pensar
El estudio del MIT no dice “usar LLM te vuelve idiota”. Lo que dice es:
➡ Si dejas que el LLM escriba por ti, ni aprendes, ni recuerdas, ni sientes que el trabajo es tuyo.
Esto no es culpa de la herramienta. Es culpa de un mal uso.
Con el GPS: Si antes de salir tienes una idea general de por dónde vas (norte, sur, carreteras principales), el GPS te ahorra detalles y te optimiza la ruta. Pero si metes la dirección a ciegas y sigues instrucciones sin pensar, es posible que acabes dando vueltas por sitios raros o tomando rutas absurdas. ¿Has visto alguna vez a alguien meterse por un camino de cabras porque “lo decía el GPS”?
Con la calculadora: Si entiendes el problema matemático y sabrías resolverlo a mano (aunque te llevara más tiempo), la calculadora te ahorra el trabajo mecánico. Pero si no tienes ni idea de qué operación necesitas hacer y simplemente usas fórmulas memorizadas, no estás resolviendo nada. ¿Sabrías comprobar si el resultado tiene sentido? Si la respuesta es sí, es señal de que realmente entiendes el problema.
Pues lo mismo pasa con las LLMs: Si tienes una idea clara del resultado que quieres obtener, la LLM te ahorra el trabajo pesado. Pero si no tienes ni idea de qué hacer y simplemente le dices “escribe un artículo sobre [tema]”, amigo, te estás embruteciendo.
¿Hay algo de malo en embrutecerse? Para nada. Los humanos siempre han intentado hacer las cosas con el menor esfuerzo posible y esto es solamente un paso más. Habrá gente que disfruta pensando y resolviendo problemas (y no embruteciéndose), y otros que prefieren que la tenología haga el trabajo por ellos.
C’est la vie.