¿Por qué nuestras mentes predictivas malinterpretan el mundo — y cómo desacelerar en la era de la IA?
¿Podría quejarnos de las limitaciones y riesgos de ChatGPT ayudarnos, paradójicamente, a convertirnos en mejores “máquinas predictivas”? Después de todo, nosotros somos —en cierto sentido— el ChatGPT original.
Incluso antes de terminar de leer este artículo, probablemente ya habrás formado una opinión sobre él. Tal vez te guste, tal vez lo descartes o simplemente pases.
No es un fallo personal. Es la forma en que la evolución moldeó nuestro cerebro y cómo la tecnología nos ha entrenado.
Al igual que los grandes modelos de lenguaje (LLM), nuestra mente anticipa la siguiente palabra, acción o emoción a partir de patrones previos, sin esperar siquiera a tener todos los datos. Cuanto mejor es la experiencia acumulada, mejores pueden ser las predicciones. Pero cuando los datos son escasos, sesgados o incompletos, tanto humanos como máquinas “alucinamos”: llenamos los vacíos con historias que parecen verdaderas, confundiendo rapidez con precisión.
Las redes sociales intensifican ese fenómeno. Nos predisponen, casi exigen, que reaccionemos y opinemos constantemente sobre cualquier tema, desde la política internacional hasta una fiesta temática. Las plataformas premian así velocidad frente a profundidad, condicionándonos para juzgar al instante y reaccionar sin contexto.
Juzgamos un libro por su portada porque así funciona el cerebro. Responde constantemente a señales visuales y completa la historia antes de que aparezcan todos los hechos. Esa capacidad nos permite navegar un mundo complejo, pero también nos conduce a conclusiones erróneas.
En este artículo exploraremos experiencias basadas en la ciencia, el deporte, los negocios y la vida cotidiana para ser un poco más conscientes —y con suerte mejores— a la hora de “llenar” esos vacíos.
Cuando la mente inventa la historia
Nuestra capacidad de anticipación depende de dos sistemas de procesamiento visual que operan a velocidades distintas.
El primer sistema funciona en unos 120 milisegundos, más rápido que un parpadeo. Detecta patrones y oportunidades incluso antes de que seamos conscientes de ellos. El segundo sistema, más lento, integra esa información en la conciencia alrededor de los 160 milisegundos, momento en el que se produce la toma de decisiones deliberada.
Esa diferencia explica algunas hazañas deportivas que parecen imposibles. Carlos Alcaraz no espera a analizar cada detalle del saque rival: anticipa la trayectoria de la pelota y reacciona casi automáticamente. En deportes como el golf, en cambio, interviene más el procesamiento lento: Scottie Scheffler debe analizar el viento, la pendiente y la distancia para calcular bien su golpe.
Algo similar sucede en la medicina. En una emergencia, la intuición entrenada puede salvar vidas. Pero en un diagnóstico complejo o una cirugía planificada, el desafío consiste precisamente en resistir ese impulso automático y reducir la velocidad para analizar mejor.
Algunos programas de formación médica utilizan incluso el arte para entrenar la observación. En museos, los estudiantes deben describir pinturas con extremo detalle —sombras, trazos, patrones— antes de sacar conclusiones rápidas.
Una prensa sensacionalista mental
Este sistema dual explica por qué a veces malinterpretamos a los demás. Por un lado, el sistema rápido, ligado a la amígdala, detecta posibles amenazas y reacciona de inmediato ante señales como un ceño fruncido o un silencio, haciéndonos creer que estamos siendo juzgados antes de que intervenga la razón. Sin control, este mecanismo crea una “prensa sensacionalista mental”: un silencio parece enojo y un mensaje breve, un insulto. Nuestro sistema más lento suele corregir estas conclusiones, pero no siempre a tiempo. Por eso un emoji puede cambiar de inmediato el tono de una conversación: la mente salta del símbolo al significado sin cuestionarlo.
El mismo mecanismo que ayuda a un bateador a anticipar una pelota rápida o a un cirujano a reaccionar en una emergencia también puede generar errores de pensamiento en la vida cotidiana. El cerebro tiende a completar los vacíos de información, pero a menudo lo hace de forma distorsionada.
A veces esas distorsiones no solo afectan cómo interpretamos a los demás, sino también cómo nos juzgamos. El cirujano James Naples describió haber desarrollado los “yips quirúrgicos”, un fenómeno conocido en el deporte en el que, de repente, las manos se bloquean pese a años de entrenamiento. Los supervisores creían que era incompetencia, pero en realidad era el cuerpo que respondía a una distorsión de la propia mente: “no puedes hacerlo”.
El psicólogo Daniel Kahneman llamó a estos errores “juicios del Sistema 1”: rápidos, intuitivos y sin esfuerzo, pero propensos a equivocarse. Algo similar ocurre con la visión. Cuando una persona pierde parte del campo visual, el cerebro rellena los huecos para mantener una imagen continua.
Lo mismo ocurre en el mundo digital. Mensajes breves, publicaciones en redes sociales o respuestas generadas por inteligencia artificial suelen ofrecernos fragmentos de información sin contexto. Nuestro cerebro hace el resto: completa la historia, muchas veces guiado por prejuicios.
Del reflejo a la reflexión
Cambiar la forma en que reaccionamos empieza por algo simple: bajar la velocidad.
Antes de responder a un mensaje, un emoji o una frase suelta, conviene preguntarse si realmente tenemos el panorama completo o si estamos escribiendo otro titular en el “tabloide” de nuestra mente.
Preguntas simples pueden ayudar:¿Estoy viendo solo lo que confirma lo que espero? ¿Podría haber otra explicación para este gesto o silencio?¿Estoy reaccionando demasiado rápido?
Si nuestro cerebro es, en cierto modo, el ChatGPT original, la pregunta clave es cómo lo estamos entrenando: con profundidad y contexto, o solo con velocidad y fragmentos.
Ese pequeño espacio entre estímulo y reacción permite una percepción más deliberada. Es lo que ayuda a los atletas a seguir una pelota en el aire, a los médicos a interpretar síntomas complejos y a cualquiera de nosotros a pasar del reflejo automático a una comprensión más profunda.
Al final, no son los espacios en blanco lo que define la verdad, sino la forma en que decidimos llenarlos. Y en ese proceso, la tecnología puede confundirnos… o ayudarnos a entender mejor cómo pensamos.
La versión original de este artículo se publicó en The American Bazaar, en nuestra columna “Learning Machines”.