lunes, 5 de agosto de 2019

Parar la pelota



Leí Thinking, Fast and Slow, de Daniel Kahneman, psicólogo cognitivo que ganó el premio Nobel en Economía en 2002 por sus estudios sobre economía del comportamiento. Lo central del argumento es que, contrario a los supuestos básicos de la economía, el ser humano es muy poco racional. Y no es que sea lo emocional lo que nos nuble, sino algo así como que pensamos mucho peor de lo que pensamos: “Documentamos errores sistemáticos en el pensamiento de personas normales, y rastreamos esos errores hasta la maquinaria de la cognición más que a la corrupción del pensamiento por la emoción.” (p. 8)
El planteo básico es que usamos poco nuestra capacidad cognitiva profunda (lo que llama Sistema 2) y mucho más lo que llama el Sistema 1, basado en (pre)juicios veloces, sesgos y decisiones inconscientes. Más aún, muy habitualmente el Sistema 2, cuando opera, lo hace sobre un menú presentado por ese Sistema 1. “El Sistema 1 provee las impresiones que muchas veces se convierten en nuestras creencias, y es la fuente de los impulsos que muchas veces se convierten en nuestras elecciones y nuestras acciones. Ofrece una interpretación tácita de lo que te pasa y de lo que pasa alrededor tuyo, ligando el presente con el pasado reciente y con las expectativas sobre el futuro cercano. Contiene el modelo del mundo que evalúa al instante los eventos como normales o sorprendentes. Es la fuente de tus juicios veloces y muchas veces precisos. Y hace la mayor parte de eso sin que vos seas consciente de sus actividades.” (p. 58)
Los dos conceptos básicos para entender este pensar mal son los sesgos y las heurísticas. “La definición técnica de una heurística es un procedimiento simple que ayuda a encontrar respuestas adecuadas, aunque muchas veces imperfectas, a preguntas difíciles.” (p. 98) Ante una pregunta difícil (¿qué pienso sobre Fulano?), el cerebro simplifica con una pregunta más fácil (¿cómo me cae Fulano?) Así, si Fulano me cae bien, voy a decir que es bueno / inteligente / simpático; este es la heurística del afecto. Por otro lado, el Sistema 1 tiene sesgos: lo negativo se ve más fuerte que lo positivo, lo que ocurrió último se magnifica en el recuerdo, etc. Así, ante una pregunta difícil (¿es seguro viajar en avión?), en lugar de pensarlo estadísticamente (sólo hay accidentes en un ínfimo porcentaje de los vuelos) la mente magnificará la información sobre accidentes, etc.
La cabeza se equivoca de maneras que nos parecen inconcebibles. En un experimento, se sometió a dos grupos a un editorial de radio; un grupo tenía que asentir con la cabeza mientras escuchaba y el otro grupo tenía que negar; después se les preguntó si estaban de acuerdo o no con lo que habían escuchado y el grupo que asentía estuvo mucho más de acuerdo que el otro. Cuando uno entra a una negociación y la otra parte pone un número, por más ridículo que sea, fija un ancla. Y muchos ejemplos más de cómo pensamos mal: nos olvidamos de los datos estadísticos básicos, buscamos coherencia cuando no la hay, hasta nos olvidamos de lo que vivimos.
Parte del problema viene de la incertidumbre. Nos cuesta operar bajo incertidumbre y nuestra cabeza busca crear rápidamente historias coherentes para entender el mundo y operar sobre él. Pero la mayor parte del tiempo nos equivocamos, e incluso se equivocan los supuestos especialistas: “la gente que dedica el tiempo y se gana el sustento estudiando un tema en particular produce peores predicciones que monos tirando dardos, que hubieran distribuido sus opciones más o menos parejo sobre las alternativas.” (p. 219) Es que estamos “predispuestos a exagerar la consistencia y la coherencia de lo que vemos. (...) Estamos demasiado inclinados a rechazar la creencia de que mucho de lo que vemos en la vida es aleatorio.” (p. 117)
“¿Qué podemos hacer frente a los sesgos? ¿Cómo podemos mejorar juicios y decisiones, tanto los nuestros como los de las instituciones a las que servimos y que nos sirven? La respuesta corta es que muy poco puede lograrse sin una inversión considerable de esfuerzo. (...) La manera de bloquear los errores que se originan en el Sistema 1 es simple en su principio: reconocer las señales de que estás en un campo minado de cognición, parar la pelota, y pedir refuerzos al Sistema 2.” (p. 417) Pero esto es más fácil de decir que de hacer; los “errores pueden ser prevenidos solo por el monitoreo aumentado y costoso del Sistema 2. Como forma de vida, sin embargo, la vigilancia continua no es necesariamente buena, y es ciertamente impráctica.” (p. 28)

Originales de las citas usadas
“We documented systematic errors in the thinking of normal people, and we traced these errors to the design of the machinery of cognition rather than to the corruption of thought by emotion.” (p. 8)
“System 1 provides the impressions that often turn into your beliefs, and is the source of the impulses that often become your choices and your actions. It offers a tacit interpretation of what happens to you and around you, linking the present with the recent past and with expectations about the near future. It contains the model of the world that instantly evaluates events as normal or surprising. It is the source of your rapid and often precise intuitive judgments. And it does most of this without your conscious awareness of its activities.” (p. 58)
“The technical definition of heuristic is a simple procedure that helps find adequate, though often imperfect, answers to difficult questions.” (p. 98)
“people who spend their time, and earn their living, studying a particular topic produce poorer predictions than dart-throwing monkeys who would have distributed their choices evenly over the options.” (p. 219)
“errors can be prevented only by the enhanced monitoring and effortful activity of System 2. As a way to live your life, however, continuous vigilance is not necessarily good, and it is certainly impractical.” (p. 28) 

No hay comentarios:

Publicar un comentario