Leí Thinking,
Fast and Slow, de Daniel Kahneman, psicólogo cognitivo que ganó el premio
Nobel en Economía en 2002 por sus estudios sobre economía del comportamiento.
Lo central del argumento es que, contrario a los supuestos básicos de la
economía, el ser humano es muy poco racional. Y no es que sea lo emocional lo
que nos nuble, sino algo así como que pensamos mucho peor de lo que pensamos: “Documentamos errores sistemáticos
en el pensamiento de personas normales, y rastreamos esos errores hasta la
maquinaria de la cognición más que a la corrupción del pensamiento por la
emoción.” (p. 8)
El planteo básico es
que usamos poco nuestra capacidad cognitiva profunda (lo que llama Sistema 2) y
mucho más lo que llama el Sistema 1, basado en (pre)juicios veloces, sesgos y
decisiones inconscientes. Más aún, muy habitualmente el Sistema 2, cuando
opera, lo hace sobre un menú presentado por ese Sistema 1. “El Sistema 1 provee
las impresiones que muchas veces se convierten en nuestras creencias, y es la
fuente de los impulsos que muchas veces se convierten en nuestras elecciones y
nuestras acciones. Ofrece una interpretación tácita de lo que te pasa y de lo
que pasa alrededor tuyo, ligando el presente con el pasado reciente y con las
expectativas sobre el futuro cercano. Contiene el modelo del mundo que evalúa
al instante los eventos como normales o sorprendentes. Es la fuente de tus
juicios veloces y muchas veces precisos. Y hace la mayor parte de eso sin que
vos seas consciente de sus actividades.” (p. 58)
Los dos conceptos
básicos para entender este pensar mal son los sesgos y las heurísticas. “La
definición técnica de una heurística es un procedimiento simple que ayuda a
encontrar respuestas adecuadas, aunque muchas veces imperfectas, a preguntas
difíciles.” (p. 98) Ante una pregunta difícil (¿qué pienso sobre Fulano?), el
cerebro simplifica con una pregunta más fácil (¿cómo me cae Fulano?) Así, si
Fulano me cae bien, voy a decir que es bueno / inteligente / simpático; este es
la heurística del afecto. Por otro lado, el Sistema 1 tiene sesgos: lo negativo
se ve más fuerte que lo positivo, lo que ocurrió último se magnifica en el
recuerdo, etc. Así, ante una pregunta difícil (¿es seguro viajar en avión?), en
lugar de pensarlo estadísticamente (sólo hay accidentes en un ínfimo porcentaje
de los vuelos) la mente magnificará la información sobre accidentes, etc.
La cabeza se
equivoca de maneras que nos parecen inconcebibles. En un experimento, se
sometió a dos grupos a un editorial de radio; un grupo tenía que asentir con la
cabeza mientras escuchaba y el otro grupo tenía que negar; después se les
preguntó si estaban de acuerdo o no con lo que habían escuchado y el grupo que
asentía estuvo mucho más de acuerdo que el otro. Cuando uno entra a una
negociación y la otra parte pone un número, por más ridículo que sea, fija un
ancla. Y muchos ejemplos más de cómo pensamos mal: nos olvidamos de los datos
estadísticos básicos, buscamos coherencia cuando no la hay, hasta nos olvidamos
de lo que vivimos.
Parte del problema
viene de la incertidumbre. Nos cuesta operar bajo incertidumbre y nuestra
cabeza busca crear rápidamente historias coherentes para entender el mundo y
operar sobre él. Pero la mayor parte del tiempo nos equivocamos, e incluso se
equivocan los supuestos especialistas: “la gente que dedica el tiempo y se gana
el sustento estudiando un tema en particular produce peores predicciones que
monos tirando dardos, que hubieran distribuido sus opciones más o menos parejo
sobre las alternativas.” (p. 219) Es que estamos “predispuestos a exagerar la
consistencia y la coherencia de lo que vemos. (...) Estamos demasiado
inclinados a rechazar la creencia de que mucho de lo que vemos en la vida es
aleatorio.” (p. 117)
“¿Qué podemos hacer
frente a los sesgos? ¿Cómo podemos mejorar juicios y decisiones, tanto los
nuestros como los de las instituciones a las que servimos y que nos sirven? La
respuesta corta es que muy poco puede lograrse sin una inversión considerable
de esfuerzo. (...) La manera de bloquear los errores que se originan en el
Sistema 1 es simple en su principio: reconocer las señales de que estás en un
campo minado de cognición, parar la pelota, y pedir refuerzos al Sistema 2.”
(p. 417) Pero esto es más fácil de decir que de hacer; los “errores pueden ser
prevenidos solo por el monitoreo aumentado y costoso del Sistema 2. Como forma
de vida, sin embargo, la vigilancia continua no es necesariamente buena, y es
ciertamente impráctica.” (p. 28)
Originales de las
citas usadas
“We documented systematic errors in the thinking of
normal people, and we traced these errors to the design of the machinery of
cognition rather than to the corruption of thought by emotion.” (p. 8)
“System 1 provides the impressions that often turn
into your beliefs, and is the source of the impulses that often become your
choices and your actions. It offers a tacit interpretation of what happens to
you and around you, linking the present with the recent past and with
expectations about the near future. It contains the model of the world that
instantly evaluates events as normal or surprising. It is the source of your
rapid and often precise intuitive judgments. And it does most of this without
your conscious awareness of its activities.” (p. 58)
“The technical definition of heuristic is a simple
procedure that helps find adequate, though often imperfect, answers to
difficult questions.” (p. 98)
“people who spend their time, and earn their living,
studying a particular topic produce poorer predictions than dart-throwing
monkeys who would have distributed their choices evenly over the options.” (p.
219)
“errors can be prevented only by the enhanced
monitoring and effortful activity of System 2. As a way to live your life,
however, continuous vigilance is not necessarily good, and it is certainly
impractical.” (p. 28)
No hay comentarios:
Publicar un comentario