LUIS MEJIA, Ph.D. en
economía
Introducción
Cuando yo trato de
conocer a mis amigos parto de la información que ellos me dan de sí mismos,
explícitamente al hablar de sus cosas e implícitamente en las vidas que llevan
en mi presencia. Esa información la proceso con ayuda de mis conocimientos y
habilidades de raciocinio y la tamizo a través de criterios no racionales,
ideas preconcebidas, prejuicios, estereotipos, sesgos mentales que distorsionan
mi juicio. Agrego a eso la opinión de terceros, que ha pasado por el mismo
proceso.
De igual manera,
cuando mis amigos tratan de conocerme usan lo que me oyen decir de mí mismo, lo
que me ven hacer y lo que oyen de mí, todo procesado por su razonamiento y
sesgos mentales.
Lo mismo sucede con
la realidad que nos rodea, con los juicios que hacemos de personas y eventos en
el entorno familiar, en el mundo laboral, en la sociedad en que vivimos, en la
religión que seguimos o abandonamos, en la política de la que participamos como
observadores, activistas y votantes.
El autor, Ben
Yagoda, hizo su nombre en
el medio académico como profesor universitario de redacción y periodismo,
practicó el periodismo como comentarista y reportero independiente y ha sido un
buen divulgador de temas científicos. Sus artículos han sido publicados en
algunos de los medios mejor reputados de los Estados Unidos.
Yagoda nos lleva de
la mano a través del trabajo investigativo de algunos científicos
contemporáneos -Kahneman, Nisbett, Morewedge- que han estudiado la manera como
procesamos información y formamos opinión y que han tratado de contestar la
pregunta: ¿Es posible neutralizar nuestros sesgos mentales?
La respuesta varía de
optimista a pesimista a cautelosamente positiva. Es entendible. Los
investigadores se enfrentan a algunas de las distorsiones más resistentes que
ocurren cuando pensamos. Veamos varios ejemplos:
- Uno tiende a buscar
pruebas que confirmen lo que ya cree o sospecha, a considerar los hechos e ideas
que encuentra como confirmación adicional y a descartar o ignorar cualquier
evidencia que dé respaldo a un punto de vista diferente; este sesgo es
generalizados en rencillas familiares y en la militancia política -de todos los
partidos y movimientos-;
- Uno tiende a
explicar el comportamiento de otros individuos haciendo énfasis en su
personalidad, desestimando el impacto de las circunstancias en que están
inmersos y a explicar el comportamiento propio en el sentido opuesto;
- Uno tiene la impresión de ser menos sesgado
que la persona promedio y asume que los demás piensan como uno;
- Uno también tiende a darle mucho
valor a los atributos personales de alguien a quien estamos evaluando y poco a
los factores externos;
- Uno tiende a
subestimar de manera consistente los costos y duración de prácticamente
cualquier proyecto que uno inicie;
- Uno mantiene una
mala inversión porque ya ha perdido dinero en ella, se come un mal plato en un
restaurante porque lo va a pagar, continúa una guerra que no se va a ganar
porque ya ha gastado en ella sangre y recursos;
- Uno tiende a basar
decisiones, estimados o predicciones en la pieza de información que ha recibido
más recientemente o que recuerde primero, en recuerdos personales o en la
anécdota más vivida y convincente que tenga presente.
Estos sesgos actúan
como atajos que uno toma para llegar pronto a una opinión o decisión, son
económicos en tiempo y energía, no nos exigen recoger información exhaustiva ni
pensar con cuidado, funcionan bien para la mayoría de las personas la mayor
parte del tiempo y simplifican la vida social y personal.
Pero dan pie a varios
problemas. Por ejemplo (sin entrar en enumeración completa):
[1] son una mala guía
en decisiones y opiniones importantes, como las que tenemos que tomar como
ciudadanos (como votantes, participantes en movimientos cívicos, activistas
sociales), como actores en la vida económica (como consumidores, empleadores,
trabajadores, inversionistas, ahorradores), como miembros de la sociedad
(integrantes de familia, papel que escogemos jugar en relación con los demás, respeto
a las normas de convivencia y ética social), y son mala guía cuando decidimos
no tomar decisiones (valga el juego de palabras);
[2] nos hacen
vulnerables a la manipulación emocional, a los mensajes de propaganda y
publicidad, a las falsas noticias y los hechos alternativos, a las promesas
mentirosas, a los juramentos en balde, a la compulsión de adquirir símbolos de
status, al discurso de líderes religiosos, políticos y empresariales
carismáticos; el arte del persuasor es identificar nuestros sesgos mentales
favoritos para decirnos lo que queremos oír como lo queremos oír y así
inducirnos a decir y hacer lo que quiere aunque sea irracional, nos perjudiquemos a nosotros mismos o nos
convirtamos en cómplices del daño que haga a otros ciudadanos;
[3] por lo mismo -y
en mi opinión-, los sesgos nos preparan para aceptar normas de conducta personal y social
igualmente sesgadas:
- normas crueles (como la sobrevaloración de la virginidad femenina, la
discriminación contra los hijos habidos fuera de matrimonio, la pena de muerte
a los que abandonan una religión, el celibato forzoso de los sacerdotes
católicos);
- normas que destruyen la
confianza que todos deben tener en el gobierno (uno lo ve, por ejemplo, en la excusa y tolerancia de
crímenes políticos, corrupción oficial y violación del estado de derecho cuando
son cometidos por personas que uno respalda y en la condena de los mismos actos
en persona de alguien que uno rechaza);
- normas que destruyen el sentido de solidaridad humana y de equidad
social (como la indiferencia que se vuelve normal frente a la muerte, el
sufrimiento y el despojo de bienes sufridos por minorías sociales, grupos de
campesinos, organizadores comunitarios, líderes populares, pintados como elementos
subversivos, agentes que perjudican la unidad social, obstáculos al progreso
nacional o perturbadores del orden público.
Uno puede creer que
está pensando cuando se deja guiar por los sesgos cognoscitivos. Los estudiosos
del tema tienen otra idea. Para ellos pensar es poner en movimiento la
capacidad de raciocinio, dudar de lo que ya creen, recoger información
abundante sobre el tema, evaluarla, escoger la que es relevante, formular
conclusiones lógicas, preferir el conocimiento basado en la evidencia. Es un
proceso difícil, exige tiempo y energía, requiere introspección, pone a prueba
la capacidad de autocrítica que uno tiene. Es conocimiento basado en evidencia. Probablemente carece de atractivo
para la mayoría de las personas.
Pero algunos
investigadores piensan que se puede mejorar la capacidad de pensar de la gente.
Los juegos virtuales descritos en el artículo y, en cierta medida, los
tratamientos exitosos de psicoterapia permiten anticipar estrategias para
lograrlo hasta cierto punto. Una nota de escepticismo es justificada por el
limitado efecto de la educación avanzada. Uno de los autores mencionados por
Yagoda le da importancia a los conocimientos estadísticos adquiridos en la
universidad. A mi parecer los sobrevalora.
Valga un ejemplo, los
colombianos ponen mucha fe en las encuestas de popularidad y favorabilidad de
celebridades y personajes nacionales. Uno puede asumir que hay millones de
colombianos entrenados formalmente en estadística básica (quizá con excepción
de abogados, maestros y periodistas, los egresados universitarios han tomado
clases en la materia) y tienen una idea de distribuciones poblacionales y
selección y representatividad de muestras. Sin embargo, no hay activa discusión
ciudadana sobre las fichas técnicas de encuestas aunque existen motivos para
mirarlas con escepticismo.
Una cosa de la que no
hablan los estudiosos del tema es que con sesgos dominantes o dominados, al
final del día tenemos que asumir responsabilidad por las decisiones -sabias o
estúpidas- que afecten a los seres que amamos (personas, animales, la
naturaleza, la patria, el hogar). Y a los que no amamos también.
Dejo aquí a mis
lectores para que entren, espero que motivados, a la lectura del artículo sobre
sesgos cognoscitivos y sus correcciones, que apareció en la edición de
septiembre del 2018 del magazine The Atlantic bajo el título Nuestra mente mentirosa.
.
¿SE ENGAÑA NUESTRO CEREBRO? EL PAPEL DE LOS SESGOS
COGNOSCITIVOS
Por Ben
Yagoda
Hay bases científicas
para pensar que estamos programados para engañarnos a nosotros mismos. ¿Podemos
hacer algo para impedirlo?
Anticipando el futuro
Me miro en una
fotografía en la que aparezco 20 años mayor de lo que soy ahora. Pero no me he
metido en una zona gris de la realidad. Al contrario. Estoy tratando de superar
la tendencia que uno tiende a darle más peso al momento cercano cuando tiene
que escoger entre dos situaciones futuras. Es lo que se llama el sesgo del
presente. Muchos estudios académicos han mostrado que este sesgo, también
llamado descuento hiperbólico, es fuerte y persistente.
La mayoría de esos
estudios toman el dinero como referencia. Cuando uno pregunta a la gente si
prefiere $150 hoy o $180 dentro de un mes la mayoría escoge los $150. No cae en
cuenta de que renunciar a un rendimiento de inversión del 20% es un mal
negocio. Eso se echa de ver cuando descartamos el presente para formular la
pregunta. Si le preguntamos: ¿prefiere $150 dentro de un año o $180 dentro de trece
meses? La mayoría está dispuesta a esperar el mes adicional para ganarse $30.
El sesgo del presente
se manifiesta no solo en experimentos, por supuesto, sino también en el mundo
real. En los Estados Unidos, por ejemplo, la gente no ahorra suficiente para su
jubilación[i]
aunque gane más de lo que necesite para cubrir sus necesidades o aunque trabaje
para una compañía que aporte fondos adicionales a la cuenta de retiro que uno
tenga.
Esta observación
llevó a un investigador llamado Hal Hershfield a experimentar con fotografías.
Hershfield es profesor de mercadeo en UCLA (Universidad de California – Los
Ángeles). El punto de partida de sus estudios es que la gente está
“desconectada” de lo que será en el futuro[ii].
En consecuencia, dijo en un ensayo de 2011, “ahorrar es una opción entre gastar
dinero hoy en uno mismo o dárselo a un extraño en unos años”.
El ensayo describía
una prueba que hicieron él y varios de sus colegas para cambiar esa mentalidad
en sus estudiantes.
Pusieron a los
estudiantes a observar por un minuto, más o menos, una creación virtual
–avatar- de la apariencia que tendrían a los 70 años. Luego les preguntaron qué
harían si de repente recibieran $1.000. Los estudiantes que habían mirado a los
ojos a sus avatares respondieron que pondrían un promedio de $172 en una cuenta
de jubilación. Más del doble de los $80 que hubieran ahorrado los miembros del
grupo de control.
Como yo ya estoy
viejo –empezando mis 60, para los curiosos- Hershfield me puso frente a dos imágenes,
una de mí mismo a los 80 –con manchas de la vejez, una cara exageradamente
asimétrica y arrugas tan profundas como un hueco en las calles de Manhattan- y
otra de mi hija décadas más vieja. Me explicó que de esta manera me preguntaría
a mí mismo, ¿cómo me sentiré al final de
mi vida si mis hijos no están protegidos?
Sesgos cognoscitivos, ¿qué son?
Cuando la gente oye
la palabra sesgo muchos -si no la mayoría- piensan en prejuicios raciales o en
los noticieros que tuercen sus reportajes para favorecer una posición política
con perjuicio de otra. Cuando hablamos de sesgo del presente estamos dando un
ejemplo de maneras imperfectas de pensar. Se conocen como sesgos cognoscitivos
y al parecer están impresos en el cerebro humano.
Forman una colección
extensa. La lista de sesgos cognoscitivos de Wikipedia tiene 185 entradas[iii].
Desde la asimetría actor-observador (“la tendencia a explicar el comportamiento
de otros individuos haciendo énfasis en su personalidad desestimando el impacto de las circunstancias
en que están inmersos… y a explicar el comportamiento propio en el sentido
opuesto”) hasta el efecto Zeigarnik (“las tareas incompletas o interrumpidas se
recuerdan mejor que las terminadas”).
El tahúr, el ancla, el costo perdido, Ikea
Algunas de las 185
entradas son triviales o de dudoso valor. El efecto Ikea, por ejemplo, se
define como “la tendencia de la gente a darle un valor desproporcionado a los
objetos que ella misma ha armado parcialmente”. Otras son tan parecidas entre
sí que se hacen redundantes. Pero se ha comprobado la existencia de un grupo de
100 sesgos, poco más o menos, que están bien fundamentados y que pueden enredar
nuestras vidas.
La falacia del tahúr
nos da absoluta certeza de que si una moneda ha caído cara cinco veces seguidas
lo más probable es que caiga sello la sexta vez. De hecho, las probabilidades
siguen siendo 50 a 50. El sesgo del optimismo lo lleva a uno a subestimar de
manera consistente los costos y duración de prácticamente cualquier proyecto
que uno inicie. El sesgo de lo accesible nos hace sentir, por ejemplo, que
viajar por avión es más peligroso que viajar en automóvil (las imágenes de
aeroplanos accidentados son más vívidas y dramáticas en nuestra memoria e
imaginación y, en consecuencia, más accesibles a nuestra conciencia).
El efecto de anclaje
es nuestra tendencia a basar nuestras decisiones, estimados o predicciones en
la primera pieza de información que recibimos, especialmente si viene en
presentación numérica. Por esta razón los negociadores empiezan con un número
que es deliberadamente muy bajo o muy alto. Ellos saben que las negociaciones
subsiguientes van a quedar “ancladas” en ese número.
Una ilustración
sorprendente de anclaje ocurre en un experimento en el que los participantes
observan una rueda tipo ruleta que se detiene en el 10 o en el 65 y en seguida
les preguntan cuál es el porcentaje de países africanos en las Naciones Unidas.
Los que vieron parar la rueda en 10 dicen en promedio que el 25%, los que la
vieron parar en 65 que el 45% (la cifra correcta al momento del experimento era
el 28% aproximadamente)[iv].
Los sesgos no tienen
efectos solo a nivel individual. El año pasado el presidente Donald Trump
decidió enviar más
tropas a Afganistán y ahí mismo cayó en la falacia del costo irrecuperable.
Dijo: “Nuestro país debe buscar una salida honorable y duradera, digna de los
inmensos sacrificios que se han hecho, especialmente el de vidas”[v].
Dejarse llevar por el
costo irrecuperable implica mantener una mala inversión porque ya hemos perdido
dinero en ella, comerse un mal plato en un restaurante porque, al fin y al
cabo, la vamos a pagar, continuar una guerra que no se va a ganar porque ya
hemos gastado en ella sangre y recursos. En todos estos casos, esa manera de
pensar es pura tontería.
Confirmando lo que ya creo
Si yo fuera a escoger
el sesgo más perjudicial y común de todos probablemente me iría con el de
validación: es el que nos lleva a buscar pruebas que confirmen lo que ya
creemos o sospechamos, a considerar los hechos e ideas que encontramos como
confirmación adicional y a descartar o ignorar cualquier evidencia que dé
respaldo a un punto de vista diferente[vi].
El sesgo de validación se manifiesta de manera más obvia en nuestros
antagonismos políticos del momento, cuando ninguna de las partes es capaz de
aceptar que la otra pueda tener una posición válida en cualquier tema.
El sesgo de
validación se da en muchas otras situaciones, algunas veces con consecuencias
terribles. Citemos por ejemplo el reporte
presidencial de 2005 sobre los preparativos de la Guerra de Iraq: “Los
analistas tendían a ignorar cualquier evidencia que encontraran de que Iraq no
tenía [armas de destrucción masiva]. En lugar de evaluar cada prueba por
separado preferían aceptar la información que se ajustara a la teoría
prevalente y rechazaban lo que la contradijera”[vii].
Documentando los procesos mentales sesgados
El concepto de sesgos
cognoscitivos y pautas heurísticas deficientes –estas son los atajos mentales y
las reglas a ojo que usamos para hacer juicios y pronósticos- fue inventado
–poco más o menos- en la década de los 70 por Amos Tversky and Daniel Kahneman,
científicos sociales que empezaron sus carreras en Israel y más tarde se
mudaron a los Estados Unidos. Ellos
fueron los investigadores que dirigieron el experimento ‘países africanos en la ONU’. Tversky murió en 1996 y Kahneman ganó
el premio Nobel de economía en 2002 por el trabajo que habían hecho los dos
juntos y que ell segundo resumió en su obra
Pensar
rápido, pensar despacio, publicada en el 2011, que se convirtió en un
éxito de ventas.
En Deshaciendo
errores: Kahneman, Tversky y la amistad que nos enseñó cómo funciona la
mente (The Undoing Project) -otro éxito de ventas-, el autor, Michael Lewis, cuenta la historia de
la colaboración, ocasionalmente conflictiva, de los dos investigadores[viii]. En su libro anterior, Moneyball,
Lewis describe cómo su héroe, el ejecutivo beisbolero Billy Beane, neutralizó
los sesgos cognoscitivos de los cazatalentos de vieja escuela, en especial el
error fundamental de atribución. Este consiste en darle mucho valor a los
atributos personales de alguien a quien estamos evaluando y poco a los factores
externos, muchos de los cuales son estadísticamente mesurables.
Otra figura clave en el campo es
Richard Thaler, economista de la Universidad de Chicago. Se le identifica
principalmente por el efecto de pertenencia[ix] (N. del T., algunos lo
han llamado en castellano efecto dotación),
que nos lleva a darle un valor irracionalmente elevado a nuestras posesiones.
Thaler,
Kahneman y Jack L. Knetsch hicieron un experimento en el que daban una taza
a la mitad de los participantes y luego les preguntaban por cuánto la
venderían. La respuesta fue $5,78 en promedio. El resto del grupo dijo que
estaba dispuesto a dar un promedio de $2,71 para comprarla. Este resultado
contradecía la teoría clásica de la economía según la cual el valor de mercado de
un artículo, para una población y un momento determinados, no depende de si uno es el dueño o no. Thaler ganó el premio Nobel
de economía en el 2017.
La mayoría de los
libros y artículos que tratan de sesgo cognoscitivo contienen un pasaje corto,
hacia el final, similar a este que aparece en Pensar rápido, pensar despacio: “La pregunta más común sobre las
ilusiones cognoscitivas es la de si pueden ser contrarrestadas… La respuesta…
no es alentadora”.
Ilusiones ópticas: mente analítica y juicio espontáneo
Kahneman y otros
autores hacen una analogía basada en nuestro entendimiento de la
ilusión de Müller-Lyer[x] en la que observamos dos líneas paralelas de
igual longitud con puntas de flecha añadidas a los extremos. En una línea las
flechas apuntan hacia adentro, en la otra hacia afuera. La dirección de las
flechas hace que la segunda parezca más corta que la primera aunque en realidad
las dos son de la misma longitud. Esto es lo que pasa: a pesar de que hayamos
medido las líneas, hayamos constatado que son iguales y nos hayan explicado las
bases neurológicas de la ilusión, todavía percibimos la una más corta que la
otra.
Nuestra mente analítica, la que
piensa despacio –llamada por Kahneman Sistema 2- reconocerá una situación Müller-Lyer en frente de la ilusión óptica y no se
dejará convencer de lo que percibe el Sistema 1, que actúa automáticamente,
como un tic nervioso.
Pero eso no es tan
fácil en el mundo real, cuando estamos interactuando con personas y
situaciones, no con segmentos de una línea.
Dice Kahneman:
“Desafortunadamente, el procedimiento de raciocinio es el que menos
probabilidades tiene de ser aplicado cuando más lo necesitamos. Todos
querríamos tener una campana que haga mucho ruido para alertarnos cuando
vayamos a cometer un error, pero esa campana no existe”.
Manejando nuestros sesgos, ¿es posible?
Los sesgos dan la
impresión de ser sólidos e inalterables. Por eso no se le ha prestado mucha
atención a cómo manejar los pensamientos, las predicciones o los juicios problemáticos.
Se ha dado énfasis a cómo cambar los comportamientos
por medio de “empujoncitos” o “codazos”.
Por ejemplo, como ha
sido casi imposible cambiar el sesgo del presente los empleadores empujan a sus
empleados a hacer aportes a los planes de jubilación; para ello han hecho que
los aportes sean una opción de aceptación implícita; en otras palabras, uno
tiene que hacer algo para dejar saber que no
quiere aportar. En este caso la pereza o la inercia son más fuertes que el
sesgo.
Algunas rutinas
pueden ser diseñadas para disuadir o impedir que la gente ponga en práctica sus
procedimientos sesgados. Un buen ejemplo son las listas de verificación para
médicos y enfermeros que propone Atul Gawande en su Gran propuesta de
listados [N. del T.: en castellano circula como El efecto checklist].
¿Es realmente
imposible descartar o reducir significativamente nuestros sesgos? Algunos experimentos
sobre reacciones y respuestas de sujetos tomados al azar han llevado a la
conclusión, de manera tentativa, de que es imposible. Pero muchos de estos
sujetos son estudiantes universitarios de pregrado, es decir, personas a las
que les importan más los $20 que les pagan por participar que la oportunidad de
aprender y cambiar su comportamiento y manera de pensar.
Así que uno puede
preguntarse, ¿qué pasaría si la persona sometida a las estrategias de
corrección de sesgos fuera auto-seleccionada y estuviera muy motivada? Es
decir, ¿qué pasaría si fuera yo el sujeto del experimento?
Kahneman pesimista: No podemos eliminar los sesgos
Le escribí a Daniel
Kahneman, quien a sus 84 años todavía está vinculado a la Escuela de Asuntos
Públicos e Internacionales de la Universidad de Princeton (Woodrow Wilson
School of Public and International Affairs, at Princeton) aunque pasa la mayor
parte del tiempo en Manhattan. Él me contestó al poco tiempo de mi mensaje. Aceptó
mi invitación a encontrarnos. Me dijo: “Al menos debo tratar de disuadirlo con
respecto a sus planes”.
En mi encuentro con
él me dijo: “Mi posición tiene mucho que ver con mi temperamento. Usted no va a
conocer a alguien más pesimista que yo”.
En este contexto su
pesimismo se refiere, ante todo, a la posibilidad de hacerle cambios al Sistema
1, la parte de nuestro cerebro que piensa rápidamente y que hace los errores de
juicio que producen la ilusión Müller-Lyer de los segmentos lineares. Dice: “Yo
veo un dibujo de dos segmentos iguales. La meta es desconfiar de lo que creo
que veo. Entender que no debo creerle a mis ojos mentirosos”. Eso se puede
lograr con la ilusión óptica, aclara, pero es extremadamente difícil con los
sesgos cognoscitivos del mundo real.
La manera más
efectiva de contrarrestarlos, opina Kahneman, es desde afuera: es más fácil
para otras personas percibir nuestros errores. Organizaciones de pensamiento
lento, como las denomina él, pueden establecer prácticas de observación y
evaluación sobre las decisiones y predicciones hechas por cada individuo.
También pueden usar listas de comprobación y hacer evaluaciones pre mortem.
La evaluación pre
mortem como concepto y como expresión fue una invención del psicólogo
cognoscitivo Gary Klein. Consiste en pedirle a un equipo de discusión que
imagine el fracaso total, rotundo, de un proyecto y que describa en una o dos
oraciones qué pasó. Sirve para hacerle contrapeso al sesgo del optimista. En la
práctica este ejercicio ayuda a la gente a anticipar las cosas.
En opinión de
Kahneman: “Ninguna de estas cosas tienen un impacto en el Sistema 1. Uno no
puede mejorar la intuición. Quizá con un entrenamiento muy largo, muchas
conversaciones y familiarización con la economía conductual lo que uno puede
lograr es introducir pautas para activar el raciocinio, es decir inducir al
Sistema 2 a seguir reglas. Desafortunadamente la realidad no provee esas pautas.
Además, en el calor de un argumento la mayor parte de la gente tira por la
borda las reglas de pensar. Esa es la manera como lo veo aunque preferiría no
tener que sostener esa posición”.
Nisbett optimista vs Kahneman pesimista
Da la coincidencia de
que en los días de mi encuentro con Kahneman este se estaba comunicando por
correo electrónico con Richard E. Nisbettt, psicólogo social de la Universidad
de Michigan. Kahneman y Nisbett han tenido una relación profesional de décadas.
Nisbett jugó un papel
decisivo en la divulgación del trabajo de Kahneman y Tversky con su libro Inferencia humana: Estrategias y fallas del
juicio social (Human Inference:
Strategies and Shortcomings of Social Judgment), publicado en 1980.
En Pensar rápido, pensar despacio
Kahneman hace un resumen de un artículo anterior de Nisbett que describe la
aversión de las personas a creer en estadísticas o en cualquier evidencia basada
en reglas generales y su preferencia por hacer juicios basados en ejemplos
personales o anécdotas emotivas (Este sesgo es conocido como repudio de la
información base).
Le había escrito a
Kahneman en parte porque estaba trabajando en sus memorias y quería hablar de
una conversación que tuvo hace mucho tiempo con el mismo Kahneman y con Tversky
en una conferencia. Nisbett guardaba la clara impresión de que Kahneman y
Tversky estaban disgustados con él; quizá pensaban que la presentación que
había hecho en la conferencia incluía una crítica implícita a su trabajo.
Kahneman recordaba el encuentro y le respondió: “Sí, recuerdo que estábamos (un
poco) molestos con su trabajo sobre lo fácil que sería entrenar a la gente para
que desarrollara intuiciones estadísticas (disgustados sería una expresión muy
fuerte)”.
Hablé por teléfono
con Nisbett para preguntarle las razones de su desacuerdo con Kahneman. Me
dijo: “Danny al parecer estaba convencido de que los resultados que yo estaba
presentando eran triviales. Para él es claro que no hay entrenamiento posible
para mejorar la capacidad de formular una opinión. Pero nosotros hemos hecho la
encuesta con los estudiantes de la Universidad de Michigan por cuatro años
seguidos. Ellos muestran una mejora muy grande en su habilidad para resolver
problemas. Los estudiantes de post-grado en psicología también muestran avances
inmensos”.
En uno de sus mensajes electrónicos a Nisbett
Kahneman había sugerido que las diferencias entre los dos eran en buena medida
resultado de las diferencias de temperamento, el pesimista versus el optimista.
En su respuesta Nisbett propuso otro factor: “Usted y Amos se especializaron en
problemas difíciles a los que llegaban porque les habían dado la solución
equivocada. Yo empecé a estudiar problemas fáciles, a los que ustedes jamás
darían respuestas erróneas como sí lo hacen regularmente las personas poco
instruidas… Uno puede observar que los efectos de la enseñanza en esos
problemas fáciles son inmensos”.
Problemas fáciles y problemas difíciles
Un ejemplo de problema fácil es el del
lanzador con un promedio de 0,450 bateos al principio de la temporada de
béisbol. Un ejemplo de problema difícil es el “caso Linda” que sirvió de base
para los primeros artículos de Kahneman and Tversky.
En resumen, el experimento que ellos hacían
consistía en darle a los participantes información con las características de
una mujer ficticia, de nombre Linda; por ejemplo, su compromiso con la justicia
social, la intensificación que hizo en filosofía en la universidad, su
participación en protestas antinucleares y así sucesivamente. Luego se preguntaba
a los participantes: ¿cuál de las siguientes opciones es más probable: (a)
Linda es cajera en un banco y (b) es cajera en un banco y activista feminista?
La respuesta correcta es (a) porque siempre es
más probable que se satisfaga una sola condición a que se satisfagan al mismo
tiempo esa condición y otra adicional. Pero más del 80% de los estudiantes de
pregrado entrevistados escogieron (b) por la combinación de dos razones: 1) la
falacia de la conjunción (es la presunción de que condiciones específicas
múltiples son más probables que una sola condición general), y 2) las pautas
heurísticas representativas (que derivan de nuestro gran deseo de usar
estereotipos).
Nisbett se pregunta con razón cuántas veces en
la vida tenemos que hacer un juicio similar al requerido en el caso Linda.
Personalmente no veo momentos de esos en mi vida. Es en cierto sentido un
pasatiempo de sala en el que se juega con la lógica.
La educación profesional debilita los sesgos
Cuando Nisbett quiere
dar un ejemplo de su método enfocado en los problemas fáciles generalmente
menciona la encuesta sobre el fenómeno del béisbol [N. del T.: fenómeno se usa
aquí en el sentido coloquial de ‘ese jugador es un fenómeno del béisbol’]. En
esta encuesta llamaba por teléfono a estudiantes de la Universidad de Michigan
con la excusa de recolectar información sobre deportes y les preguntaba por qué
siempre había bateadores de la Liga Mayor con un promedio de 0,450 bateos al
principio de temporada pero ningún jugador llegaba con un promedio así de alto
al final.
Más o menos la mitad
de los estudiantes que no habían tomado Introducción a la Estadística daban una
respuesta equivocada; por ejemplo, ‘los lanzadores se acostumbran a los
bateadores’, ‘los bateadores se van cansando a medida que avanza la temporada’,
y así por el estilo. El resto daban respuestas acertadas: la ley de las cifras
altas –según la cual los valores anómalos son mucho más frecuentes cuando la
muestra (el número de bateos, en este caso) es pequeña. En el curso de la
temporada, a medida que aumenta el número de bateos se hace inevitable la
reversión a la media.
Cuando Nisbett hacía
la misma pregunta a los estudiantes que habían completado el curso
introductorio de estadísticas recibía la respuesta correcta del 70%
aproximadamente. Él cree, con el debido respeto a Kahneman, que la ley de las
cifras altas puede absorberse en el Sistema 2 -y quizá en el Sistema 1 también-
aun en los casos en que hay muy pocas pautas para activar el proceso de raciocinio.
El segundo ejemplo
favorito de Nisbett es el de los economistas que tienen claras las
implicaciones de la falacia del costo irrecuperable. Ellos regularmente se
salen de una película mala sin esperar a que termine[xi] y
no terminan una mala comida de restaurante[xii].
Utensilios mentales y entrenamiento para neutralizar
sesgos
Con el paso de los
años Nisbett empezó a centrar su investigación y análisis en la posibilidad de
entrenar a la gente para que sea capaz de evitar y superar varios sesgos,
incluyendo el repudio de la información base, el error fundamental de
atribución y la falacia del costo irrecuperable.
En su libro del 2015 Utensilios mentales: Herramientas del pensamiento inteligente (Mindware:
Tools for Smart Thinking, que
circula en una versión castellana titulada: Mindware:
herramientas para pensar mejor) Nisbett dice: “Sé por la
investigación que he hecho sobre cómo enseñarle a la gente a razonar
estadísticamente que unos pocos ejemplos en dos o tres áreas diferentes son
suficientes para mejorar su capacidad de raciocinio en un número indefinido de
eventos”.
Nisbett me sugiere que tome una clase de Utensilios mentales: Pensamiento crítico en
la era de la información, ofrecida en internet por Coursera, en la que presenta
las habilidades y conceptos que él considera más efectivos para superar los
sesgos cognoscitivos. Luego deberé completar la misma encuesta que él
administra a los estudiantes de pregrado de la Universidad de Michigan. Y eso
hice.
El curso se compone de ocho lecciones, con
gráficas y tests, dictadas por Nisbett, quien en la pantalla proyecta la imagen
del profesor de psicología con autoridad pero accesible que todos hubiéramos
querido tener. Recomiendo el curso.
Nisbett explica las pautas heurísticas
accesibles con estas palabras: “La gente se sorprende de que los suicidios son
más numerosos que los homicidios y los ahogados más que los muertos en
incendios. La gente siempre cree que el crimen aumenta”, aunque no sea así.
La falacia lógica encarnada en el sesgo de
validación[xiii]
la explica por la tendencia que tienen las personas de buscar ejemplos que
confirman una hipótesis que ya están inclinadas a creer, pero advierte que esta
confirmación nunca se logra consolidar aunque recojamos muchos ejemplos; lo
correcto en este caso es buscar ejemplos que prueben lo contrario de lo que
queremos creer.
El repudio de la información base lo enfoca de
manera similar a como escoge las películas que quiere ver. Su decisión nunca se
basa en carteles de propaganda o en el comentario de un crítico o en la
anticipación de que sería algo que le gustaría ver. En lugar de eso dice: “Yo
me guío por información de base. Ni leo
un libro ni veo una película a menos que estén muy bien recomendados por
personas en las que confío”. “Muchas personas piensan que no son como los
demás. Pero sí lo son”.
Validando el entrenamiento anti-sesgos
Cuando terminé el curso Nisbett me envió la
encuesta que él y sus colegas le hacen a los estudiantes. Contiene varias
docenas de problemas con los que se quiere medir la resistencia del
participante a los sesgos cognoscitivos. Por ejemplo:
A la vista hay cuatro tarjetas. Han sido
seleccionadas al azar de un mazo en el que cada tarjeta tiene una letra en un
lado y un número en el reverso. Su tarea es decir cuáles tarjetas tiene que
voltear para saber si la siguiente regla es verdadera o falsa: “Si una tarjeta
tiene una ‘A’ en un lado debe haber un ‘4’ en el reverso”. Voltee solo las
tarjetas que necesite para confirmar la regla.
Tarjeta 1
|
Tarjeta 2
|
Tarjeta 3
|
Tarjeta 4
|
|||
4
|
B
|
A
|
7
|
(a) Solo la tarjeta 3
(b) Tarjetas 1, 2, 3 y 4
(c) Tarjetas 3 y 4
(d) Tarjetas 1, 3 y 4
(e) Tarjetas 1 y 3
Mucha gente que no ha sido entrenada aplica el
sesgo de validación y contesta (e) aunque la respuesta correcta es (c). En un
caso como este lo único que uno puede hacer es probar que la regla está
equivocada y para ello hay que voltear las tarjetas con la letra ‘A’ (la regla
queda refutada si un número diferente de 4 aparece en el reverso) y con el
número 7 (la regla queda refutada si aparece una ‘A’ en el reverso).
Yo di la respuesta correcta. De hecho, cuando
completé el test y lo devolví a Nisbett este me contestó: “Creo que si acaso
unos pocos de los estudiantes de último año de la universidad de Michigan responderían
el test tan bien como usted. Estoy seguro de que algunos estudiantes de
psicología con al menos dos años de universidad harían igual de bien. Pero
observe que usted estuvo muy cerca del resultado perfecto”.
A pesar de este comentario yo no me sentía
seguro de que la lectura de Utensilios
mentales y la clase de Coursera necesariamente hubieran acabado con mis
sesgos cognoscitivos. En primer lugar, como yo no había tomado el pre-test de
la clase era posible que yo fuera una persona relativamente libre de sesgos. En
segundo lugar, muchas de las preguntas del test, incluyendo el ejemplo
mencionado, parecen desconectadas de los escenarios que uno puede encontrar en
la vida diaria. Suenan como los problemas ‘difíciles’ en que cae el caso Linda,
la cajera de banco. Finalmente, yo había recibido ‘pautas’ para reaccionar,
como diría Kahneman. Al contrario de los estudiantes de la Universidad de
Michigan yo sabía exactamente qué significaban esas preguntas y las estudié con
ese entendimiento.
Nisbett por su parte insistió en que los resultados
tenían sentido. Me dijo: “Si usted responde bien en un test seguro que lo hace
mejor en la vida real”.
La clase de Nisbett en Coursera y los
encuentros íntimos con la persona que uno fue recomendados por Hershfield no
son los únicos métodos de superación de sesgos existentes en el momento.
Entrenamiento anti-sesgos: opciones comerciales
El NeuroLidership Institute[xiv] [N. del T.: nombre que se
puede traducir como Instituto de Liderazgo Neural, cosa que no tiene sentido ni
en un idioma ni en el otro] de Nueva York ofrece a organizaciones e individuos
un paquete de sesiones de entrenamiento, seminarios en internet (a distancia) y
conferencias con la promesa, entre otras cosas, de usar la ciencia del cerebro
(N. del T.: la expresión en inglés se refiere a cosas como neurología,
neurociencia, psicología cognoscitiva, etc.) para enseñar a los estudiantes
cómo contrarrestar los sesgos mentales. Este año patrocinará en Nueva York un
encuentro de dos días en el que por US$2.845 uno puede aprender, por ejemplo,
“¿por qué nuestros cerebros son tan ineptos para pensar en el futuro y cómo lo
podemos hacer mejor?”
Philip E. Tetlock, un professor de la Escuela
Wharton de la Universidad de Pensilvania, y su esposa y colega investigadora
Bárbara Mellers han estudiado por años lo que llaman “superpronosticadores”,
las personas que logran evadir los sesgos cognoscitivos y predecir eventos
futuros con mayor precisión que los denominados expertos y que las autoridades de
televisión.
Tetlock
y Meller divulgan la fórmula de los super-pronosticadores a través de su empresa comercial Good Judgment[xv]
(Buen Juicio), fundada por ambos, y en el
libro del primero Superforecasting: The Art and Science of Prediction[xvi] (Circula en castellano una edición bajo el
título Superpronosticadores: El arte y la ciencia de la
predicción), escrito con Dan Gardner.
Uno de los ingredientes más
importantes es lo que Tetlock llama “la vista desde afuera”. La vista desde
adentro es el resultado del error fundamental de atribución, repudio de la
información base y otros sesgos que constantemente nos empujan a apoyar nuestras
opiniones y predicciones en historias buenas o vívidas en lugar de usar datos y
estadísticas.
Tetlock dice: “En una boda
alguien se para a tu lado y dice: ¿Cuánto tiempo les das? Si el comentario te
molesta porque has visto la devoción con que se tratan es porque has aceptado
la vista desde adentro”. Algo así como el 40% de los matrimonios terminan en
divorcio y esa estadística tiene más fuerza predictiva del destino de un
matrimonio que las miradas de adoración que se cruza la pareja. Por supuesto
que uno no quiere compartir esta manera de entender las cosas en la recepción.
Juegos
virtuales y manejo de sesgos
Entre las estrategias para
superar sesgos que los estudiosos ven como más promisorias se encuentra una
serie de videojuegos. Empezaron con la Guerra de Iraq y la torpe invención de las armas de destrucción
masiva que la justificó y que dejó a los servicios de inteligencia medio
atontados.
En 2006 el gobierno
estadounidense creó una agencia que se encargara de usar tecnología e
investigación de punta para mejorar la colección y análisis de inteligencia con
el propósito de prevenir otro error de
esa magnitud. [Intelligence Advanced Research Projects
Activity (iarpa)[xvii] o Acción para proyectos
investigativos avanzados de inteligencia]. Esta agencia inició en 2011 un
proyecto llamado Sirius[xviii] para financiar el
desarrollo de juegos de video “serios” que combatieran o mitigaran seis de los
sesgos considerados más perjudiciales:
[1]
el de validación, que es probablemente el más generalizado y perjudicial de
todos, nos lleva a buscar pruebas que confirman lo que ya creemos,
[2]
el del punto flaco (la impresión que uno tiene de estar menos sesgado que la
persona promedio),
[3]
el de proyección (la presunción de que los demás piensan como uno) [N. del T.: en economía
este sesgo se presenta como la creencia de las personas de que sus gustos y
preferencias no cambiarán con el paso del tiempo y se puede llamar sesgo de
extrapolación],
[4]
el error fundamental de atribución,
[5]
el efecto de anclaje,
[6]
las pautas heurísticas representativas.
Seis equipos empezaron a trabajar
en los juegos y dos de ellos completaron su parte. El equipo que más ha llamado
la atención fue el dirigido por Carey K. Morewedge[xix],
un profesor de Boston University en este momento. Con personal que incluía empleados
de Creative Technologies -una empresa especializada en juegos y otras
simulaciones- y Leidos -una empresa de investigación en asuntos de defensa,
inteligencia y salud- Morewedge
creó Missing.
Lo puso a prueba haciendo que algunas personas lo jugaran –lo que toma cerca de
tres horas- mientas otras miraban un video sobre sesgos cognoscitivos. Todos
los participantes fueron examinados sobre sus habilidades para reducir los
sesgos, antes del experimento, inmediatamente después y de 8 a 12 semanas más
tarde.
Participé en el juego después
de tomar el test. Los personajes, hombres y mujeres, son de tórax amplio, usan
ropa ceñida y se mueven como si estuvieran inseguros de la dirección en que
deberían ir. En el primer episodio el jugador adopta el papel del vecino de una
mujer, Terry Hughes, que ha desaparecido misteriosamente. En el segundo ella ha
regresado y necesita ayuda para investigar malos manejos en su compañía. En el
juego a uno le piden que haga juicios y predicciones -algunos relacionados con el
libreto, otros ajenos a él- diseñados para activar sus sesgos. Las respuestas
que uno dé generan comentarios inmediatamente.
Por ejemplo, cuando uno está
revisando el apartamento de Terry el conserje del edificio golpea en la puerta
y pregunta, sin venir a cuento, sobre otra inquilina, Mary, a la que describe
como “no exactamente atlética”. Dice que
el 70% de los inquilinos van al Gimnasio de Rocky, el 10% al Entropía del
estado físico y el 20% se queda en casa viendo películas por televisión. Y
pregunta: ¿A qué gimnasio es probable que vaya Mary?
“Ninguno. Mary se queda viendo
televisión”, es una respuesta equivocada inspirada por el repudio de la
información base, que es una de las formas en que se prentan las pautas
heurísticas representativas. La respuesta correcta, basada en los datos que
amablemente ha dado el conserje, es el Gimnasio de Rocky.
Todos los participantes en el
estudio habían mejorado cuando fueron examinados inmediatamente después de ver
el video o de completar el juego y también cuando fueron examinados un par de meses más tarde, pero los jugadores
mejoraron más que los que vieron el video.
Validando
el impacto de juegos virtuales
Me dijo Morewedge cuando hablé
con él que veía los resultados como una confirmación de la investigación y de
las ideas de Richard Nisbett. Afirmó que “la contribución de Nisbett había sido
prácticamente descartada en el campo; se daba por sentado que el entrenamiento
no puede reducir el sesgo. Lo que se ha escrito sobre entrenamiento parte de la
base de que los libros y las clases son un buen entretenimiento que no tiene
muchas consecuencias. Pero el juego tiene efectos importantes. Eso ha
sorprendido a todo el mundo”.
Yo tomé el test otra vez, poco
tiempo después de haber participado en el juego con resultados disparejos.
Logré mejoras significativas en el sesgo de validación, error fundamental de
atribución y pautas heurísticas representativas. Mejoré un poco en el sesgo de
punto flaco y en el efecto de anclaje. Mi puntaje inicial más bajo -44,8%- fue
en el sesgo de proyección. De hecho cayó un poco después de participar en el
juego (De verdad, tengo que dejar de pensar que todo el mundo piensa como yo).
Pero aun los resultados
favorables me recordaron algo que me había dicho Kahneman: “A mí no me
convencen el papel y el lápiz. Un test puede ser administrado un par de años
después. Pero el test le da pautas al que lo toma. Le recuerda de qué se
trata”.
Yo había tomado los tests de
Nisbett y Morewedge en una computadora, no en papel. Pero la advertencia sigue
siendo válida. Un cosa es que los efectos del entrenamiento se manifiesten en
un mejor puntaje en un test, cuando uno está alerta, posiblemente a la espera
de caer en una trampa, y otra muy diferente que los efectos se manifiesten como
un comportamiento en la vida real.
Morewedge me dijo que algunos
escenarios tentativos que reproducen el mundo real, similares a Missing, han dado “resultados alentadores”,
pero que es prematuro hablar de ellos.
Testimonio
personal: el autor confronta sus sesgos
Yo no soy tan pesimista como
Daniel Kahneman ni tan optimista como Richard Nisbett. En el tiempo que llevo
metido en el tema he notado algunos cambios en mi comportamiento. Por ejemplo,
hace poco, en un día caluroso, quise comprar una botella de agua de US$2,00 en
una máquina expendedora. La botella no salió y mirando de cerca noté que el
mecanismo que la sostenía estaba dañado; al mismo tiempo, al lado había otra
fila de botellas y su mecanismo se veía en buen estado.
Mi reacción inicial fue
la de no comprar una botella de esta segunda fila pensando que US$4,00 por una
botella de agua era demasiado dinero. Pero mi entrenamiento en sesgos
cognoscitivos me decía que algo fallaba en esta línea de pensamiento. Yo iba a
gastar US$2,00 en una botella de agua; ya había probado que estaba dispuesto a
pagar ese precio[xx]. Así
que puse el dinero en la máquina, saqué la botella y bebí el agua
tranquilamente.
De ahora en adelante voy a
vigilar mis pensamientos y reacciones lo mejor que pueda. Digamos, por ejemplo,
que deseo contratar un asistente de investigación. Las referencias y la
experiencia del candidato A son excelentes pero da la impresión de ser muy
tímido y no me mira a los ojos. El candidato B habla de baloncesto –su tema
favorito- con entusiasmo pero sus referencias no pasan de mediocres. ¿Seré
capaz de superar el error fundamental de atribución y contratar al candidato A?
Pongamos otro ejemplo. Hay un
funcionario que desprecio por razones de temperamento, conducta e ideología. Al
mismo tiempo, bajo su dirección la economía nacional ha tenido buenos
resultados. ¿Seré capaz de desprenderme del sesgo de validación y aceptar la
posibilidad de que esa persona merece algún reconocimiento?
Debo reconocer que en cuanto a
hacer planes patrimoniales -el tema que sirvió a Hal Hershfield para empezar su
investigación- sido como la hormiga de la fábula: guardo todo lo que puedo en
la despensa en anticipación del invierno mientras los saltamontes cantan y se
divierten. En otras palabras, he hecho todos los ahorros posibles para engrosar
mi pensión de jubilación. Pero aunque soy diligente para ahorrar tiendo a dejar
las cosas para mañana.
Hace meses que mi asesor
financiero se ofreció a revisar gratis mi testamento que ya tiene 20 años de
firmado y que con seguridad necesita ser actualizado. Hay algo en la
preparación de un testamento que da ocasión a una perfecta tempestad de sesgos,
desde el efecto de la ambigüedad (“la tendencia a evadir opciones cuando la
falta de información da la impresión de que las probabilidades son
‘desconocidas’”, según la definición de Wikipedia), pasando por el sesgo de normalidad
(“la renuencia a anticipar o reaccionar frente a un desastre que nunca antes ha
ocurrido”) y terminando en el efecto avestruz (¿habrá necesidad de
explicarlo?).
Mi asesor me envió un sobre
prepagado de correo expreso; lo tengo abandonado en el piso de mi oficina,
donde se llena de polvo. Yo sabía que eso pasaría como me lo confirma el sesgo
retrospectivo.
Traducción,
adaptación y subtítulos de Luis Mejía
2 de septiembre del 2018
Publicado en blogluismejia.blogspot.com
https://www.nature.com/news/how-scientists-fool-themselves-and-how-they-can-stop-1.18517
ReplyDelete“People forget that when we talk about the scientific method, we don't mean a finished product,” says Saul Perlmutter, an astrophysicist at the University of California, Berkeley. “Science is an ongoing race between our inventing ways to fool ourselves, and our inventing ways to avoid fooling ourselves.” So researchers are trying a variety of creative ways to debias data analysis — strategies that involve collaborating with academic rivals, getting papers accepted before the study has even been started and working with strategically faked data.