La ley de los pequeños números (10)
Un estudio sobre la incidencia de cáncer renal en los 3.141 condados de Estados Unidos revela que los
condados en los que la incidencia de cáncer renal es más baja son en su mayoría rurales, con escasa
densidad de población y pertenecientes a estados tradicionalmente republicanos del Medio Oeste, el Sur
y el Oeste. Consideremos ahora los condados en los que la incidencia de cáncer renal es más alta. Estos
condados tienden a ser en su mayoría rurales, con escasa densidad de población y pertenecientes a
estados tradicionalmente republicanos del Medio Oeste, el Sur y el Oeste.
Sin duda algo está mal aquí. La vida rural no puede explicar tanto la incidencia alta como la incidencia
baja de cáncer renal. El factor clave es que los condados rurales tienen escasa población.
La principal lección es sobre lo difícil que es la relación que existe entre nuestra mente y la estadística. El
sistema 1 es hábil en una forma de pensamiento; automáticamente y sin esfuerzo identifica relaciones
causales entre acontecimientos, aunque esas relaciones sean a veces espurias. Pero, como veremos, el
Sistema 1 es inútil cuando se enfrenta a hechos «puramente estadísticos», que cambian la probabilidad
de los resultados, pero no los causa.
Un acontecimiento azaroso no proporciona, por definición, una explicación por sí solo, pero recopilaciones
de hechos azarosos se comportan de una forma altamente regular. Los resultados extremos (muy alta y/o
muy baja tasa de cáncer) se encontrarán más probablemente en los condados poco poblados. A esto se
reduce toda la historia. Los resultados de muestras grandes merecen más confianza que los de muestras
pequeñas
Hemos empezado con un hecho que demandaba una causa: la incidencia de cáncer renal varía
ampliamente entre los condados, y las diferencias son sistemáticas. La explicación que he ofrecido es
estadística: los resultados extremos (altos y bajos) son más probables en muestras pequeñas que en
muestras grandes. Esta explicación no es causal. La población menor de un condado ni causa ni previene
el cáncer; simplemente permite que la incidencia de cáncer sea más alta (o más baja) que en una
población mayor. La verdad última es que aquí no hay nada que explicar. La incidencia de cáncer no es
en verdad más baja o más alta de lo normal en un condado con escasa población. Si repetimos el análisis
al año siguiente, observaremos el mismo patrón general de resultados extremos en las muestras
pequeñas, pero los condados donde el cáncer era común el año anterior no tendrán necesariamente una
alta incidencia el año presente. Si esto es así, las diferencias entre condados densamente poblados y
rurales no cuentan en realidad como hechos: son lo que los científicos llaman artefactos, observaciones
que son enteramente producto de algún aspecto del método
LA LEY DE LOS PEQUEÑOS NÚMEROS
Los «estadísticos intuitivos» en general eran optimistas sobre la capacidad de la estadística intuitiva.
Para un psicólogo investigador, la variación de las muestras es un fastidio y un costoso obstáculo.
Supongamos que queremos confirmar la hipótesis de que el vocabulario de las niñas de seis años es
mayor que el vocabulario de un niño de la misma edad. La hipótesis es cierta en la población en general.
Sin embargo, existe una gran diversidad de niñas y niños, y con un poco de suerte podríamos seleccionar
una muestra en la que la diferencia fuese inconcluyente, o en la que los niños puntuasen realmente más
alto. Los investigadores que escogen una muestra demasiado pequeña se quedan a la suerte. Para el
investigador, este resultado es costoso, porque habrá dedicado tiempo y esfuerzo para terminar
fracasando en la confirmación de una hipótesis que de hecho es verdadera. Utilizar una muestra
suficientemente grande es la única manera de reducir este riesgo. Tradicionalmente, no se utilizan los
cálculos, se utiliza el juicio. Una explicación plausible era que las decisiones de los psicólogos sobre el
tamaño de las muestras reflejaban concepciones intuitivas falsas y frecuentes sobre las variaciones de
amplitud de las muestras. Como la mayoría de los psicólogos dedicados a la investigación, elegía
rutinariamente muestras que eran demasiado pequeñas, y los resultados no tenían sentido. Y entonces
supe por qué: los resultados extraños eran en realidad errores del método de investigación. Nunca había
elegido un tamaño por medio de un cálculo. Como mis colegas, había confiado en la tradición y en mi
intuición para planificar mis experimentos, y nunca había pensado seriamente sobre el asunto. ‘’Las
intuiciones sobre muestreos aleatorios parecen satisfacer la ley de los pequeños números, que dice que
la ley de los grandes números se aplica también a los pequeños números.’’
UNA INCLINACIÓN A LA CONFIANZA FRENTE A LA DUDA
Los detalles omitidos no tienen interés en sí mismos, proporcionan una información de fondo que llama
poco la atención. El lector se centra en la historia más que en la fiabilidad de los resultados. Pero cuando
la fiabilidad es baja, el mensaje queda desacreditado.
El Sistema 1 no se inclina hacia la duda. Suprime la ambigüedad y de manera espontánea construye
historias lo más coherentes posible. A menos que el mensaje sea inmediatamente negado, las
asociaciones que provoca se impondrán como si el mensaje fuese verdadero. El Sistema 2 es capaz de
dudar, porque puede tener presentes posibilidades incompatibles al mismo tiempo. Sin embargo, sostener
la duda es una tarea más dura que deslizarse en la certeza. La ley de los pequeños números es una
manifestación de una inclinación general que favorece la certeza frente a la duda, y que reaparecerá de
muchas maneras en los capítulos siguientes. La inclinación a creer que las muestras pequeñas reflejan
fielmente la población de la que son tomadas es también parte de una historia más amplia: somos
proclives a exagerar la consistencia y la coherencia de lo que vemos. La fe de los investigadores en lo
que observan se relaciona con el efecto halo, la sensación de que sabemos y entendemos a una persona
de la cual sabemos muy poco. El Sistema 1 va por delante de los hechos construyendo una imagen con
retazos de evidencia. Una máquina de saltar a las conclusiones actuará como si creyese en la ley de los
pequeños números. Más generalmente, producirá una representación de la realidad que tiene gran
sentido.
CAUSA Y CASUALIDAD
La maquinaria asociativa busca causas. El problema con las regularidades estadísticas es que estas
demandan un enfoque diferente. En vez de centrarse en la manera en que se produjo el suceso el punto
de vista estadístico lo relaciona con lo que podría haber sucedido en lugar de lo que sucedió. Nada en
particular hizo que se produjera lo que se produjo; la posibilidad vino dada entre sus alternativas. Nuestra
predilección por el pensamiento causal nos expone a serios errores en la evaluación de la aleatoriedad de
sucesos realmente aleatorios.
Somos buscadores de patrones, creyentes en un mundo coherente en el que las regularidades no se
producen accidentalmente, sino como efecto de la causalidad mecánica o de la intención de alguien. No
esperamos ver una regularidad producida por un proceso aleatorio, y cuando detectamos que lo que
sucede puede constituir una regla, enseguida rechazamos la idea de que el proceso sea realmente
aleatorio. Los procesos aleatorios producen muchas secuencias que convencen a las personas de que el
proceso no es aleatorio después de todo. La causalidad pueda haber constituido una ventaja en nuestra
evolución. Es parte de la actitud de vigilancia general que hemos heredado de nuestros antepasados.
Estamos automáticamente pendientes de la posibilidad de que el entorno haya cambiado. La difundida
mala comprensión de la aleatoriedad tiene a veces consecuencias significativas, Feller, ilustró la facilidad
con que la gente ve pautas donde no existen. Si seguimos a nuestra intuición, erraremos con más
frecuencia que si no lo hacemos, clasificando falsamente un suceso aleatorio como sistemático.
Los investigadores han buscado el secreto del éxito en la educación identificando los mejores colegios
para descubrir lo que los distingue de los demás. Una de las conclusiones del estudio era que la mayoría
de estos colegios son pequeños. Esto seguramente tendrá para muchos su sentido intuitivo. Es fácil
construir una historia causal que explique por qué los colegios pequeños son capaces de proporcionar
una educación mejor y formar colegiales de alto rendimiento, dándoles más atención personal y estímulo
del que recibirían en los colegios grandes. El análisis causal es inútil porque los hechos son falsos. Si los
estadísticos se hubieran preguntado por las características de los peores colegios, habrían encontrado
que los malos colegios también tienden a ser más pequeños que la media. La verdad es que los colegios
pequeños no son mejores por término medio; son simplemente más variables
Estamos demasiado dispuestos a rechazar la creencia de que mucho de lo que vemos en la vida es azar.
La ley de los pequeños números es parte de dos grandes historias sobre el funcionamiento de la mente:
• La confianza exagerada en las muestras pequeñas es solo un ejemplo de una ilusión más general;
prestamos más atención al contenido de los mensajes que a la información sobre su fiabilidad, y como
resultado terminamos adoptando una visión del mundo que nos rodea más simple y coherente de lo que
justifican los datos. Saltar a las conclusiones es un deporte que en el mundo de nuestra imaginación es
más seguro de lo que lo es en la realidad.
• La estadística arroja muchas observaciones que parecen pedir explicaciones causales, pero que ellas
mismas no nos guían hacia tales explicaciones. Muchas cosas que suceden en el mundo son debidas al
azar, incluidos los accidentes de los muestreos. Las explicaciones causales de acontecimientos aleatorios
son inevitablemente falsas
La ciencia de la disponibilidad (12)
Amos y yo tuvimos nuestro año más productivo en 1971-1972, trabajamos duro, llevando a cabo
numerosos experimentos y escribiendo nuestros artículos sobre las heurísticas del juicio. Uno de los
proyectos fue el estudio de la heurística de la disponibilidad, que es el proceso de juzgar la frecuencia por
la facilidad con que los ejemplos vienen a la mente.
Pensábamos en dicha heurística cuando nos preguntábamos por lo que la gente hace cuando quiere
estimar la frecuencia de una categoría. La respuesta era sencilla: los ejemplos de la clase son extraídos
de la memoria, y si su obtención es fácil y fluida, la categoría se juzgará extensa. Esa heurística es una
estrategia deliberada para resolver problemas o una operación automática, ella están implicados los dos
sistemas. El concepto de disponibilidad lo fuimos perfeccionando con el tiempo.
La heurística de la disponibilidad, como otras heurísticas del juicio, sustituye una pregunta por otra:
intentamos estimar la extensión de una categoría o la frecuencia de un suceso, pero manifestamos la
impresión de la facilidad con que nos vienen ejemplos a la mente. La sustitución de preguntas produce
inevitablemente errores sistemáticos. Mediante un sencillo procedimiento podemos descubrir cómo la
heurística conduce a sesgos, por ej:
-Un suceso notable que atrae nuestra atención será fácilmente extraído de la memoria
-Un suceso dramático que aumenta temporalmente la disponibilidad en su categoría
-Experiencias personales, fotografías y cuadros vívidos estarán más disponibles que las cosas que
experimentan otros
Es posible resistirse, pero es una tarea tediosa. Mantener la vigilancia frente a los sesgos es muy
aburrido, pero la posibilidad de evitar un error que no nos conviene justifica el esfuerzo.
Uno de los estudios sobre la disponibilidad sugiere que el ser conscientes de nuestros propios sesgos
puede contribuir a la armonía matrimonial, y a la de otras relaciones. En uno se preguntó a unos
cónyuges: ¿Cuál ha sido su contribución personal, expresada en porcentajes, a mantener las cosas
ordenadas? ¿Alcanzarán las contribuciones que uno se atribuye el 100 por ciento, o más o menos?La
explicación es un simple sesgo de disponibilidad: cada cónyuge recuerda sus esfuerzos y contribuciones
individuales con mucha más claridad que los del otro, y la diferencia de disponibilidad lleva a una
diferencia en la frecuencia juzgada. El sesgo no es necesariamente interesado: cada uno de los cónyuges
también sobrestimó su contribución a las disputas, menos que sus contribuciones a crear un ambiente
mejor. El mismo sesgo contribuye a la observación común de que muchos miembros de un equipo de
trabajo sienten que han hecho más que el resto y que los demás no agradecen lo suficiente sus
contribuciones personales.
La oportunidad de eliminar con éxito un sesgo existe porque las circunstancias en que se plantea el
reconocimiento de un mérito son fáciles de identificar, y ello porque cuando varias personas sienten a la
vez que sus esfuerzos no son debidamente reconocidos se crean tensiones
LA PSICOLOGÍA DE LA DISPONIBILIDAD
Un avance en la comprensión de la heurística de la disponibilidad fue ¿cómo afecta la petición de listar un
número especificado de ejemplos a las impresiones que tienen las personas sobre la frecuencia de una
categoría?
Observaron que la tarea de listar ejemplos puede mejorar los juicios sobre el carácter por dos caminos
diferentes:
• por el número de ejemplos obtenidos.
• por la facilidad con que acuden a la mente.
De la lucha salió un ganador: las personas que acababan de listar doce ejemplos se consideraron a sí
mismas menos seguras que las que habían listado solo seis. Además, los participantes a los que se había
pedido listar doce casos en los que no se mostraron seguros de sí mismos terminaron considerándose
muy seguros de sí mismos. Quien no puede encontrar fácilmente ejemplos de comportamiento sumiso, es
probable que concluya que no es en absoluto sumiso. Las personas que se clasificaron a sí mismas
estaban dominadas por la facilidad con que los ejemplos habían acudido a su mente. La experiencia de
obtener ejemplos de manera fluida inspiró el número obtenido.
Se encontró la manera explotar el sesgo de disponibilidad y el hallazgo más interesante fue que a veces
las personas se dejan llevar por el contenido más que por la facilidad de obtención. La prueba de que
verdaderamente entendemos un patrón de conducta es que sabemos cómo invertirlo. Buscaron como
descubrir las condiciones en las cuales se produce esta inversión. La facilidad con que los ejemplos
acuden a la mente del sujeto cambia durante la ejecución de la tarea. Los primeros ejemplos son fáciles,
pero su obtención pronto se vuelve difícil. Los resultados sugieren que los participantes hacen una
inferencia: si voy a tener muchos más problemas de los que esperaba que se me presentasen para poner
ejemplos de mi seguridad, entonces no puedo sentirme muy seguro. Hay que señalar que esta inferencia
se basa en una sorpresa, una fluidez que es menor de lo esperado. La heurística de la disponibilidad que
el sujeto aplica se describe mejor como una heurística «de la no disponibilidad inexplicable».
Descubrieron que se podía desbaratar la heurística proporcionando a los sujetos una explicación de la
fluidez de obtención que experimentaron.A algunos sujetos se les dijo que la música les ayudaría, y a
otros que verían disminuida la fluidez. Como predijeron, los participantes cuya experiencia de la fluidez
fue «explicada» no la usaron como heurística, y los sujetos a los que se les dijo que la música haría más
difícil la obtención de ejemplos se consideraron igual de seguros cuando obtuvieron doce ejemplos que
cuando obtuvieron seis.
Los juicios dejan de estar influidos por la facilidad de obtención cuando se da a la experiencia de la
fluidez una explicación falsa. El proceso que conduce al juicio a través de la disponibilidad parece implicar
una compleja cadena de razonamientos. Los sujetos tienen expectativas sobre la rapidez a que la fluidez
disminuye, y esas expectativas son falsas: la dificultad con que se les ocurren nuevos ejemplos aumenta
con más rapidez de la que esperan. Es la baja fluidez inesperada lo que hace que los sujetos a los que se
pidió doce ejemplos se describan a sí mismos como poco seguros. Cuando la sorpresa se elimina, la baja
fluidez ya no influye en el juicio. El proceso parece consistir en un complejo conjunto de inferencias. Pero
no se necesita un razonamiento complejo ya que el Sistema 1 tiene capacidad para generar expectativas
y sorprenderse cuando estas son defraudadas. El sistema también busca las posibles causas de una
sorpresa, y en general halla una posible causa entre sorpresas recientes. Además, el Sistema 2 puede
recomponer sobre la marcha las expectativas del Sistema 1, con lo que un suceso que normalmente sería
sorprendente se vuelve casi normal.
La facilidad con que los ejemplos acuden a la mente es una heurística del Sistema 1, que es
reemplazada por una focalización en el contenido cuando el Sistema 2 está más comprometido. Las
personas que se dejan guiar por el Sistema 1 son mucho más propensas a los sesgos de disponibilidad
que las que se hallan en estado de mayor atención
La especialidad de Tom W. (14)
En el experimento se pide ordenar nueve campos de especialización según la probabilidad de que Tom
W. sea un estudiante de alguno de esos campos. La tarea de ordenar las nueve carreras es compleja y
ciertamente requiere de la disciplina y la organización secuencial de que solo el Sistema 2 es capaz. Pero
las insinuaciones colocadas en la descripción (los tópicos y otras) servían al propósito de activar una
asociación con un estereotipo, que es una actividad automática del Sistema 1.
Para decidir si es más probable que una estudie una carrera que otra, necesitamos saber cuántas
personas hay estudiando cada carrera. La proporción de algo en particular recibe el nombre de tasa base.
Así, a falta de información específica sobre Tom W., consideraremos las tasas base y supondremos que
es más probable que se matricule en la carrera que mas estudiantes tenga que en la que menos tenga.
Usar la información de la tasa base es el recurso obvio cuando no se nos proporciona ninguna otra
información.
PREDECIR POR LA REPRESENTATIVIDAD
La representatividad se centrara exclusivamente en la similaridad de la descripción con la
representatividad estereotipos ignorando las tasas base y las dudas sobre la veracidad de la descripción.
Ellos destacarían la especialidad menos solicitada como muy probable porque a ella le correspondería el
grado más alto de representatividad.
La cuestión de la probabilidad era difícil, pero la cuestión de la similaridad era más fácil, y se respondió a
esta en lugar de aquella. Este es un serio error, porque los juicios de similitud y los de probabilidad no
están sujetos a las mismas reglas lógicas. Los juicios de similitud no resulten afectados por las tasas
base, y tampoco por la posibilidad de que la descripción sea inexacta, pero quien ignora las tasas base y
las evidencias en evaluaciones de probabilidad necesariamente cometerá errores. Una pregunta sobre la
probabilidad de algo activa una escopeta mental que genera respuestas a preguntas más fáciles. Una de
estas respuestas más fáciles es una evaluación automática de la representatividad, una rutina en la
comprensión del lenguaje. El Sistema 1 genera una impresión de similitud sin pretenderlo, la heurística de
la representatividad está implicada.
LOS PECADOS DE LA REPRESENTATIVIDA
Juzgar la probabilidad por la representatividad tiene ventajas: las impresiones intuitivas que esta produce
son a menudo más exactas de lo que serían las estimaciones de posibilidades.
Hay cierto grado de verdad en los estereotipos que guían los juicios de representatividad, y las
predicciones que siguen esta heurística pueden ser exactas. En otra, los estereotipos son falsos, y la
heurística de la representatividad inducirá a error, especialmente si hace que las personas ignoren la
información de la tasa base, que apunta en otra dirección. Incluso cuando la heurística tiene cierta
validez, la confianza exclusiva en ella está asociada a graves pecados contra la lógica estadística. Un
pecado de la representatividad es la disposición excesiva a predecir acontecimientos improbables (baja
tasa base).
En determinadas condiciones, las personas sin preparación estadística son muy capaces de usar tasas
base en predicciones, la información de la tasa base será ignorada cuando se dispone de información
sobre el ejemplo específico, pero que esta conclusión es demasiado terminante.
Cuando se hace un juicio intuitivo incorrecto hay que acusar tanto al Sistema 1 como al Sistema 2. El
Sistema 1 sugiere la intuición incorrecta, y el Sistema 2 la aprueba y la expresa en un juicio. Hay dos
posibles razones para el fallo del Sistema 2: ignorancia o pereza. Ignoran las tasas base porque creen
que son irrelevantes cuando poseen información particular. Y hay otras que cometen el mismo error
porque no se centran en la tarea.
El segundo pecado de la representatividad es la insensibilidad a la cualidad de la evidencia, la regla del
Sistema 1: WYSIATI. La información sin valor no debía tratarse de modo diferente, pero WYSIATI hace
muy difícil aplicar este principio. Su Sistema 1 automáticamente procesará la información disponible como
si fuese verdadera. Hay algo que puede hacer cuando tenga dudas sobre la cualidad de la evidencia:
haga que sus juicios de probabilidad estén cerca de la tasa base. No espere que este ejercicio de
disciplina resulte fácil: requiere un importante esfuerzo de autovigilancia y autocontrol.
CÓMO DISCIPLINAR LA INTUICIÓN
El concepto de ‘’probabilidad,’’ es nuestro grado subjetivo de creencia, pero no debemos creer cualquier
cosa que nos venga a la mente. Para que sean útiles, nuestras creencias deben someterse a la lógica de
la probabilidad. Las reglas las proporciona la estadística bayesiana. La regla de Bayesespecifica cómo
las creencias previas, las tasas bases deben ser combinadas con la diagnosticidad de la evidencia, el
grado en que esta favorece a la hipótesis sobre la alternativa.
Hay dos ideas que hemos de tener en cuenta sobre el razonamiento bayesiano y sobre el modo en que
tendemos a arruinarlo. La primera es que las tasas base importan incluso en presencia de evidencia
sobre el caso en cuestión. Esto muchas veces no es intuitivamente obvio. La segunda es que las
impresiones intuitivas de diagnosticidad de la evidencia son a menudo exageradas. La combinación de
WYSIATI y coherencia asociativa tiende a hacernos creer en historias que nos inventamos nosotros
mismos. Las claves esenciales del disciplinante razonamiento bayesiano pueden resumirse de manera
sencilla:
• Anclar nuestro juicio de probabilidad en un resultado de una tasa base plausible.
• Cuestionar la diagnosticidad de nuestra evidencia
Linda: menos es más (15)
El autor y Amos idearon el problema de Linda para ofrecer una evidencia concluyente del papel de las
heurísticas en el juicio y de su incompatibilidad con la lógica.
En uno de nuestros experimentos presentamos a los participantes una lista de ocho posibles escenarios
para Linda. Algunos ordenaron los escenarios por representatividad y otros por probabilidad. El problema
de Linda es similar, pero con un giro particular. El giro radica en los juicios de probabilidad, porque hay
una relación lógica entre los dos escenarios
Si especificamos un posible suceso con mayor detalle, solo podemos bajar su probabilidad. El problema
crea así un conflicto entre la intuición de representatividad y la lógica de la probabilidad.
‘’Falacia’’ se usa en general cuando fallamos en la aplicación de una regla lógica que es obviamente
relevante. ‘’Falacia de conjunción,’’es aquella en que se incurre cuando se hace una conjunción de dos
para que resulte más probable que uno de ellos en una comparación directa.
Los juicios de probabilidad que nuestros participantes hicieron, son exactamente juicios de
representatividad (similitud a estereotipos). La representatividad pertenece a un conjunto de evaluaciones
básicas estrechamente relacionadas que tal vez sean generadas juntas. Los casos más representativos
se combinan con la descripción de la personalidad para producir las historias más coherentes. Las
historias más coherentes no son necesariamente las más probables, pero son plausibles, y el incauto
confunde fácilmente las nociones de coherencia, plausibilidad y probabilidad.
La sustitución acrítica de la probabilidad por la plausibilidad tiene efectos perniciosos en los juicios
cuando los escenarios se usan como herramientas de predicción. La descripción más detallada es solo
más detallada, no es más plausible, o más coherente, o una historia mejor. La evaluación de la
plausibilidad y la coherencia no sugiere una respuesta a la pregunta por la probabilidad. En ausencia de
una intuición que compita con ella, la lógica prevalece.
MENOS ES MÁS, A VECES INCLUSO EN EVALUACIÓN CONJUNTA
Christopher Hsee, pidió poner precio a unos lotes de vajilla ofrecidos en una liquidación donde los lotes
regularmente costaban entre 30 y 60 dólares. En su experimento había tres grupos. A uno se le mostraron
los lotes abajo detallados; Hsee etiquetó esto de evaluación conjunta porque permitía una comparación
de los dos lotes. A los otros dos grupos se les mostró solo uno de los dos lotes; esto era una evaluación
simple. La evaluación conjunta es un experimento dentro del sujeto, y la evaluación simple lo es entre
sujetos.
Suponiendo que los artículos de los dos lotes sean de la misma calidad, ¿cuáles valen la pena? el lote A
contiene todos los artículos del lote B más otros siete intactos, y necesariamente se valorará más. Y,
efectivamente, los participantes de evaluación conjunta de estaban dispuestos a pagar un poco más por
el lote A que los del lote B.
Los resultados se invirtieron en la evaluación simple, en la que el lote B costaba mucho más que el lote A.
Sabemos por qué sucedió esto. Los lotes (incluidos los de vajilla) se presentan según normas y
prototipos. Podemos notar que el valor medio de los artículos es mucho más bajo en el lote A que en el
lote B porque nadie desea pagar por artículos deteriorados. Si el valor medio domina la evaluación, no es
sorprendente que el lote B sea más valorado. Hsee llamó al patrón resultante: menos es más. Retirando
16 ítems del lote A (7 de ellos intactos), su valor aumenta.
Desde el punto de vista de la teoría económica, este resultado es problemático: el valor económico de
parte de un lote de es una variable de suma. Añadir al lote un ítem positivamente valorado solo puede
incrementar su valor. El problema de Linda y el problema de los lotes tienen la misma estructura. La
probabilidad, como el valor económico, es una variable de suma.
Las evaluaciones simples producen un patrón de menos es más. El Sistema 1 saca la media en lugar de
añadir, y así la probabilidad subjetiva aumenta.
El Sistema 2 no está enteramente alerta, el absurdo del patrón de «menos es más» no lo reconocieron en
el problema de Linda. En todos estos casos, la conjunción parecía plausible, y esto era suficiente para
que el Sistema 2 diera su aprobación. La pereza del Sistema 2 es parte de la historia. Es un hecho
importante de la vida, y la observación de que la representatividad puede bloquear la aplicación de una
regla lógica obvia tiene también su interés.
El problema de Linda y el de las valijas tienen la misma estructura, pero arrojan resultados diferentes. Las
personas que ven el lote de vajilla que incluye elementos rotos, le ponen un precio muy bajo; su conducta
refleja una regla de la intuición. Las que ven los dos lotes, aplican la regla lógica de que más elementos
solo pueden añadir valor. La intuición gobierna los juicios en la situación entre sujetos; las reglas lógicas,
en la evaluación conjunta. En el problema de Linda, por el contrario, la intuición a menudo vence a la
lógica incluso en la evaluación conjunta, aunque identificamos algunas situaciones en las que la lógica
prevalece.
Los investigadores idearon combinaciones de instrucciones y orientaciones que reducían la incidencia de
la falacia; algunos arguyeron que, en el contexto del problema de Linda era razonable para los sujetos
entender la palabra «probabilidad» como si significase «plausibilidad». Estos argumentos a veces
llegaban a sugerir que toda nuestra empresa iba desencaminada: si una particular ilusión cognitiva podía
debilitarse o explicarse de modo convincente, podría ocurrir lo mismo con otras. Este razonamiento pasa
por alto el único rasgo de la falacia de la conjunción que supone un conflicto entre intuición y lógica. La
evidencia que habíamos acumulado a favor de las heurísticas en el experimento entre no fue cuestionada;
fue simplemente obviada, y su notoriedad disminuida por una atención exclusiva a la falacia de la
conjunción.
Regresión a la media (17)
Vi bajo una nueva luz un principio de la estadística que había estado enseñando durante años. El
instructor tenía razón, pero también estaba completamente equivocado, su observación era astuta y
correcta: era probable que a las ocasiones en que elogiaba una ejecución siguieran otras en que la
ejecución fuera decepcionante, y que a la reprimenda siguiera normalmente una mejora. Pero la
inferencia que había hecho sobre la eficacia de la recompensa y del castigo se salía de su marco. Lo que
él había observado se conoce como regresión a la media, que en este caso se debe a fluctuaciones
aleatorias en la calidad de la ejecución. Naturalmente, él solo felicitaba a un cadete si su ejecución era
mejor que la media. Pero lo más probable era que el cadete tuviera suerte en un intento particular y, por
tanto, pudiera hacerlo mal con independencia de que le felicitaran o no. De modo parecido, el instructor
solo gritaba por los auriculares del cadete cuando la ejecución era especialmente mala y, por tanto,
mejorable con independencia de lo que el instructor hiciera. El instructor había relacionado una
interpretación causal con las inevitables fluctuaciones de un proceso aleatorio.
Este descubrimiento respondió al problema de los instructores de vuelo: como retaban a los cadetes
cuando su ejecución era pobre, estos solían ser felicitados por una mejora posterior aunque el reto
hubiese sido realmente ineficaz. Esto también es un hecho importante de la condición humana: como
tendemos a ser agradables con los demás cuando nos complacen, y desagradables cuando no lo hacen,
somos estadísticamente castigados por ser amables y recompensados por ser desagradables.
TALENTO Y SUERTE
Existe la idea de que la suerte a menudo contribuye al éxito. La fórmula para el éxito indica que otra
deducción está igualmente justificada. Si aceptamos que el talento y la suerte contribuyen al éxito, la
conclusión de que el golfista tuvo suerte está tan justificada como la conclusión de que el golfista tiene
talento.
Del mismo modo, si nos centramos en un jugador que un día puntuó 5 sobre par, tenemos razones para
deducir que es más bien flojo y tuvo un mal día. Por supuesto, sabemos que ninguna de estas
deducciones es verdadera. Es muy posible que el jugador que puntuó 77 tenga auténtico talento, pero
tuviera un día excepcionalmente malo.
Como no hay manera de predecir la suerte de algún jugador, nuestra mejor predicción habrá de ser que
tendrá una suerte media, ni buena ni mala. Esto significa que en ausencia de otra información, nuestra
mejor predicción sobre la puntuación del jugador el día 2 no será una repetición de su actuación del día 1.
Esto es lo máximo que podemos decir:
• El golfista que lo hizo bien el día 1 es probable que lo vuelva a hacer bien el día 2, pero menos que la
primera vez, porque la suerte inusitada que tuvo el día 1 es poco probable que se repita.
• El golfista que lo hizo mal el día 1 probablemente quede por debajo de la media el día 2, pero mejorará,
porque su probable mala racha posiblemente no continúe.
Al escuchar que la actuación predicha para el día 2 sería más moderada y estaría más cerca de lo normal
que la evidencia en que se basa (la puntuación del día 1). Tal es la razón de que este patrón reciba el
nombre de regresión a la media. Cuanto más extrema es la puntuación original, mayor es la regresión que
esperamos, puesto que una puntuación excepcionalmente buena sugiere un día de mucha suerte.
Observemos esta regresión cuando presumimos un evento anterior a partir de un evento posterior tendría
que convencernos de que dicha regresión no tiene una explicación causal. Los efectos de regresión son
ubicuos, y por eso imaginamos historias causales para explicarlos.
PARA ENTENDER LA REGRESIÓN
El fenómeno de la regresión no fue identificado y entendido hasta doscientos años después de la teoría
de la gravitación y del cálculo diferencial. Fue, además, uno de los mejores intelectos británicos del siglo
XIX el que dio cuenta de él, y ello con gran dificultad. La regresión a la media fue descubierta y
denominada, bien avanzado el siglo XI X, por Francis Galton.
Los efectos de regresión pueden encontrarse en cualquier parte, pero no los reconocemos como lo que
son, se ocultan a la visión corriente. Uno de los problemas fue la medición de la regresión entre variables
medidas en escalas diferentes, como el peso y tocar el piano. Esto se lleva a cabo utilizando la población
como referencia estándar.
El coeficiente de correlación entre dos mediciones, que varía entre 0 y 1, es una medida de la influencia
relativa de los factores que comparten. Llevo varios años entender que la correlación y la regresión no
son dos conceptos; son diferentes perspectivas del mismo concepto.
6 La regla general es sencilla, pero
tiene consecuencias sorprendentes: siempre que la correlación entre dos puntuaciones sea imperfecta,
habrá regresión a la media.
Es difícil explicar la regresión porque nuestra mente se halla fuertemente predispuesta a las explicaciones
causales y no se lleva bien con la «mera estadística». Cuando un suceso llama nuestra atención, la
memoria asociativa buscará su causa; más precisamente, la activación desplegará de manera automática
alguna causa que se encuentre almacenada en la memoria. Las explicaciones causales se suscitarán
cuando se detecte regresión, pero serán erróneas porque la verdad es que la regresión a la media tiene
una explicación, pero no una causa.
Nuestras dificultades con el concepto de regresión tienen su origen tanto en el Sistema 1 como en el
Sistema 2. Sin especial instrucción, y en unos pocos casos después de alguna instrucción estadística, la
relación entre correlación y regresión permanece oscura. El Sistema 2 encuentra difícil entenderla y
aprenderla. Esto es debido en parte a la insistente demanda de interpretaciones causales, la cual es un
rasgo del Sistema 1.
La ilusión de entender (19)
Nassim Taleb introdujo la noción de falacia narrativa
para describir cómo historias dudosas del pasado
conforman nuestras opiniones sobre el mundo y lo que esperamos del futuro. Las falacias narrativas
surgen inevitablemente de nuestro continuo intento de dar sentido al mundo. Las historias explicativas
que la gente halla convincentes son simples; son más concretas que abstractas; otorgan mayor
significación al talento, a la estupidez y a las intenciones que al azar, y se centran en unos pocos
acontecimientos llamativos que sucedieron más que en otras incontables cosas que no llegaron a
suceder. Cualquier acontecimiento reciente y reseñable es candidato a constituir el núcleo de una
narración causal. Taleb sugiere que los humanos constantemente nos engañamos construyendo
explicaciones débiles del pasado que creemos verdaderas.
Las buenas historias proporcionan una explicación coherente de las acciones e intenciones de las
personas. Siempre estamos dispuestos a interpretar el comportamiento como una manifestación de
propensiones generales y rasgos de la personalidad, causas que enseguida relacionamos con efectos. El
efecto halo al que me he referido páginas atrás contribuye a la coherencia, puesto que nos inclina a
establecer una correspondencia entre nuestro parecer sobre todas las cualidades de una persona y
nuestro juicio relativo a un atributo particularmente significativo.
Si, por ejemplo, pensamos que un
lanzador de béisbol es apuesto y atlético, es probable que asimismo lo consideremos bueno lanzando la
pelota.
Los halos también pueden ser negativos: si pensamos que un jugador es feo, es probable que
subestimemos su capacidad atlética. El efecto halo contribuye a que nuestras narraciones explicativas
sean simples y coherentes exagerando la consistencia de evaluaciones: la buena gente solo hace cosas
buenas y la mala solo cosas malas. El enunciado «Hitler amaba a los perros y a los niños» es chocante
por muchas veces que lo hayamos oído, porque cualquier rasgo amable en alguien tan maligno contraría
las expectativas puestas por el efecto halo. Las inconsistencias reducen la sencillez de nuestro
pensamiento y la claridad de nuestros sentimientos.
Un relato persuasivo crea una ilusión de inevitabilidad. En cambio, un relato más completo describiría una
historia detallada mas especifica. Desafortunadamente, hay buenas razones para creer que nuestra
sensación de haber entendido y aprendido de algo es en gran medida ilusoria. La prueba última de la
validez de una explicación es si esta hubiera hecho predecible el acontecimiento. La mente humana no
tolera los fiascos. El hecho de que muchos de los acontecimientos producidos implicaran elecciones nos
mueve aún más a exagerar el papel de las aptitudes y subestimar la parte de suerte en los resultados.
Como todas las decisiones críticas dieron buen resultado, el historial sugiere una presciencia casi
perfecta, pero la mala suerte pudo haber trastocado alguno de los pasos que condujeron al éxito. El
efecto halo da el último toque: un aura de invencibilidad envuelve a los protagonistas de la historia.
La suerte desempeña en el acontecer real un papel más importante de lo que se supone cuando es
contada. Y cuanto mayor es la suerte, menos hay que aprender. Aquí se cumple la regla de WYSIATI. La
limitada información de que disponemos no puede bastarnos, porque en ella no está todo. Construimos la
mejor historia posible partiendo de la información disponible, y si la historia es buena, la creemos.
Paradójicamente, es más fácil construir una historia coherente cuando nuestro conocimiento es escaso,
cuando las piezas del rompecabezas no pasan de unas pocas. Nuestra consoladora convicción de que el
mundo tiene sentido descansa sobre un fundamento seguro: nuestra capacidad casi ilimitada para ignorar
nuestra ignorancia.
En nuestro lenguaje cotidiano empleamos la palabra saber solo cuando lo que sabemos es verdad y
podemos probar que lo es. Podemos saber algo solo si es verdadero y puede conocerse. Lo perverso del
uso del verbo saber es que el lenguaje supone que el mundo es más cognoscible de lo que realmente es.
Ello contribuye a perpetuar una perniciosa ilusión.
El núcleo de la ilusión es que creemos entender el pasado, lo cual supone que también el futuro puede
conocerse, pero la verdad es que entendemos el pasado menos de lo que creemos. Saber no es la única
palabra que fomenta la ilusión. En su uso corriente, las palabras intuición y premonición también se
reservan para pensamientos que tuvimos en el pasado y que luego resultaron verdaderos.
LOS COSTES SOCIALES DE LA VISIÓN RETROSPECTIVA
La mente que inventa relatos sobre el pasado se comporta como un órgano destinado a dar sentido.
Cuando sucede algo que no hemos predicho, inmediatamente ajustamos nuestra visión del mundo para
dar en él acomodo a la sorpresa. Aprender de las sorpresas es algo sin duda razonable, pero puede tener
algunas consecuencias peligrosas. Una limitación general de la mente humana es su insuficiente
capacidad para reconocer estados pasados del conocimiento o creencias que han cambiado. Una vez
que adoptamos una nueva visión del mundo (o de una parte de él), inmediatamente perdemos buena
parte de nuestra capacidad para recordar lo que solíamos creer antes de que nuestro pensamiento
cambiara. Nuestra incapacidad para reconstruir creencias pasadas inevitablemente hará que
subestimemos el grado en que acontecimientos del pasado nos sorprendieron.
Si un posible acontecimiento se había producido, los encuestados exageraron la probabilidad que le
habían asignado anteriormente. Y si el posible acontecimiento no se había producido, los participantes
recordaron equivocadamente que siempre lo habían considerado improbable. La tendencia a revisar la
historia de nuestras creencias a la luz de acontecimientos reales genera una poderosa ilusión cognitiva. El
sesgo de la retrospección tiene efectos perniciosos en las evaluaciones de quienes toman decisiones.
Induce a los observadores a evaluar el carácter de una decisión no por lo adecuado de la misma, sino
según sea bueno o malo su resultado. La retrospección es particularmente cruel con quienes toman
decisiones como agentes de otros, tendemos a culpabilizar a quienes deciden por buenas unas
decisiones que tuvieron un mal resultado y a no reconocerles medidas acertadas que solo parecen obvias
después de aplicadas, esto es un sesgo del resultado.
Cuanto peores son las consecuencias, tanto mayor es el sesgo de la retrospección. Aunque la
retrospección y el sesgo del resultado generalmente fomentan el temor al riesgo, también proporcionan
inmerecidas recompensas a quienes de manera irresponsable buscan el riesgo.
RECETAS PARA EL ÉXITO
La maquinaria del Sistema 1, que a todo da sentido, nos hace ver el mundo más ordenado, predecible y
coherente de lo que realmente es. La ilusión de que uno ha entendido el pasado alimenta la ilusión de que
puede predecir y controlar el futuro. Estas ilusiones son reconfortantes. Reducen la ansiedad que
experimentaríamos si reconociéramos francamente las incertidumbres de la existencia. Todos tenemos
necesidad del mensaje tranquilizador de que las acciones tienen consecuencias previsibles y de que el
éxito recompensará la prudencia y el valor.
El efecto halo es tan poderoso que probablemente nos resistamos ahora a la idea de que la misma
persona y el mismo comportamiento parezcan metódicos cuando las cosas van bien y rígidos cuando las
cosas pintan mal. Este nos hace invertir la relación causal hacia atrás: tendemos a creer que la empresa
fracasa porque su director es rígido, cuando la verdad es que este parece rígido porque la empresa
fracasa. Así es como nacen las ilusiones del entendimiento.
La ilusión de validez (20)
El Sistema 1 está hecho para saltar a conclusiones a partir de una evidencia escasa, y no para medir la
distancia de sus saltos. El WYSIATI hace que solo cuente la evidencia que se tiene. Y debido a la
confianza que genera la coherencia, la confianza subjetiva que tenemos en nuestras opiniones refleja la
coherencia de la historia que el Sistema 1 y el Sistema 2 han construido. La cantidad de evidencia y su
cualidad no sirven de mucho, puesto que con una evidencia pobre se puede construir una buena historia.
Para algunas de nuestras creencias más importantes no tenemos la menor evidencia fuera de que las
personas a las que queremos y en las que confiamos mantengan esas creencias. Si tenemos en cuenta lo
poco que sabemos, la confianza que tenemos en nuestras creencias resulta absurda, y esto es esencial.
LA ILUSIÓN DE VALIDEZ
El autor cuenta que fue asignado al departamento de psicología del ejército, donde una de las
obligaciones esporádicas era colaborar en la evaluación de candidatos para el entrenamiento de oficiales.
A veces observábamos actitudes y nos fijábamos en las reacciones que se producían en momentos de
crisis y así la impresión sobre el carácter de cada candidato era directa y convincente Después de
observar cómo los candidatos hacían varios intentos, tenian que resumir nuestras impresiones sobre la
capacidad de liderazgo de los soldados y determinar con puntuaciones numéricas a quién había que
elegir para entrenar a los oficiales.
Cuando las múltiples observaciones de cada candidato convergían en una historia coherente,
confiábamos por completo en nuestras evaluaciones y sentíamos que lo que habíamos visto anticipaba
directamente un futuro. Como nuestras impresiones sobre lo que cada soldado había hecho eran por lo
general claras y coherentes, nuestras predicciones formales eran definitivas. No sentíamos necesidad de
cuestionar, moderar o dejar en suspenso nuestras previsiones. Pero si dudábamos, estábamos
preparados para reconocer que algo puede siempre suceder.
Estábamos dispuestos a reconocerlo porque, a pesar del carácter definitivo de nuestras impresiones
sobre cada uno de los candidatos, sabíamos con certeza que nuestras previsiones eran en buena medida
inútiles. La evidencia de que no podíamos prever con seguridad el éxito de nadie era abrumadora. La
historia era siempre la misma: nuestra capacidad para predecir comportamientos en la escuela era
insignificante. Nuestras previsiones no eran estimaciones ciegas, si bien no mucho mejores que estas,
después de recibir las nuevas noticias nos sentimos durante un tiempo desanimados.
Lo que sucedió fue algo muy notable. La evidencia global de nuestros fracasos previos debía
haber minado nuestra confianza en nuestros juicios sobre los candidatos, pero no fue así. Debía haber
hecho que moderáramos nuestras predicciones, pero no lo hizo. Sabíamos que como un hecho general,
nuestras predicciones apenas eran mejores que las estimaciones al azar, pero continuábamos sintiendo y
actuando como si cada una de nuestras predicciones específicas fuese válida. Quedé tan impresionado
con la analogía que acuñé un término para aquella experiencia: la ilusión de validez.
Nuestras expectativas sobre el futuro comportamiento de los soldados eran una sustitución, y de
heurística de la representatividad. Tras observar durante una hora el comportamiento de un soldado en
una situación artificial, creíamos saber cómo afrontaría los retos del entrenamiento de oficiales y del
liderazgo en el combate. Nuestras predicciones eran de todo punto no regresivas; no teníamos reserva
alguna en predecir fracasos o grandes éxitos a partir de una evidencia endeble. Esto era un claro ejemplo
de WYSIATI. Teníamos impresiones persuasivas sobre el comportamiento que observábamos, y ninguna
manera de representar nuestra ignorancia de los factores que eventualmente determinan cómo actuará el
candidato como oficial. Nuestro conocimiento de la regla general no tenía ningún efecto en nuestra
confianza en relación con los casos individuales
La confianza subjetiva en un juicio no es una evaluación razonada de la probabilidad de que
tal juicio sea correcto. La confianza es un sentimiento que refleja la coherencia de la información y la
facilidad cognitiva de su procesamiento. Es razonable tomarse en serio el reconocimiento de la
incertidumbre, pero las afirmaciones de confianza plena nos dicen ante todo que un individuo ha
construido en su mente una historia coherente, no necesariamente que la historia sea verdadera.
LA ILUSIÓN DE APTITUD INVERSORA
Aunque los profesionales son capaces de sacar a los aficionados una cantidad considerable
de dinero, pocos inversionistas, si hay alguno, poseen la aptitud requerida para ganarle al mercado año
tras año de manera sistemática. Los inversores profesionales, incluidos los gestores de fondos, no
superan una prueba básica de aptitud: la persistencia del éxito. El diagnóstico respecto a la existencia de
alguna aptitud es la constancia de las diferencias individuales en los aciertos. La lógica es simple: si las
diferencias individuales en un año determinado se deben enteramente a la suerte, la valoración de
inversionistas y fondos variará de manera errática, y la correlación entre año y año será cero. Pero donde
existe aptitud, las valoraciones serán más estables. La persistencia de diferencias individuales es la
medida con que se confirma la existencia de capacidades entre jugadores de golf, vendedores de coches
o cobradores de las autopistas de peaje.
Es importante que la correlación de los resultados de las inversiones inmobiliarias entre un año y otro sea
muy pequeña, apenas superior a cero. El éxito en un año determinado es aquí la mayoría de las veces
fruto de la suerte: una tirada afortunada de dados La ilusión de aptitud no es solo una aberración
individual; está profundamente arraigada en la cultura industrial. Los hechos que desafían tales
asunciones básicas simplemente no son asimilados. La mente no los digiere.
¿QUÉ SUSTENTA LAS ILUSIONES DE APTITUD Y DE VALIDEZ?
Lo que hemos aprendido de la ilusión de Müller-Lyer no cambia nuestra manera de ver las líneas, pero sí
nuestra actitud. Ahora sabemos que no podemos confiar en nuestra impresión respecto a la longitud de
las líneas con extremos añadidos, y también sabemos que en la figura de Müller- Lyer no podemos
confiar en lo que vemos. Si nos preguntan sobre la longitud de las líneas. Responderemos con nuestra
opinión informada, no con la ilusión que seguimos experimentando. En contraste con ello, cuando mis
colegas y yo aprendimos en el ejército que la validez de nuestros tests de evaluación del liderazgo era
escasa, aceptamos intelectualmente ese hecho, pero ello no repercutió en nuestras impresiones ni en
nuestras acciones posteriores. La respuesta que encontramos en la firma financiera era aún más extrema.
Estaba convencido de que el mensaje que Thaler y yo transmitimos tanto a los ejecutivos como a los
gestores de carteras era confinado a un oscuro rincón de la memoria donde no pudiera causar ningún
perjuicio.
La causa psicológica más poderosa de la ilusión es que las personas que hacen inversiones están
traduciendo a la práctica unas aptitudes muy superiores. Todo esto es un trabajo serio que requiere una
amplia formación, y las personas que lo llevan a cabo adquieren experiencia directa (y válida) en el
empleo de estas habilidades. Desafortunadamente, la aptitud para evaluar las perspectivas económicas
de una empresa no es suficiente para que una inversión tenga éxito, puesto que la cuestión clave es la de
si la información sobre la empresa viene ya incorporada al valor de sus acciones. Por lo que vemos, los
inversores carecen de aptitud para responder a esta cuestión, pero parecen ignorar su ignorancia. La
confianza subjetiva de los inversores es un sentimiento, no un juicio. Nuestra manera de entender fruto de
la facilidad cognitiva y de la coherencia asociativa asienta firmemente en el Sistema 1 la confianza
subjetiva.
Las ilusiones de validez y de aptitud se sustentan en una poderosa cultura profesional. Sabemos que las
personas pueden mantener una fe inquebrantable en una afirmación, por absurda que sea, cuando se
sienten respaldadas por una comunidad de creyentes con su misma mentalidad. Dada la cultura
profesional de la comunidad financiera, no es sorprendente que un gran número de individuos
pertenecientes a este mundo crean hallarse entre los pocos elegidos que son capaces de hacer algo que
ellos creen que otros no pueden hacer.
LAS ILUSIONES DE LOS ENTENDIDOS
La idea de que el futuro es impredecible es debilitada cada día por la facilidad con que explicamos el
pasado. Nuestra tendencia a construir narraciones del pasado hace que nos resulte difícil aceptar los
límites de nuestra capacidad predictiva, todo cobra sentido en una retrospección. Y no puede
sorprendernos la poderosa intuición de que, en una retrospección, lo que hoy confiere sentido era ayer
predecible. La ilusión de que entendemos el pasado fomenta el exceso de confianza en nuestra
capacidad para predecir el futuro.
Creemos que somos capaces de explicar el pasado fijándonos en grandes movimientos sociales o en
desarrollos culturales y tecnológicos, o bien en las intenciones y las capacidades de unos pocos grandes
hombres. La idea de que los grandes acontecimientos históricos vienen determinados por la suerte nos
resulta espantosa, aunque es verdadera.
La ilusión de la predicción válida siempre permanecerá intacta, un hecho que saben explotar personas
cuyo oficio es la predicción, no solo los expertos financieros, sino también los entendidos en negocios y
en política. Espectadores y lectores tienen la impresión de que están recibiendo información de algún
modo privilegiada, o al menos especialmente perspicaz
Las personas que se pasaban y se ganaban la vida estudiando un tema particular hacían predicciones
con menos aciertos que los de unos monos lanzando dardos. Incluso en las regiones que más conocían,
los expertos no fueron mucho mejores que los no especialistas.
Los que saben más predicen ligeramente mejor que los que saben menos. Pero los que más saben son a
menudo menos de fiar. La razón es que la persona que adquiere más conocimientos desarrolla una
ilusión de su aptitud algo mejorada, lo cual hace que tenga un exceso de confianza poco realista.
También se encontró que los expertos se resistían a admitir que estuvieran equivocados, y cuando no
tuvieron más remedio que admitir el error, pusieron toda una serie de excusas. Los expertos son después
de todo seres humanos. Los deslumbra su propia brillantez y aborrecen estar equivocados. A los expertos
les pierde no lo que creen, sino el modo en que lo creen. Tetlock usa a «El erizo y el zorro». Los erizos
«saben muchísimo», y tienen una teoría sobre el mundo, una predicción fallida está casi siempre «fuera
del momento» o «muy cerca de la verdad». Son dogmáticos y claros. Los zorros, por el contrario, piensan
de un modo más complejo. No creen que haya una gran cosa que guíe la marcha de la historia.
Reconocen que la realidad emerge de las interacciones de muchos agentes y fuerzas diferentes, incluido
el ciego azar, que con frecuencia genera procesos impredecibles de gran calado. En el estudio de Tetlock
fueron los zorros los que más puntuaron, aunque sus resultados fuesen todavía muy pobres
NO ES UN FALLO DEL EXPERTO: EL MUNDO ES DIFÍCIL
El asunto principal es que los errores de predicción son inevitables porque el mundo es impredecible. La
segunda es que la excesiva confianza subjetiva no puede valer como indicador de acierto alguno.
Las tendencias a corto plazo pueden predecirse, y los comportamientos y los éxitos pueden predecirse
con bastante exactitud a partir de comportamientos y éxitos anteriores. Pero no hemos de esperar que la
actuación en el entrenamiento de oficiales y en el combate sea predecible a partir del comportamiento en
un campo de obstáculos; el comportamiento en estas pruebas y en el mundo real viene determinado por
muchos factores específicos de una situación particular. Y no debemos esperar mucho de los entendidos
que hacen predicciones a largo plazo, aunque puedan tener valiosas percepciones del futuro cercano. Es
hora de trazar claramente la línea que separa el futuro acaso predecible del futuro lejano e impredecible
Intuiciones «versus» fórmulas (21)
Meehl habían analizado si las predicciones clínicas basadas en las impresiones subjetivas de
profesionales experimentados eran más certeras que las estadísticas predicciones hechas combinando
unas pocas estimaciones o clasificaciones con una regla. El algoritmo estadístico usaba solo una fracción
de esta información.
En cada uno de estos dominios se da un grado importante de incertidumbre e impredecibilidad. Nosotros
los describimos como «entornos de baja validez». En cada uno de estos casos, el acierto de los expertos
fue igualado o excedido por un simple algoritmo.
Orley Ashenfelter ha ofrecido una demostración del poder de la estadística para superar a los expertos
de mayor renombre mundial. Su fórmula permite hacer predicciones certeras del futuro por años y hasta
decenios. Y, desde luego, predice los futuros precios con mucha más exactitud de lo que los precios
actuales de los vinos jóvenes permiten predecir. Este nuevo ejemplo del «patrón de Meehl» desafía a las
aptitudes de los expertos, cuyas opiniones determinan los primeros precios. También desafía a la teoría
económica según la cual los precios reflejan toda información disponible, incluido el clima. La fórmula de
Ashenfelter es extremadamente exacta; la correlación entre sus predicciones y los precios reales es
superior a 90.
Meehl sospechaba que los expertos tratan de pasar por listos, piensan fuera de la realidad y, para hacer
sus predicciones, consideran complejas combinaciones de factores. La complejidad puede contar en los
casos raros, pero lo más frecuente es que reduzca la validez. Es mejor la simple combinación de factores.
Creen que pueden invalidar la fórmula porque poseen información adicional sobre el caso, pero lo más
frecuente es que se equivoquen. Según Meehl, pocas son las circunstancias en las cuales es una buena
idea sustituir la fórmula por un juicio.
Otra razón de la inferioridad del juicio experto es que los humanos son incorregiblemente inconsistentes
cuando hacen juicios sumarios sobre información compleja. Cuando se les pide evaluar dos veces la
misma información, frecuentemente dan respuestas diferentes. Los radiólogos experimentados que
dictaminan si una radiografía de tórax es «normal» o «anormal» se contradicen el 20 por ciento de las
distintas ocasiones en que observan la misma placa
Es probable que tan extendida inconsistencia se deba a la extrema dependencia del priming contexto en
que se halla el Sistema 1. Sabemos por estudios sobre el que estímulos inadvertidos de nuestro entorno
ejercen una influencia sustancial en nuestros pensamientos y nuestras acciones. Estas influencias
fluctúan entre un momento y otro.
Nunca sabremos si podríamos haber hecho un juicio diferente o tomado una decisión diferente en
circunstancias solo ligeramente diferentes. Las fórmulas no tienen estos problemas. Recibiendo los
mismos datos, siempre nos darán la misma respuesta. Cuando la predecibilidad es escasa la
inconsistencia destruye toda validez predictiva.
La conclusión es que para maximizar el acierto en las predicciones, deben fiarse las decisiones finales a
las fórmulas, especialmente en entornos de baja validez. En las decisiones de admisión en facultades de
medicina, por ejemplo, la determinación final la toman con frecuencia los miembros de la facultad que
entrevistan al candidato. La evidencia es fragmentaria, pero hay razones de peso para una conjetura: es
probable que una entrevista reduzca la capacidad de un procedimiento de selección si los entrevistadores
son también quienes toman la decisión final de admitir al candidato. Como los entrevistadores confían
demasiado en sus intuiciones, darán mucha más importancia a sus impresiones personales y mucha
menos a otras fuentes de información que reducen su validez.7 De manera parecida, los expertos que
evalúan la calidad de un vino inmaduro para predecir su futuro tienen una fuente de información que casi
con seguridad empeora más que mejora las cosas: ellos pueden catar el vino. Aparte, naturalmente, de
que, en el caso de que conociesen bien los efectos del clima en la calidad del vino, no serían capaces de
mantener la consistencia de una fórmula.
El desarrollo más importante en este campo es el famoso artículo de Robyn Dawe. La práctica estadística
dominante en las ciencias sociales consiste en asignar valores a los diferentes predictores utilizando un
algoritmo denominado de regresión múltiple, ahora integrado en el software convencional. La lógica de la
regresión múltiple es irrebatible: encuentra la fórmula óptima para crear una combinación ponderada de
los predictores. Dawes observó que el complejo algoritmo estadístico añade poco o nada. Uno puede
hacerlo igual de bien seleccionando una serie de puntuaciones que tengan alguna validez para predecir el
resultado y ajustando los valores para hacerlos comparables. Es probable que una fórmula que combine
estos predictores, todos con el mismo peso, sea tan acertada en la predicción de nuevos casos
como la fórmula de la regresión múltiple, que era óptima en la muestra original. Investigaciones más
recientes han ido más lejos: las fórmulas que asignan igual significación a todos los predictores son a
menudo superiores, puesto que no se ven afectadas por accidentes del muestreo. El sorprendente éxito
de los esquemas en los que se asigna el mismo peso o significación tiene una importante implicación
práctica: es posible desarrollar algoritmos útiles sin investigación estadística previa. Las fórmulas en las
que simplemente se asigna el mismo peso y se basan en estadísticas existentes o en el sentido común
son con frecuencia muy buenos predictores de resultados significativos. La importante conclusión de esta
investigación es que un algoritmo escrito al dorso de un sobre es a menudo suficientemente bueno para
competir con una fórmula con una ponderación óptima, y ciertamente para superar en acierto el juicio de
un experto. Esta lógica puede aplicarse en muchos ámbitos, desde la selección de acciones por gestores
de carteras hasta elecciones de tratamientos médicos por doctores o pacientes
LA HOSTILIDAD HACIA LOS ALGORITMOS
Los psicólogos clínicos respondieron desde el principio a las ideas de Meehl con hostilidad e
incredulidad. Queda claro que estaban presos de una ilusión de aptitud, en este caso de capacidad para
hacer predicciones a largo plazo
El problema es que los juicios correctos implican predicciones a corto plazo en el contexto de la
entrevista terapéutica. Las tareas en las que suelen fallar son las que requieren predicciones a largo plazo
sobre el futuro del paciente. Estas predicciones son mucho más difíciles, y hasta lo que consiguen las
mejores fórmulas es más bien modesto, puesto que son tareas que los psicólogos clínicos nunca han
tenido ocasión de aprender verdaderamente, y tardarían años en reaccionar, pues las sesiones clínicas
no les permiten hacerlo de modo instantáneo.
En el debate acerca de las virtudes de la predicción clínica y de la predicción estadística siempre ha
estado presente una dimensión moral. El método estadístico, era criticado por los psicólogos clínicos
experimentados, lo calificaban de mecánico, aditivo, etc. El método clínico era alabado por sus valedores,
que lo calificaban de dinámico, global, etc
Cuando un ser humano compite con una máquina nuestras simpatías están con nuestro semejante. La
aversión a los algoritmos que toman decisiones que afectan a los seres humanos está arraigada en la
clara preferencia que muchas personas tienen por lo natural
frente a lo sintético o artificia.
El prejuicio contra los algoritmos aumenta cuando las decisiones son trascendentales Por contraste,
Meehl y otros partidarios de los algoritmos han argüido que, si han de tomarse decisiones importantes, es
poco ético quedarse en juicios intuitivos cuando se dispone de un algoritmo que cometerá menos errores.
Su argumento racional es convincente, pero se enfrenta a una realidad psicológica pertinaz: para la
mayoría de las personas, la causa de un error es importante. Es probable que la hostilidad hacia los
algoritmos se atenúe conforme su aplicación a la vida cotidiana continúe expandiéndose, estamos cada
vez más sujetos a directrices que tienen la forma de simples algoritmos, como la proporción entre los
niveles de colesterol bueno y colesterol malo que hemos de procurar alcanzar. La lista creciente de tareas
asignadas a algoritmos podría paliar el malestar que la mayoría de las personas sienten cuando se
encuentran con el patrón de resultados que Meehl describió en su perturbador librito
APRENDIENDO DE MEEHL
Siendo un teniente de veintiún años de las Fuerzas Armadas de Israel, se me encargó crear un sistema
de entrevistas para todo el ejército. Desafortunadamente, las segundas evaluaciones ya habían indicado
que el procedimiento de la entrevista era poco menos que inútil para predecir el futuro comportamiento de
los reclutas. Se me ordenó diseñar una entrevista que resultase más útil, pero que no requiriese más
tiempo.
Afortunadamente el argumento de Meehl en su libro convenció de que que las simples reglas estadísticas
son superiores a los juicios «clínicos» intuitivos. Debiamos usar el tiempo limitado de que disponíamos
para obtener la máxima información específica posible sobre la vida del entrevistado en su ambiente
normal
Otra lección fue que debíamos abandonar el procedimiento por el que las evaluaciones globales que el
entrevistador hacía del recluta determinaban la decisión final. El libro de Meehl sugería que no había que
confiar en tales evaluaciones, y que tenían más validez los resúmenes estadísticos de atributos evaluados
por separado.
Utilizo un procedimiento en el que los entrevistadores evaluasen varios rasgos relevantes de la
personalidad y puntuar cada uno por separado. La puntuación final de la aptitud para el combate se
calcularía con una fórmula estándar que no incluyera nada de los entrevistadores.
La idea era evaluar lo más objetivamente posible cuáles eran las cualidades del recluta en cada
dimensión vital
Centrándome en cuestiones estandarizadas, fácticas, esperaba combatir el efecto halo, en el que
impresiones al principio favorables influyen en los juicios posteriores, la misión era recabar datos
relevantes sobre su pasado y utilizar esa información para puntuar cada dimensión personal
El nuevo procedimiento en las entrevistas suponía una mejora sustancial sobre el antiguo. La suma de
nuestras seis puntuaciones predecían el comportamiento de los soldados con mucho más acierto que las
evaluaciones globales del método anterior, aunque estuvieran lejos de alcanzar la perfección. Habíamos
progresado de lo «totalmente inútil» a lo «moderadamente útil». La lección de acá es que la intuición
añade un valor incluso en la entrevista de selección con razón ridiculizada, pero solo después de reunir de
forma disciplinada información objetiva y puntuar con la misma disciplina los rasgos separadamente. Creé
una fórmula que daba a la evaluación hecha al «cerrar los ojos» el mismo peso que a la suma de las seis
puntuaciones. Una lección más general que aprendí de este episodio fue la de no confiar sin más en el
juicio intuitivo, pero tampoco desecharlo.
La intuición experta (22)
Buscando tratar los desacuerdos efectué con Gary Klein, líder intelectual de una asociación que se llaman
a sí mismos estudiosos de la Naturalistic Decision Making (decisión naturalista) o NDM, y la mayoría de
ellos colaboran en organizaciones donde a menudo estudian cómo trabajan los expertos. Los de la NDM
rechazan con firmeza la focalización en los sesgos por parte del enfoque de las heurísticas y los sesgos.
Critican este modelo por considerar que se preocupa demasiado de los defectos y se funda en
experimentos artificiales más que en el estudio de las personas reales que hacen cosas que les importan.
Son profundamente escépticos sobre la validez del uso de rígidos algoritmos para reemplazar al juicio
humano.
Lo invité a colaborar en un esfuerzo por trazar el límite que separa las maravillas de la intuición de sus
fallos y ambos llevamos a cabo el proyecto, sin certeza alguna de que saliera bien
LA INTUICIÓN COMO RECONOCIMIENTO
Las opiniones de Klein sobre la intuición fueron diferentes de las mías. Mis ideas se formaron en la
observación de la ilusión de validez en mí mismo y en la lectura de las demostraciones que aportó Paul
Meehl sobre la inferioridad de la predicción clínica. Por contraste, las ideas de Klein se formaron en sus
primeros estudios sobre los jefes de los bomberos observaba cuando luchaban contra el fuego, y más
tarde entrevistaba al jefe para que le revelara sus pensamientos en el momento de tomar decisiones.
Klein creó una teoría una teoría de la decisión que denominó recognition-primed(modelo de decisión con
primacía del reconocimiento) o RPD que describe actuaciones de expertos en otros dominios. El proceso
involucra tanto al Sistema 1 como al Sistema 2. La fase siguiente es un proceso deliberado en el que el
plan es mentalmente estimulado para comprobar si valdrá, una operación del Sistema 2. El modelo de
decisión intuitiva como patrón de reconocimiento desarrolla ideas que presentó hace tiempo Herbert
Simon. La definición que Herbert Simon da de la intuición es «La situación ofrece la ocasión; esta ofrece
al experto acceso a información almacenada en la memoria, y la información ofrece la respuesta. La
intuición no es ni más ni menos que el reconocimiento.» Esta afirmación reduce la magia aparente de la
intuición a la experiencia cotidiana de la memoria. La moraleja de la observación de Simon es que el
misterio de saber sin saber no es un aspecto distintivo de la intuición; es la norma de la vida mental.
ADQUIRIENDO APTITUDES
¿Cómo puede la información que da soporte a la intuición ser «almacenada en la memoria»?
Ciertos tipos de intuiciones se adquieren con gran rapidez. Hemos heredado de nuestrosantepasados
una gran facilidad para aprender cuando algo nos atemoriza. Y una experiencia es a menudo suficiente
para que se cree una aversión o un temor durante largo tiempo. Un recuerdo de la memoria es
consciente y explica perfectamente las emociones que se desencadenan con ella. Pero en muchas
ocasiones podemos sentirnos intranquilos en un sitio concreto o, cuando alguien utiliza un giro o una frase
determinados, sin que tengamos memoria consciente del acontecimiento desencadenante. En una
retrospección diremos que esta intranquilidad es una intuición si le sigue una mala experiencia. Esta
modalidad de aprendizaje emocional se halla íntimamente relacionada con lo que sucedía en los célebres
experimentos de condicionamiento que realizó Pávlov. Lo que los perros de Pávlov aprendían puede
describirse como una esperanza aprendida. Los miedos aprendidos se adquieren aún más fácilmente.
El miedo también puede aprenderse con palabras más que con experiencias. El aprendizaje emocional
puede ser rápido, pero la condición de «experto» suele tardar mucho tiempo en desarrollarse. La
adquisición de esta condición en tareas complejas es intrincada y lenta
porque ser un experto en un dominio no es una aptitud única, sino una gran serie de miniaptitudes. Por
ejemplo en el ajedrez, yn jugador experto puede entender al instante
una posición compleja, pero se requieren años para alcanzar tal nivel de aptitud. Durante esas horas de
intensa concentración, un ajedrecista serio se familiariza con miles de configuraciones, consistente cada
una en una disposición de piezas relacionadas que pueden amenazarse y defenderse entre sí. Los
ajedrecistas son capaces de leer al momento una situación. Los pocos movimientos que les vienen a la
mente son casi siempre enérgicos y a veces creativos
EL ENTORNO DE LAS APTITUDES
Klein y yo nos dimos cuenta enseguida de que estábamos de acuerdo tanto en la naturaleza
de la aptitud intuitiva como en el modo en que se adquiere. Concluimos que nuestro desacuerdo se debía
en parte al hecho de que pensábamos en expertos diferentes.
Él estaba más dispuesto a confiar en los expertos que reivindicaban su intuición porque, me decía, los
verdaderos expertos conocen los límites de sus conocimientos. Yo estaba de acuerdo en que existen
muchos pseudoexpertos que no tienen una idea de lo que están haciendo.
He cifrado la confianza de las personas en una creencia en dos impresiones: la de facilidad cognitiva y la
de coherencia. Confiamos cuando la historia que nos contamos a nosotros mismos nos viene a la mente
con facilidad y no hay en ella contradicciones ni escenarios que se opongan. Pero ni la facilidad ni la
coherencia garantizan que una creencia mantenida con confianza sea verdadera. La máquina asociativa
está hecha para suprimir la duda y suscitar ideas e información que sean compatibles con la historia
dominante en el momento. Una mente que siga el principio de WYSIATI sentirá demasiado fácilmente una
gran confianza si ignora lo que no conoce. Por eso no es sorprendente que muchos de nosotros seamos
tan propensos a tener una gran confianza en intuiciones infundadas. Klein y yo terminamos estando de
acuerdo en un principio importante: la confianza que las personas tengan en sus intuiciones no es una
guía segura para conocer su validez. En otras palabras, no debemos confiar en que nos indique lo mucho
que debemos confiar en su juicio.
¿Cómo podemos evaluar la probable validez de un juicio intuitivo? Hay dos condiciones básicas: un
entorno que sea lo suficientemente regular para ser predecible; una oportunidad de aprender estas
regularidades a través de una práctica prolongada. Cuando se satisfacen estas condiciones, es probable
que las intuiciones sean aptas. Las intuiciones certeras que Gary Klein ha descrito se deben a relaciones
con un alto grado de validez que el Sistema 1 del experto ha aprendido a usar aunque el Sistema 2 no
haya aprendido a nombrarlos. En cambio los inversionistas y los politólogos, que hacen predicciones a
largo plazo, operan en un entorno de validez cero. Sus fallos reflejan la impredecibilidad fundamental de
los acontecimientos que intentan predecir.
Algunos entornos son peor que irregulares. Robin Hogarth describió entornos «perversos» en los que es
probable que los profesionales aprendan lecciones falsas de la experiencia.
Si existe un elemento altamente predictivo, los observadores humanos lo encontrarán si tienen la mínima
oportunidad. Los algoritmos estadísticos superan con mucho a los humanos en entornos con ruido, por
dos razones: la probabilidad de que detecten elementos débilmente válidos es mayor que en los juicios
humanos, y todavía mayor la de que mantengan un modesto nivel de acierto utilizando esos elementos de
manera consistente. Es un error culpar a nadie de fracasar en sus predicciones en un mundo
impredecible. Sin embargo, sería justo culpar a profesionales por creer que pueden tener éxito en una
tarea imposible. Las pretensiones de tener intuiciones correctas en una situación impredecible significan
cuando menos engañarse, y a veces algo peor. En ausencia de elementos válidos, los «éxitos» de la
intuición unas veces se deben a la suerte y otras son mentiras. Quien encuentre esta conclusión
sorprendente, es porque todavía sigue creyendo que la intuición es algo mágico. Hay que recordar esta
regla: no puede confiarse en la intuición en ausencia de regularidades estables en el entorno.
RETROALIMENTACIÓN Y PRÁCTICA
Algunas regularidades del entorno son más fáciles de descubrir y utilizar que otras, es mucho más difícil
adquirir habilidad con la experiencia pura y simple debido a la tardanza con que las acciones muestran
sus resultados visibles.
Ser experto no es poseer una única aptitud; es poseer un conjunto de aptitudes, y un mismo profesional
puede ser un gran experto en algunas de las tareas de su dominio y seguir siendo un principiante en
otras. Los cirujanos pueden ser mucho más competentes en unas operaciones que en otras. Además,
algunos aspectos de determinadas tareas de un profesional son mucho más fáciles de aprender que
otras.
El psicólogo clínico, el inversionista y el entendido tienen capacidad intuitiva para algunas de sus tareas,
pero no han aprendido a identificar las situaciones y las tareas en las que la intuición los engañará. Los
límites no reconocidos de la aptitud profesional explican por qué los expertos confían tanto en sí mismos
EVALUAR LA VALIDEZ
Gary Klein y yo estábamos de acuerdo en una respuesta general a nuestra pregunta inicial: ¿cuándo
podemos confiar en un profesional seguro de sí
mismo que dice tener una intuición? Nuestra conclusión fue que en la mayoría de los casos es posible
distinguir intuiciones probablemente válidas de otras que probablemente sean falaces. Si el entorno es lo
suficientemente regular y el juicio ha tenido ocasión de conocer sus regularidades, la maquinaria
asociativa reconocerá situaciones y generará predicciones y decisiones de forma rápida y segura.
Podemos confiar en las intuiciones ajenas si se dan estas condiciones. Desafortunadamente, la memoria
asociativa también genera intuiciones subjetivamente convincentes que son falsas.
En un entorno menos regular o de baja validez, nos acogemos a las heurísticas del juicio. El Sistema 1 es
a menudo capaz de producir respuestas rápidas a preguntas difíciles mediante una sustitución que crea
coherencia donde no la hay. La pregunta a la que se responde no es
la pregunta original, y la respuesta rápida puede ser lo suficientemente plausible como para pasar por la
relajada e indulgente revisión del Sistema 2. Como la sustitución se produce de manera automática, a
menudo no conocemos el origen de un juicio que nosotros (nuestro Sistema 2) aprueba y adopta. Si ese
juicio es el único que nos viene a la mente, puede ser subjetivamente indistinguible de juicios válidos que
hacemos con la confianza de un experto. Tal es la razón de que la confianza subjetiva no sea un buen
diagnóstico para nuestro acierto: los juicios que responden a la pregunta falsa también pueden hacerse
con la mayor confianza.
¿Por qué a Gary Klein y a mí se nos ocurrió evaluar la intuición de un experto estimando la regularidad desu entorno y su historial de aprendizaje? Y ¿cómo pensábamos responder a esta pregunta? Descubrimosque nuestras anteriores diferencias eran algo más que una discrepancia intelectual. Teníamos actitudes,
emociones y gustos diferentes, y estos cambiaron muy poco a lo largo de los años. Pero, sin duda,
encontrar tanto acuerdo intelectual como el que encontramos es a la larga más importante que laspersistentes diferencias emocionales, que han permanecido
https://filadd.com/doc/resumen-del-segundo-parcial-de-logica-teorico