Archivos

«Permítete el incómodo lujo de cambiar de opinión», escribí al reflexionar sobre las 7 cosas más importantes que he aprendido en 7 años de Brain Pickings. Es un acertijo con el que la mayoría de nosotros lidiamos: por un lado, la conciencia de que el crecimiento personal significa trascender nuestro yo más pequeño a medida que alcanzamos una comprensión más dimensional, inteligente e iluminada del mundo, y por otro lado, los insoportables dolores de crecimiento de evolucionar o abandonar por completo nuestras creencias anteriores, más inferiores, a medida que integramos nuevos conocimientos y percepciones en nuestra comprensión de cómo funciona la vida. Ese malestar, de hecho, puede ser tan intolerable que a menudo nos esforzamos por disimular o negar nuestros cambios de creencias prestando menos atención a la información que contradice nuestras convicciones actuales y más a la que las confirma. En otras palabras, fallamos en el quinto principio del atemporalmente brillante y necesario Kit de Detección de Tonterías de Carl Sagan para el pensamiento crítico: «Trata de no apegarte demasiado a una hipótesis sólo porque es tuya.»

Esa humillante tendencia humana se conoce como efecto backfire y está entre los diecisiete fenómenos psicológicos que David McRaney explora en You Are Now Less Dumb: How to Conquer Mob Mentality, How to Buy Happiness, and All the Other Ways to Outsmart Yourself (biblioteca pública), una mirada fascinante y agradablemente incómoda sobre por qué «el autoengaño forma parte de la condición humana tanto como los dedos de las manos y de los pies», y la continuación del libro de McRaney You Are Not So Smart, uno de los mejores libros de psicología de 2011. McRaney escribe sobre este bicho cognitivo:

Una vez que algo se añade a tu colección de creencias, lo proteges del daño. Lo haces de forma instintiva e inconsciente cuando te enfrentas a información inconsistente con tu actitud. Al igual que el sesgo de confirmación te protege cuando buscas activamente la información, el efecto backfire te defiende cuando la información te busca, cuando te ciega. Vayas o vengas, te aferras a tus creencias en lugar de cuestionarlas. Cuando alguien trata de corregirte, de diluir tus ideas erróneas, el tiro te sale por la culata y refuerza esas ideas erróneas. Con el tiempo, el efecto contraproducente hace que seas menos escéptico con las cosas que te permiten seguir viendo tus creencias y actitudes como verdaderas y adecuadas.

Pero lo que hace que esto sea especialmente preocupante es que, en el proceso de esforzarnos por lidiar con la disonancia cognitiva producida por las pruebas contradictorias, en realidad acabamos construyendo nuevos recuerdos y nuevas conexiones neuronales que refuerzan aún más nuestras convicciones originales. Esto ayuda a explicar estadísticas tan asombrosas como el hecho de que, a pesar de las enormes pruebas que demuestran lo contrario, el 40% de los estadounidenses no creen que el mundo tenga más de 6.000 años. El efecto rebote, señala McRaney, es también la savia de las teorías conspirativas. Cita al famoso neurólogo y desacreditador de las conspiraciones Steven Novella, quien sostiene que los creyentes ven las pruebas contradictorias como parte de la conspiración y descartan la falta de pruebas confirmatorias como parte del encubrimiento, por lo que sólo se atrincheran más en su posición cuanto más pruebas contrarias se les presentan.

El sencillo pero revolucionario modelo heliocéntrico de Nicolás Copérnico de 1543, que situaba el sol en lugar de la Tierra en el centro del universo, contradecía las opiniones de la Iglesia Católica. En 1633, Galileo fue detenido bajo arresto domiciliario durante el resto de su vida por apoyar el modelo de Copérnico.

En Internet, una gigantesca burbuja de filtrado de nuestras creencias existentes, esto puede ser aún más desenfrenado: vemos cómo horribles cepas de desinformación, como la negación del cambio climático y el activismo antivacunas, cobran impulso al buscar selectivamente «pruebas» mientras se descarta el hecho de que todos los científicos reputados del mundo están en desacuerdo con tales creencias. (De hecho, la epidemia de desinformación ha alcanzado tal altura que ahora nos enfrentamos a un resurgimiento de enfermedades antes erradicadas.)

McRaney señala que, a pesar de las reglas de Daniel Dennett para criticar con inteligencia y argumentar con amabilidad, esto hace que sea casi imposible ganar una discusión en línea:

Cuando empiezas a sacar datos y cifras, hipervínculos y citas, en realidad estás haciendo que el oponente se sienta aún más seguro de su posición que antes de empezar el debate. Cuando él iguala tu fervor, lo mismo ocurre en tu cráneo. El efecto contraproducente os empuja a ambos a profundizar en vuestras creencias originales.

Esto también explica por qué la estrategia de Benjamín Franklin para manejar a los que odian, que McRaney también explora en el libro, es particularmente eficaz, y nos recuerda que esta fantástica guía de 1866 sobre el arte de la conversación sigue siendo válida en su consejo: «En las disputas sobre puntos morales o científicos, deja que tu objetivo sea siempre llegar a la verdad, no conquistar a tu oponente. Así nunca perderás la discusión, y ganarás un nuevo descubrimiento».

McRaney señala que el efecto contraproducente se debe en gran parte a nuestra pereza cognitiva: nuestras mentes simplemente prefieren las explicaciones que requieren menos esfuerzo para procesar, y consolidar los hechos conflictivos con nuestras creencias existentes es enormemente agotador:

Cuanto más difícil sea procesar una serie de afirmaciones, menos crédito les darás en general. Durante la metacognición, el proceso de pensar sobre nuestro propio pensamiento, si damos un paso atrás y notamos que una forma de ver un argumento es mucho más fácil que otra, tenderemos a preferir la forma más fácil de procesar la información y entonces saltaremos a la conclusión de que también es más probable que sea correcta. En experimentos en los que se colocaban dos hechos uno al lado del otro, los sujetos tendían a calificar las afirmaciones como más probables de ser ciertas cuando esas afirmaciones se presentaban en un tipo de letra simple y legible que cuando se imprimían en un tipo de letra extraño con un patrón de colores difícil de leer. Del mismo modo, un aluvión de contraargumentos que ocupan una página entera parece ser menos persuasivo para un detractor que una sola afirmación sencilla y contundente.

En 1968, poco después de la introducción de la innovadora píldora anticonceptiva oral que revolucionaría los derechos reproductivos de generaciones de mujeres, la Iglesia Católica Romana declaró que la píldora distorsionaba la naturaleza y el propósito del coito. (Fotografía de dominio público vía Nationaal Archief)

Una manifestación particularmente perniciosa de esto es cómo reaccionamos ante los críticos frente a los partidarios – el fenómeno en el que, como dice el dicho popular, nuestras mentes se convierten en «teflón para lo positivo y velcro para lo negativo». McRaney rastrea el aplastante efecto psicológico del trolling -algo que requiere un esfuerzo activo para combatirlo- hasta sus raíces evolutivas:

¿Has notado alguna vez la peculiar tendencia que tienes a dejar pasar los elogios, pero a sentirte aplastado por las críticas? Mil comentarios positivos pueden pasar desapercibidos, pero un «eres malísimo» puede permanecer en tu cabeza durante días. Una hipótesis de por qué ocurre esto y el efecto rebote es que pasas mucho más tiempo considerando la información con la que no estás de acuerdo que la que aceptas. La información que concuerda con lo que ya crees pasa por la mente como un vapor, pero cuando te encuentras con algo que amenaza tus creencias, algo que entra en conflicto con tus nociones preconcebidas de cómo funciona el mundo, te paralizas y tomas nota. Algunos psicólogos especulan que hay una explicación evolutiva. Tus antepasados prestaban más atención y pasaban más tiempo pensando en los estímulos negativos que en los positivos porque las cosas malas requerían una respuesta. Los que no atendían a los estímulos negativos no lograban seguir respirando.

Este proceso se conoce como asimilación sesgada y es algo que también han demostrado los neurocientíficos. McRaney cita el trabajo de Kevin Dunbar, que puso a los sujetos en un fMRI y les mostró información que confirmaba sus creencias sobre un tema concreto, lo que hizo que se iluminaran áreas cerebrales asociadas al aprendizaje. Pero cuando se enfrentaban a información contradictoria, esas áreas no se encendían, sino que se iluminaban las partes asociadas a la supresión del pensamiento y al pensamiento esforzado. En otras palabras, el mero hecho de presentar la información a las personas no contribuye a que la interioricen y cambien sus creencias en consecuencia.

Entonces, ¿dónde nos deja esto? Tal vez un poco humillados por nuestra propia humanidad falible, y un poco más motivados para utilizar herramientas como el Kit de Detección de Tonterías de Sagan como armas vitales de autodefensa contra la agresiva autojustificación de nuestras propias mentes. Después de todo, Daniel Dennett tenía razón en más de un sentido cuando escribió: «El principal truco para cometer buenos errores es no ocultarlos, especialmente de uno mismo».

El resto de You Are Now Less Dumb es igual de maravillosamente, aunque incómodamente, esclarecedor. Pruébelo más a fondo con la psicología del Efecto Benjamín Franklin, y regálese el excelente podcast de McRaney, You Are Not So Smart, que, por supuesto, le hará más inteligente.

Deja un comentario