Si estamos cada vez más polarizados puede que signifique que cada vez estamos mejor informados (no menos)
Ser un miembro leal del grupo implica, casi por definición, adoptar un sesgo de mi lado.
Para alcanzar nuestros objetivos de manera efectiva, es fundamental que nuestra red de creencias contenga una alta proporción de verdades y un número mínimo de falsedades. Sin embargo, aunque la precisión epistémica suele facilitar la consecución de metas en la mayoría de los casos, no siempre es el factor determinante.
El ámbito social, en particular, es un contexto donde la precisión epistémica suele quedar subordinada a la racionalidad instrumental. La cohesión grupal exige, en muchos casos, que los miembros de un colectivo mantengan creencias con una fuerte inercia, aun cuando estas puedan contener elementos inexactos. Ser un miembro leal del grupo implica, casi por definición, adoptar un sesgo de mi lado, especialmente cuando se afrontan ideas que desafían las creencias compartidas por la comunidad.
Por ello, no es necesariamente irracional priorizar objetivos prácticos sobre la estricta adhesión a la verdad. Lo que explica, también, la paradoja de que la tendencia a torcer la evidencia para que confirme la propia visión del mundo no sea superada por la capacidad cognitiva, la educación o las disposiciones de pensamiento racional bien desarrolladas, tal y como desarrollan ampliamente Michael Hannon y Jeroen de Ridder en su magistral The Routledge Handbook of Political Epistemology.
La misma información, diferente sesgo
El efecto de polarización de creencias, un fenómeno documentado en la psicología del juicio y la toma de decisiones, encuentra una ilustración temprana y elocuente en el estudio clásico de Lord, Ross y Lepper (1979).
En su experimento, los participantes fueron expuestos a dos estudios sobre los efectos de la pena capital, cuyos resultados eran diametralmente opuestos. Lejos de adoptar una postura más equilibrada tras examinar la evidencia mixta, los sujetos reafirmaron con mayor intensidad sus creencias previas: quienes apoyaban la pena capital se convencieron aún más de su eficacia, mientras que quienes la rechazaban se volvieron todavía más escépticos. Este fenómeno demuestra cómo individuos con posturas divergentes pueden interpretar la misma información de manera sesgada, reforzando así la distancia entre sus posiciones en lugar de reducirla.
Una explicación teórica de este efecto puede encontrarse en el análisis de Koehler (1993), específicamente en la denominada prueba B, que ayuda a esclarecer cómo los sujetos evalúan la calidad de la evidencia en función de sus creencias previas. En consecuencia, aunque ambos grupos examinaron estudios con conclusiones contrapuestas, cada uno juzgó como más robusta aquella investigación que coincidía con su postura inicial.
El análisis formal de este fenómeno ha sido refinado por Jern, Chang y Kemp (2014), quienes exploraron en qué condiciones la polarización de creencias puede considerarse normativamente apropiada. Su estudio sugiere que la divergencia de opiniones no es necesariamente irracional: más bien, es un resultado esperable cuando los individuos interpretan la relación entre la hipótesis central y la evidencia recibida de formas diferentes.
Para ilustrarlo, los autores proponen un experimento mental: imaginemos que dos ajedrecistas, Bobby y Boris, interrumpen una partida en curso para tomar un descanso, dejando el tablero con las piezas dispuestas en una posición intermedia. Ahora supongamos que dos espectadores entran en la sala en ese momento sin haber observado el desarrollo previo del juego. Uno de ellos cree firmemente que Bobby es el jugador más hábil, mientras que el otro sostiene que Boris es el superior.
Al examinar la disposición de las piezas, ambos observan que las blancas tienen una ventaja considerable. Dado que cada espectador parte de creencias distintas sobre la superioridad de los jugadores, uno tenderá a asumir que Bobby está jugando con blancas, mientras que el otro inferirá lo mismo respecto a Boris. Si ambos actualizan sus probabilidades conforme al modelo bayesiano, llegarán a la conclusión de que el jugador que consideran más talentoso tiene ahora una mayor probabilidad de ganar. Así, si bien ambos han seguido un proceso racional de actualización de creencias, sus opiniones han divergido aún más, reproduciendo así el efecto de polarización.
Más allá de los modelos teóricos, la literatura empírica ofrece ejemplos concretos de cómo este proceso ocurre en situaciones del mundo real. Un caso paradigmático es el estudio de Plous (1991), en el que se presentó a partidarios y detractores de la energía nuclear una descripción equilibrada y objetiva del accidente en la planta nuclear de Three Mile Island en 1979. En lugar de acercar sus posturas, la exposición a la misma información provocó que ambos grupos reforzaran aún más sus convicciones preexistentes.
Por consiguiente, la polarización de creencias no implica necesariamente desinformación o ignorancia. De hecho, hay razones para pensar que en ciertos contextos, un mayor acceso a la información podría estar contribuyendo a la polarización en lugar de reducirla.
La paradoja de la información y la polarización
Si el acceso a datos y análisis rigurosos condujera siempre a un consenso, esperaríamos que el avance del conocimiento y la mejora en la calidad de la información redujeran la polarización. Sin embargo, estudios como los de Taber y Lodge (2006) muestran que las personas no solo procesan la información, sino que lo hacen de manera sesgada (motivated reasoning). Es decir, en lugar de actualizar nuestras creencias de forma neutral ante nueva evidencia, tendemos a filtrar la información para reforzar lo que ya creemos.
En este sentido, una persona mejor informada no es necesariamente más objetiva, sino que puede ser más hábil en encontrar justificaciones para sus creencias previas. Esto puede explicar por qué individuos con más conocimientos políticos, por ejemplo, no convergen hacia posturas compartidas, sino que, a menudo, muestran mayores niveles de polarización (Kahan, 2013).
Otro aspecto clave es que el acceso a la información hoy no es uniforme ni neutro. Las redes sociales y los algoritmos personalizan el contenido que consumimos, reforzando nuestras convicciones en lugar de desafiarlas. Esto no significa que la información sea incorrecta, sino que se presenta de manera selectiva, alimentando visiones parciales de la realidad.
Por ejemplo, dos personas que investigan sobre el cambio climático pueden acceder a fuentes diferentes según sus sesgos previos: una encontrará estudios que refuerzan la preocupación sobre el calentamiento global, mientras que otra se topará con artículos que enfatizan la incertidumbre científica o los costes de la regulación ambiental. Ambos estarán «mejor informados», pero en direcciones opuestas.
Aquí es donde la distinción entre polarización racional y polarización irracional se vuelve relevante. Jern, Chang y Kemp (2014) demostraron que la polarización puede ser normativamente adecuada si diferentes personas enmarcan la relación entre hipótesis y evidencia de manera distinta. Es decir, si dos personas tienen puntos de partida distintos, es lógico que lleguen a conclusiones más extremas después de analizar la misma información.
Conclusión: ¿Más información = más polarización?
No necesariamente. Lo que parece estar ocurriendo es que el acceso a más información y a herramientas de análisis no garantiza que la usemos de manera imparcial. A veces, cuanto más sabemos sobre un tema, más recursos tenemos para justificar nuestra posición inicial en lugar de cuestionarla.
Así que sí, podríamos estar más informados, pero eso no significa que estemos más cerca de la verdad compartida. Quizás estemos simplemente mejor armados para defender nuestras convicciones.
Desde esta perspectiva, evaluar tu propia racionalidad requiere considerar tanto tus costes epistémicos como tus beneficios en términos de cohesión social. O como lo resume Kahan:
En todo caso, las ciencias sociales sugieren que los ciudadanos están polarizados culturalmente porque, de hecho, son demasiado racionales, al filtrar información que abriría una brecha entre ellos y sus pares.
Referencias
Jern, A., Chang, K.-M., & Kemp, C. (2014). Belief polarization is not always irrational. Psychological Review, 121(2), 206–224.
Kahan, D. M. (2013). Ideology, motivated reasoning, and cognitive reflection: An experimental study. Judgment and Decision Making, 8(4), 407-424.
Koehler, J. J. (1993). The influence of prior beliefs on scientific judgments of evidence quality. Organizational Behavior and Human Decision Processes, 56(1), 28–55.
Lord, C. G., Ross, L., & Lepper, M. R. (1979). Biased assimilation and attitude polarization: The effects of prior theories on subsequently considered evidence. Journal of Personality and Social Psychology, 37(11), 2098–2109.
Plous, S. (1991). Biases in the assimilation of technological breakthroughs: How laypeople and experts judge nuclear fusion. Journal of Applied Social Psychology, 21(13), 1051–1080.
Taber, C. S., & Lodge, M. (2006). Motivated skepticism in the evaluation of political beliefs. American Journal of Political Science, 50(3), 755–769.