Polarización Racional de Opiniones

 El fenómeno de la polarización de opiniones ha sido muy estudiado por los psicólogos, y levantado por economistas y cientistas políticos para aplicarlo a contextos de su interés. Para describirlo, imaginemos que hay dos grupos, que llamaremos de creyentes y no creyentes: los primeros creen que algo es verdadero, mientras que los no creyentes creen que es falso. Por ejemplo, hay quienes creen que la pena de muerte es efectiva para combatir el crimen, mientras que otros no; o hay quienes creen que la energía nuclear es segura, mientras que otros afirman lo contrario. En los experimentos sobre polarización se le pregunta a la gente si creen que algo es cierto, luego se le muestra a todo el mundo la misma evidencia relativa al fenómeno, y sus opiniones se polarizan: los creyentes se vuelven más creyentes, y los no creyentes creen aún más que antes que la proposición es falsa.

Desde siempre se ha señalado que la polarización es imposible en un mundo de gente racional, y la verdad es que sí parece un fenómeno “raro” o poco plausible con gente racional. Algunas líneas de estudio en economía y psicología se han dedicado a ver qué tipo de sesgos en el procesamiento de información darían lugar a este tipo de dinámica. Parte del interés de la economía y la ciencia política surge porque a veces observamos sistemas políticos  con posiciones extremas, u opiniones sobre (por ejemplo) el libre mercado que están polarizadas. Estas situaciones pueden llevar a la volatilidad de políticas, o a la inoperancia porque a cualquier medida la tranca el grupo contrario.

Hoy escribo sobre este tema porque se acercan tiempos electorales de los dos lados del plata. En estos períodos sucede que luego de escuchar ciertas declaraciones, o leer un artículo con información sobre algún tema relevante, gente con opiniones contrarias tiende a pensar que la nueva información soporta su visión del mundo. A menudo parece que la gente nunca podrá ponerse de acuerdo. Sin embargo, en un trabajo que estoy realizando en con Jean-Pierre Benoît de la London School of Economics argumentamos que la polarización es no sólo posible, sino esperable, en un mundo racional cuando se trata de temas complejos, con varias aristas. En ese sentido, si las opiniones de dos personas acaban de divergir luego de ver la misma evidencia, no hay por qué pensar que uno es necio, o que lo ciega la ideología. Nuestro argumento indica que si las creencias se separan, es porque las personas tienen opiniones distintas sobre algún aspecto del problema que no tiene nada que ver con la información que han observado en común. Quizás trabajando sobre esas diferencias, se puedan lograr acuerdos.

Posibilidad de Polarización

Para ilustrar por qué es natural la polarización en un mundo donde toda la gente es racional, imaginemos que hay otra “dimensión” del problema, además de la efectividad de la pena de muerte. Por un lado, podría suceder que la adopción de políticas se diera por motivos que no tienen “nada que ver” con el tema de fondo: por ejemplo los estados adoptan la pena capital por motivos ideológicos o políticos (porque “quedan bien” con su base, o porque les parece justo matar a un asesino).  Pero también podría ser que la adopción de políticas respondiera a las condiciones del fenómeno sobre el que se intenta influir (que fueran “endógenas”): por ejemplo, los estados adoptan la pena de muerte porque estiman que habrá un aumento en el crimen, y creen que eso lo frenará.

Una descripción “completa” de la realidad sería por ejemplo “las políticas se adoptan endógenamente, y la pena de muerte no es efectiva para combatir el crimen” o “la adopción de políticas es ideológica, y la pena de muerte es efectiva” (los otros dos estados posibles son “endógena, efectiva” e “ideológica, no efectiva”).

Imaginemos ahora que la evidencia típica indica que, cuando los estados adoptan la pena de muerte, se mantiene más o menos constante la criminalidad. Si las políticas son endógenas, eso aumenta nuestra creencia en que la pena de muerte es efectiva: el crimen iba a subir, se adopta la política, y el crimen no sube. Si las políticas se adoptan por motivos ideológicos, una criminalidad constante luego de la adopción de la pena de muerte aumenta nuestra creencia en que ésta no es efectiva: sin la adopción de la política, esperaba que el crimen se mantuviera estable, como se adoptó la política, si no bajó quiere decir que la pena de muerte no es efectiva.

En este contexto, entonces, si una persona nos dice que cree que la pena de muerte es efectiva, podremos deducir que cree que la adopción de políticas es endógena, mientras que si nos dice que cree que la pena de muerte no es efectiva, deduciremos que cree que las políticas se implementan por motivos ideológicos.

Supongamos ahora que a cada persona en un grupo se le pregunta si cree que la pena de muerte es efectiva o no, y luego se les muestra a todos un estudio que presenta datos nuevos, que muestran que luego de adoptar la pena de muerte, en 10 estados de Estados Unidos, el crimen se mantuvo constante. En ese caso tendremos que:

a)    los que antes creían que era efectiva, estimaban que la adopción era endógena, y como creían que era endógena, más información que indica que luego de impuesta la pena de muerte el crimen se mantuvo estable aumenta su creencia en que la pena de muerte es efectiva;

b)   los que creían que la pena de muerte no era efectiva, estimaban que la adopción de políticas era ideológica, y en ese caso más información que dice que el crimen es constante luego de la adopción aumenta su creencia en que la pena de muerte no es efectiva.

Tenemos entonces polarización racional: los que creían en la pena de muerte, aumentan su creencia en que es efectiva luego de ver la información, mientras que los que creían que no era efectiva creen aún más que antes que no es efectiva luego de ver los mismos datos.

Otro ejemplo donde los psicólogos encontraron polarización es en el caso de la energía nuclear. En ese experimento se le mostró a un grupo un documento con la descripción de un incidente en el cual había habido una falla en una planta nuclear, que se había arreglado a tiempo. Aquellos que creían que la energía nuclear era segura ahora lo creían aún más, y aquellos que creían que no lo era, pasaban a creer aún más que no lo era.

Una explicación natural es que la gente que creía que la energía nuclear era segura era aquella que creía que los controles eran el factor fundamental: para ellos, evidencia anterior de fallas arregladas a tiempo eran evidencia a favor de la seguridad (porque los controles habían funcionado). Por otro lado, para aquellos que creían que la cantidad de fallas en el sistema es el factor fundamental para la seguridad, evidencia previa de fallas arregladas a tiempo, era indicativa de la inseguridad de la energía nuclear (porque indicaba que las fallas eran comunes).  Por lo tanto, al mostrarle a la gente un nuevo fallo detectado a tiempo: aquellos que creían en la seguridad (que son aquellos que creían que los controles son el factor fundamental) creen aún más que la energía nuclear es segura, pues ven otro incidente en que los controles funcionan; aquellos que creían que la energía nuclear era insegura (que son los que creen que la cantidad de fallas es el factor fundamental) al ver un episodio de otra falla, aunque fuera detectada a tiempo, creen aún más que antes que la energía nuclear es insegura.

Desde que empecé a trabajar en este proyecto, cada vez que discuto con alguien sobre algo en lo que no estamos de acuerdo, intento ver si hay alguna dimensión “no tan obvia” en la cual no estemos de acuerdo, y que sea esa la causa para el desacuerdo. En los ejemplos anteriores la disputa no es sobre la evidencia, sino sobre creencias dispares en cosas que parecen no ser centrales: si la política es endógena, o si lo fundamental son las fallas o los controles. Si podemos reducir la brecha en esas dimensiones alternativas, podremos ponernos más de acuerdo sobre la discusión central.

 

Agradezco a los Editores del diario El País, donde publiqué una nota similar a esta.