Ir al contenido principal

Debate Municipal | "Sostenella y no enmendalla" ¿Qué interés tiene Facebook en propagar bulos y fake news?

Esta expresión del castellano antiguo, “sostenella y no enmendalla” (sostenerla y no enmendarla) define la actitud de quien se obstinaba empecinadamente en errores garrafales, aunque mantener el error le ocasione mas perjuicio. En el siglo de oro español, determinaba el concepto de honor entre hidalgos y caballeros, una vez que habían desenvainado la espada por algún agravio u ofensa, aunque se hubieran equivocado, no tenían mas opción que mantenerla hasta el final.



La primera sensación y el primer impacto es lo que cuenta. Cuando el cerebro capta por primera vez información (por cualquier medio) de un asunto —“ese de ahí es Andaluz, es un vago y un fiestero”— deja grabado un perfil, un tipo, un trazo, una silueta que provoca que todo lo que sepamos desde entonces del “Andaluz” tiene que encajar en ellos. Los humanos vivimos en un relato, necesitamos que las piezas encajen, y por eso nos costará tanto aceptar en el futuro que el “Andaluz” es un currante. “Es como una mancha”, explican desde la psicología, “es mucho más fácil ponerla que eliminarla después”. Si esa mancha forma parte de nuestra visión del mundo, nuestra escala de valores será casi imposible limpiarla, porque sería como replantear y/o dudar de nuestra identidad. Por eso es difícil cambiar de opinión: los hechos deben encajar en el perfil que hemos interiorizado o ni siquiera los tendremos en cuenta.

Cada vez más estudios muestran las limitaciones de la razón humana. En ocasiones se ignoran los hechos porque no se adaptan a lo que pensamos. La verdad no siempre importa. Hace tres años, se realizó una prueba muy sencilla. ¿En cuál de estas fotos ve usted a más gente? En la foto A, de la toma de posesión de Donald Trump, se veía a mucha menos gente que en la foto B, de la inauguración de Barack Obama, llena hasta la bandera. El 15% de los votantes de Trump dijo que había más gente en la foto A, un error manifiesto. ¿Tenían problemas de visión, alguna tara cognitiva, para llevarle la contraria a un hecho tan evidente?. Es más sencillo: a veces, cuando discutimos sobre hechos, en realidad no estamos discutiendo sobre los hechos. Ese 15% sabe que dar la respuesta B es reconocer que Trump es un mentiroso y, por tanto, admitir que han votado a un mentiroso. Es decir, si se trata de un “hooligans” del presidente de EE UU, estamos pidiendo que ponga en tela de juicio personalidad y capacidad de decisión.

“Lo más probable es que las personas lleguen a las conclusiones a las que quieren llegar”, afirmó la psicóloga social Ziva Kunda al desarrollar la teoría del pensamiento motivado. La idea es sencilla: para defender nuestra visión del mundo, nuestro relato, vamos razonando inconscientemente, descartando unos datos y recogiendo otros, en la dirección que nos conviene hasta llegar a la conclusión que nos interesaba inicialmente.

Un ejemplo es el “colectivo anti-vacunas” que se niega a vacunar a sus hijos. ¿Cómo se puede tomar una decisión así, que pone en riesgo la salud de los hijos propios y los del resto?. “Es una opción irracional que puede ser corregida aportando toda la información necesaria”, dicen médicos, divulgadores y autoridades. Datos históricos, detalles sobre enfermedades, estadísticas consistentes…, pero no, eso no funciona. Es más, esta forma de abordar el problema no solo no convence, sino que puede provocar un efecto bumerán, reforzando todavía más las creencias de los “ anti-vacunas”..

Divulgadores, periodistas y políticos asumen, en general, que la gente se equivoca porque les faltan datos. Es un enfoque simplista, llamado de déficit de información, que se empeña en obviar los mecanismos conocidos de una psicología humana que no va a cambiar. Hay que conocer esas fisuras del cerebro humano y aprovecharlas para colarnos y ser verdaderamente persuasivos. Pero llegados a este punto, es importante preguntarse, qué es convencer ¿Lograr que una familia “anti-vacunas” reconozca que está equivocada o conseguir que ponga una, dos o todas las vacunas necesarias a sus hijos?. ¿Cómo convencer a los inconvencibles?; conociendo sus motivos y rebatirlos, pero no desde la lógica sino desde los sentimientos, porque es muy difícil convencer con datos científicos, suelen ser o creer ser expertos, pero escogiendo los que les interesa.

Un experimento realizado antes de las elecciones presidenciales en Francia, sobre racismo y política, obtuvo resultados inquietantes. A un grupo de ciudadanos se les contó algunas de las mentiras habituales de Marine Le Pen sobre los inmigrantes. A otro, esto mismo, pero contrastado con los datos reales. Al tercer grupo se les contó únicamente la información veraz, sin las falsedades de Le Pen. La ultraderecha de Le Pen logró mejorar sus opciones de voto por igual (un 7%) en el primer grupo y el segundo, mostrando que el desmentido fue inútil. Lo que es más sorprendente: sus opciones también crecieron (4,6%) entre quienes solo leyeron información real sobre inmigración. Por eso a los partidos populistas les da igual que les desmientan: han colocado el mensaje, que se hable de lo que les interesa, fijando el marco de la conversación pública: la inmigración o el racismo como problema. Los investigadores consideran que no basta con el trabajo periodístico con los datos, sino que “para ser efectivo, los hechos deben integrarse en una narrativa con argumentación persuasiva” y “presentados por personas con credibilidad y carisma”. Walter Quattrociocchi, investigador de los fenómenos sociales de la desinformación, concluye la inutilidad de “los verificadores” que se dedican a desmentir las afirmaciones de políticos o usuarios inconvencibles, y que a veces estos son contraproducentes, ya que estos (los inconvencibles) tienden a ignorar la información disidente e incluso este escenario, desmentidos y constatación de datos, fomenta la aparición de una caja de resonancia en torno a narrativas y creencias compartidas. En este punto, la verificación de los hechos y datos la percibe como otra tesis de los rivales y por tanto la ignora”.

Como Influyen las redes sociales en estos comportamientos y como facilita la retroalimentación en el convencimiento de estos individuos, a pesar de poder contrastar con la realidad y objetivos, siguen creyendo y compartiendo bulos y Fake News.

La preocupación de las sociedades y las instituciones por la difusión de bulos (o fake news) por las redes sociales se disparó tras la elección de Donald Trump. Se descubrió con perplejidad que un millón de americanos vieron la noticia falsa en Facebook de que el Papa Francisco había apoyado la candidatura de Trump y que otro millón vio la noticia de que Trump había prestado su avión privado para rescatar a unos marines. Historias absurdas e inverosímiles adquirieron enorme eco.

Los 20 bulos con mayor difusión (17 a favor de Trump) tuvieron más impacto que las 20 noticias de mayor calado de los medios tradicionales. A otro nivel , algo parecido sucedió con el Brexit o en Catalunya el 1-O.

Ante una investigación del Congreso de EEUU, las redes sociales, Facebook y Twitter principalmente, respondieron centrando la atención de las investigaciones en los anuncios pagados. Facebook inicialmente explicó que solo hubo 3.000 anuncios falsos en la campaña americana.

Interesaba Facebook, Twitter y Google hablar y rendir cuentas solo de anuncios pagados, algo relativamente fácil de verificar, porque desvía la mirada sobre el gran problema que ahora empezamos a entender: el modelo de negocio de estos gigantes, que controlan entre ellos el 95% de la publicidad online del mundo, tiene un perjudicial y grave defecto en origen : la información falsa se expande a enorme velocidad a través de cuentas ficticias y campañas “orgánicas” (no pagadas) y este fenómeno es mucho más relevante y valioso para ellos que los anuncios.

Para entender esta propagación, de bulos y Fake es crucial entender como es la retribución e incentivos de los ingenieros y ejecutivos de Facebook, Twitter o Google: se trata de vender publicidad, y para ello es necesario que pasemos mucho tiempo enganchados en sus redes. Nosotros no somos sus clientes, al contrario: nuestra atención y participación activa es el producto que ellos cosechan, y luego tratan de vender a los anunciantes sus clientes. Los algoritmos que diseñan nos analizan, nos observan observan, aprenden nuestros gustos, lo que compramos, sobre lo que nos informamos, nuestras preferencias, y se van adaptando a ellas. El ingeniero o ejecutivo que progresa es el que diseña algoritmos para que las noticias, los vídeos, las fotos que alguien cuelga se extiendan más y mejor por la red, para que se hagan virales, las leamos, las compartamos, las discutamos.

En parte, este esfuerzo por maximizar el interés es positivo para nosotros, los usuarios. Si soy seguidor del Betis, me enseñarán noticias sobre el Betis, y esto me satisface. Pero se ha descubierto que también tiene un lado muy oscuro. El trabajo que investiga este lado oscuro tuvo su origen en un grupo de activistas “anti-vacunas”.

La pionera de estos activistas se llama Renee DiResta. Descubrió el poder de los bulos por casualidad, de una forma que nos resultará familiar: los bulos sobre las vacunas. Cuando nació su hijo, leyendo sobre vacunaciones, descubrió que tras entrar de forma casual en los sitios de los chiflados de las conspiraciones anti-vacunas, Facebook la “empujaba” (le mostraba) a leer otras historias de otros anti-vacunas. El universo se ampliaba siempre en la misma dirección. Cuantos más chiflados leía, más se le presentaban, en un universo homogéneo de estupidez auto-confirmada por las historias conspirativas de los demás.

No solo eso. Cuando el algoritmo descubrió que ella era sensible a las teorías conspiratorias de los “anti-vacunas”, Facebook le presentaba nuevas teorías conspiratorias en otros temas; gente que cree, por ejemplo, que las nubes blancas que dejan los aviones en el cielo son sprays químicos para manipularnos, gente que defienden que la tierra es plana, gente que cree estar abducidos por extraterrestres. Gente que en otro tiempo sería el “tonto del pueblo”, ignorado por todos, y que ahora encuentra un público similar a él o ella y dispuesto a colaborar en extender estas noticias.

No se trata de que alguien en Facebook publique noticias falsas, o quiera que leamos noticias falsas. Simplemente el mismo algoritmo que “aprende” que nos gusta el Betis, aprende que las historias raras que cuenta un fulano cualquiera nos gustan, y nos busca otras similares. La desinformación, las noticias falsas peligrosas, se extienden de persona a persona. No hace falta que un gobierno malvado nos manipule, porque si creemos en los ovnis, veremos historias sobre gente que vio ovnis, o, por dar un ejemplo más cercano a casa, si damos me gusta a un post de zapatos, nos presentara noticias y anuncios de zapatos.

Llamados al orden por las autoridades americanas e inglesas, Google, Facebook, o Twitter, dicen “es el problema de nuestros usuarios si buscan historias falsas, no nuestro. Nosotros somos una empresa de tecnología y solo facilitamos que la gente se comunique con quien quiera, no somos un medio de comunicación”.

Pero esto falso. El algoritmo no distingue verdadero o falso, y nos presenta lo falso como verdadero, porque está diseñado con un objetivo, y solo con un objetivo: maximizar el impacto, la visibilidad y su viralidad. Si el algoritmo buscara otras cosas (por ejemplo, relacionar y balancear el impacto con la veracidad) presentaría otras noticias.

Revertir esta situación ( propagación de bulos y desinformación) exige poner fin a la impunidad de estas redes sociales. Los gobiernos deben responsabilizarles de las noticias falsas y bulos que sus algoritmos diseminan y dan relevancia.. Cuanto antes obliguen a Facebook, Twitter, Google y el resto de que no son empresas tecnológicas, sino editores y medios, y por tanto responsables del contenido que difunden, antes conseguiremos recuperar una visión positiva y constructiva del papel de las redes sociales.

GUILLERMO JIMÉNEZ
© 2020 El Viso Digital · Quiénes somos · montilladigital@gmail.com

Designed by Open Themes & Nahuatl.mx.