Todos los días circulan miles de noticias falsas por las redes sociales
(ZENIT – Ciudad de México).- Todos los días circulan miles de noticias falsas por las redes sociales. Muchas personas las creen mientras otras, por su formación y sentido crítico, las desechan o simplemente ignoran. No se puede negar que sean un problema pero tampoco se puede obviar que se les puede estar magnificando y aprovechando según la mentira convenga o no.
Los resultados de las elecciones presidenciales en los Estados Unidos han puesto el tema en la mesa de discusión. Desde mediados de noviembre de 2016 se ha hablado de que las noticias falsas afectaron la decisión de los ciudadanos norteamericanos inclinando la balanza hacia Donald Trump. La “culpa” la tendrían las redes sociales. Se aduce, por ejemplo, que en los días inmediatamente anteriores a las elecciones del 8 de noviembre se viralizó en Facebook un post donde se hablaba de un falso respaldo del Papa a Donald Trump y una publicación del “Denver Guardian” (periódico que no existe) en el que se hablaba de la muerte de un agente del FBI, sospechoso de haber filtrado correos de Hillary Clinton.
Según una investigación real de BuzzFeed News, desde Macedonia internautas se ocuparon de producir abundante información falsa a favor de Donald Trump. La finalidad, sin embargo, no sería tanto política sino pecuniaria: a más clics, más dinero. A esto se suma la filtración por parte de hacker rusos de los correos electrónicos privados de Hillary Clinton y su equipo de campaña que, como ha reconocido Barak Obama, perjudicaron a la ex candidata. A raíz de todo esto Hillary habló de las noticias falsas como un “peligro que se debe atender”.
Tras el análisis de nueve fanpages de Facebook, el mismo BuzzFeed refiere que tanto portales de derechas como de izquierdas publicaron y compartieron noticias falsas en el periodo anterior a las elecciones: Right Wing News, con tres millones de seguidores, y Eagle Rising, con más de medio millón de seguidores, difundieron informaciones falsas a favor de Trump y en contra de Clinton. Pero también Addicting Info, con millón y medio de seguidores, y The Other 98%, con tres millones de seguidores, falsearon información para beneficiar a Clinton y perjudicar a Trump.
El estudio de BuzzFeed News sobre diarios tradicionales tipo ABC o CNN refleja que los medios de derechas publicaron hasta un 38% de información falsa o engañosa mientras que los medios de izquierda lo hicieron en un 20%.
Pero incluso disponiendo de todos esos datos, ¿las noticias falsas explican por sí solas los resultados de las elecciones? Hasta el momento Mark Zuckerberg, fundador de Facebook, ha declarado que su red social no ha tenido que ver con los resultados de las elecciones. Tras varias semanas de trabajo, en los días previos a la Navidad, han comunicado la estrategia de acción que tanto Facebook como Google seguirán para penalizar a las páginas que publican noticias falsas. O en otras palabras, se pone en acción un algoritmo de censura. Google asfixiará a webs que oculten información sobre el editor, el portal y las publicaciones (castigando el SEO) mientras que Facebook pone en marcha dos caminos: 1) una opción de denuncia en la que los usuarios se convierten en policías de la “verdad digital” y 2) trabajo conjunto con Snopes, el sitio de verificación de información más conocido en la web, ABC News y Associated Press.
La pregunta es entonces, ¿un filtro resuelve el problema de fondo? El problema de raíz es la credibilidad que los lectores dan a lo que ven. Y aquí hay varios factores. Por una parte, los usuarios con hábito de lectura suelen tener, como en el pasado, una fuente base de consulta. Y esa es normalmente la que coincide con su modo de pensar que, en política, podemos definir como “de derechas” o “de izquierdas”. Otros tienen la “práctica informativa de la abeja”: van de flor en flor según lo atractivo que resulta el titular, sin importar cuál sea la fuente (algo bastante frecuente entre jóvenes y adolescentes, pero no solo). En este sentido, tanto quienes tienen el hábito de la lectura como quienes no, caen recurrentemente en el vicio de quedarse sólo con el titular.
Pero, ¿no es responsabilidad del lector comprobar la veracidad de las informaciones que consume o ir más allá de las primeras palabras tras las cuales cree saberlo ya todo? ¡Cuántas veces se comparte un enlace creyendo haber comprendido el contenido sólo porque se ha leído el titular, contribuyendo así a masificar informaciones dudosas o completamente falsas!
¿Se puede dejar en manos de empresas particulares la decisión sobre qué es falso y qué no? Después de lo que en el pasado ha sucedido con Facebook (véase “Facebook, un problema de transparencia que influye en las decisiones de sus usuarios”, 22.05.2016), ¿se puede pensar que las acciones recientes nacen de un interés por beneficiar a los usuarios o más bien de evitar se vuelva a repetir que gane la persona que Sillicon Valley no apoyaba? Dado que no son lo mismo, ¿quién decide o establece el límite entre lo falso y lo tendencioso, entre el rumor y la mentira? ¿Qué criterio sigue un robot, su sistema de algoritmo, para decidir que sí y qué no censurar?
Identificaba muy bien el problema Zeynep Tufekci en un artículo publicado en The New York Times (véase “El problema con la influencia de Facebook y sus burbujas de información”, 21.11.2016):
“El problema con la influencia de Facebook en el discurso político no se limita a la diseminación de noticias falsas. También tiene que ver con las cámaras de resonancia. El algoritmo de la empresa escoge cuáles actualizaciones aparecen en la parte superior del servicio de noticias del usuario y cuáles no lo hacen. Los humanos tendemos a agruparnos con gente que piensa como nosotros y buscamos noticias que confirmen nuestras inclinaciones. La investigación de Facebook muestra que el algoritmo de la empresa fomenta esto priorizando de algún modo las actualizaciones que los usuarios encuentran reconfortantes. He sido testigo de esto. Aunque muchos de mis amigos de Facebook en Estados Unidos se inclinan hacia los demócratas, sí tengo amigos que votaron por Trump. Sin embargo, tuve que irme de cacería para ver sus publicaciones porque el algoritmo de Facebook nunca me las enseñaba; por la razón que sea, el algoritmo supuso de manera errónea que no me interesaban sus opiniones”.
Y remata: “Facebook podría argumentar que es neutral, pero esta es una postura falsa y peligrosa. El modelo de negocio, los algoritmos y las políticas de la empresa afianzan cámaras de resonancia y generan que se difunda la desinformación”.
Como resultado de todo esto, hay quien ha hablado de la “censura preferencial” en las redes sociales que en la práctica se traduce en la eliminación de “voces alternativas” (cf. Jonathan Albright, “Stop worrying about fake news. What comes next will be much worse”, 09.11.2016, en The Guardian):
“¿Existe una solución práctica a las noticias falsas? No lo sé. Pero sí veo hacia dónde estamos yendo: hacia la eliminación de las voces alternativas y hacia la censura de contenido sobre ciertos temas”.
Y añade: “En la próxima década, filtros con inteligencia artificial desarrollados por corporaciones tecnológicas valorarán la legitimidad de la información antes de que el público pueda siquiera evaluarla por sí mismo”.
Y es aquí donde justamente radica el problema: que aprovechando la coyuntura de unas elecciones políticas cuyos resultados no eran los que los grandes medios de comunicación querían, caminemos ahora hacia la progresiva eliminación de las opiniones opuestas a los intereses de particulares. O en otras palabras: la explotación de un problema real gestionado por una censura que a todas luces no es neutral y que, implícitamente, ve al consumidor como incapaz de hacer sus propios ejercicios críticos.
Jorge Enrique Mújica
Foto: Internet algo más que una herramienta