Por Mariana Ramos – Estudiante de la Escuela de Estudios Generales

¿Alguna vez en una red social han visto una noticia compartida por alguien más, con una opinión que muchas veces se contradice con la noticia? En ocasiones como esa, nos damos cuenta de que esa persona no leyó el artículo y solo ha leído el título de la noticia antes de compartirlo. Según un estudio realizado por investigadores de la Universidad de Columbia, el 59% de links que se comparten en la red social Twitter no son abiertos nunca (Gabielkov, Ramachandran, Chaintreau y Legout, 2016). Esta práctica es peligrosa, pues permite la distribución de noticias falsas y pueden llegar a propagar conceptos erróneos.

Esta práctica se puede explicar porque las personas se dejan llevar por el sesgo de confirmación, entendida como la tendencia de buscar, interpretar y favorecer información que refuerce las creencias de la persona que lo busca o lee (Plous, 1993). Este sesgo es muy común en las redes sociales donde las personas no están buscando investigar, solo entretenerse. Cuando leen el título de las noticias, muchas personas no piensan en conocer si la metodología adecuada fue usada o si realmente la noticia viene de un noticiero o persona con buenas credenciales. Muchas compañías, noticieros o personas con motivos ocultos o malas intenciones pueden aprovecharse de esto y manipular a su favor.

Un caso muy grande, en el que Facebook admitió que fue usado para manipular, fue el caso de Myanmar. Según el NY Times en el 2018, un reporte de Business for Social Responsibility relata que Facebook debería hacer más para prevenir que su plataforma sea usada para incitar violencia. Facebook entró a un país donde hubo décadas de opresión, los empleados de Facebook no vieron o reportaron la desinformación de las publicaciones racistas con información falsa que promovían una limpieza étnica en Myanmar (Stevenson, 2018). Esto viene pasando particularmente con Facebook en países como Filipinas y Sri Lanka, donde esta red social es la única fuente de noticias que muchas personas tienen.

De hecho, un reporte de la universidad de Oxford encontró evidencia de manipulación de redes sociales para influenciar propagandas políticas y campañas en 70 países en el 2019. Además, encontró formas en que los gobiernos utilizan las redes sociales para manipular. (Bradshaw y Howard, 2019). Por esto, no solo lo vemos en países con grandes problemas de miles de años y mala educación como Myanmar, también se puede notar mucho en países como Estados Unidos. Un artículo publicado por Bovet y Makse (2019), en el cual se investigaron 170 millones de tweets, encontró que un 25% de noticias falsas o parcializadas en Twitter estaba relacionado con las elecciones del 2016 en Estados Unidos.

Datos como estos alarman, y si bien las redes sociales como Facebook y Twitter tienen políticas distintas para detener la desinformación y las noticias falsas, no funcionan si no las reportamos. Para atacar el problema desde la raíz, como sociedad, todos debemos cambiar la forma en que consumimos noticias y desarrollar un pensamiento más crítico. Tenemos que salir de solo leer el título, porque este problema es aún más grande, pues, aunque leamos el artículo, no nos aseguramos de que la información provenga de fuentes legítimas. Deberíamos educar la objetividad y la necesidad de creer solo información verificada; además de tener en cuenta el sesgo de confirmación en todo lo que leemos y tratar de buscar siempre la verdad.

 

MOXIE es el Canal de ULACIT (www.ulacit.ac.cr), producido por y para los estudiantes universitarios, en alianza con el medio periodístico independiente Delfino.cr, con el propósito de brindarles un espacio para generar y difundir sus ideas.  Se llama Moxie - que en inglés urbano significa tener la capacidad de enfrentar las dificultades con inteligencia, audacia y valentía - en honor a nuestros alumnos, cuyo “moxie” los caracteriza.

Referencias bibliográficas:
• Bovet, A. y Makse, H. A. (2019). Influence of fake news in Twitter during the 2016 US presidential election. Nature communications, 10(1), 1-14.
• Bradshaw, S. y Howard, P. (2019) The Global Disinformation Order: 2019 Global Inventory of Organized Social Media Manipulation. Working Paper 2019. 2. Oxford, UK: Project on Computational Propaganda.
• Gabielkov, M., Ramachandran, A., Chaintreau, A. y Legout A. (2016). Social Clicks: What and Who Gets Read on Twitter? ACM SIGMETRICS Performance Evaluation Review, 44(1), 179–192.
• Plous, S. (1993). The psychology of judgment and decision making. Mcgraw-Hill Book Company.
• Stevenson, A. (7 de noviembre del 2018). Facebook Admits Role Platform Had in Fueling Violence in Myanmar. The New York Times. Sección B, página 2.