Te recomendamos consultar el texto interactivo de principio a fin por lo menos una vez, aunque puedes acceder a él las veces que lo desees.



Mecanismos que contribuyen a malinformar/desinformar


Contenido





1. Mecanismos humanos que se usan para crear información falsa

Lo primero que debemos identificar es que no hay un solo tipo de información falsa, ya que esta puede presentar diferentes formas. A continuación, te presentamos una propuesta de tipología que devela las manifestaciones y los propósitos de este tipo de información.

Traducción de "7 Types of Mis-and disinformation" (Wardle, 2017)

Berduygina, Vladimirova y Chernyaeva (2019) ofrecen otras posibles formas de clasificar la información engañosa a partir de los criterios que te presentamos a continuación:





1. a. Criterios de clasificación de información engañosa

Criterio de clasificación Descripción

Proporción de verdad o falsedad en la información

  • Mentira absoluta
  • Mayormente mentira con elementos de verdad
  • Evento real con fragmentos distorsionados

Autenticidad de circunstancias, tiempo y lugar que caracterizan el evento

  • Información desactualizada disfrazada como de última hora
  • Cambio en el contexto del evento

Personas presentadas en la información

  • Citar o escribir acerca de una figura pública usando una cuenta falsa
  • Situar en primer plano a una figura menor con base en un testimonio no corroborado

Posibles motivadores para la creación y difusión

  • Entretenimiento
  • Ventaja política
  • Discriminación
  • Incrementar el tráfico en internet
  • Fraude
  • Dañar la información almacenada en una PC
  • Captar la atención de una persona en particular
  • Manipular el mercado

Percepción de autenticidad

  • Obviamente falso
  • Provoca dudas
  • Falsificación convincente
Traducción de Berduygina, Vladimirova y Chernyaeva (2019, p. 125)

Basamos nuestras decisiones en la información que consumimos. Quienes construyen y diseminan las noticias, legítimas o falsas, cuentan con que estas impactarán en nuestras acciones. Las noticias pueden inclinarnos a votar por un candidato en lugar de otro, o bien, pueden cambiar nuestra opinión respecto al más reciente estreno cinematográfico o a la efectividad de un medicamento. Hay información que elegimos incorporar a nuestras creencias y otra que descartamos. Lo importante es que tales decisiones sean conscientes, informadas, críticas y no viscerales.

La desinformación y malinformación que nos rodea pueden deberse a diferentes razones y obedecer a distintas agendas, pero en todos los casos, si optamos por creer datos distorsionados o inventados, estaremos en riesgo de tomar decisiones equivocadas. Para comprender mejor el impacto que buscan algunos agentes que generan información falsa o distorsionada, a continuación, te presentamos una matriz que presenta las principales razones que motivan a dichos agentes y el tipo de piezas de contenido que utilizan.


1. b. Matriz de la desinformación/malinformación


Traducción de "Misinformation Matrix" (Wardle, 2017)

Berduygina, Vladimirova y Chernyaeva (2019) ofrecen una propuesta adicional de las metas y motivaciones que pueden movilizar a entidades y personas a crear y/o circular información engañosa:

Traducción de Berduygina, Vladimirova y Chernyaeva (2019, p. 126)



2. Mecanismos automatizados que se usan para controlar los flujos de información en internet

Mecanismos y agentes de viralización de noticias. El fenómeno social denominado fake news, o noticias falsas, no puede ser analizado solamente a la luz de su contenido, pues, en parte, está construido por sus lógicas de flujo y circulación. Si un blog dice que el Papa Francisco visitará la Luna es solo una mentira, pero si esa información se disemina aceleradamente, es decir, se vuelve viral, entonces puede decirse que se trata de una noticia falsa o fake news. Por tanto, este fenómeno es la combinación de contenidos y de dinámicas de dispersión.

Se dice que una noticia, verdadera o falsa, es viral cuando circula rápidamente a través de internet y de las redes sociales en línea.

En este apartado revisaremos brevemente los principales mecanismos y agentes que propician la propagación de información de todo tipo, incluidas las noticias falsas.


2. a. Recolección de datos conductuales (behavioral data collection)

Originalmente los mecanismos y las herramientas de rastreo de usuarias y usuarios en línea fueron desarrollados por la industria publicitaria con el fin de ofrecer anuncios “a la medida” de sus gustos y necesidades. Esta tecnología se conoce como ‘rastreo’ o tracking y su forma más conocida son las llamadas cookies, mismas que se depositan en los navegadores y que recaban y envían información de lo que un usuario o una usuaria hace en línea… es decir, qué sitios visita, qué información busca, etc.

Cuando una persona visita un sitio web puede encontrar dos tipos de cookies: las propias del sitio (first party cookies) y las de sus anunciantes (third party cookies).

Los mecanismos de rastreo establecen los perfiles de los usuarios y las usuarias (preferencias, intereses, creencias) y los usan para dirigirles información específica.

Dado que violan la privacidad, en muchos países es obligatorio que los sitios desplieguen una advertencia respecto al uso de cookies y que cada usuaria o usuario las acepte explícita o tácitamente.

Otro mecanismo de rastreo es el web beacon o beacon, compuesto por objetos de programación que se insertan en una página web. Generalmente, un tercero paga por instalar su beacon en páginas de alto tráfico. Cuando el usuario o la usuaria carga la página, el tercero recibe una señal y manda su beacon para rastrear su actividad en dicha página.

Algunas de las herramientas más usadas en el rastreo son Google Adsense, DoubleClick, Google Analytics, Gravatar, Wordpress Stats y Facebook Connect. Si bien muchas de estas herramientas son usadas por anunciantes, también están siendo empleadas por quienes diseminan noticias falsas con diferentes propósitos.

Un problema importante con los rastreadores y los filtros de redes sociales que analizan el comportamiento de las usuarias y los usuarios para proveerles de contenido personalizado, es que terminan confinándolos a una “burbuja” de opiniones sociales y políticas que se reciclan en sí mismas, generando lo que se conoce como filter bubble o echo chambers.

Te invitamos a ver el siguiente video, en el cual Eli Pariser se refiere a este fenómeno como la burbuja de filtros y explica cómo funciona y por qué es importante que el filtrado de nuestros contenidos sea transparente y podamos tener agencia1 al momento de decidir cuál contenido nos interesa y cuál no.






1 Se usa la palabra ‘agencia’ en su sentido filosófico, como la habilidad de tomar acción o de elegir qué acción tomar.




2. b. Trolls, bots y “sock-puppets


Trolls, bots y “sock-puppets” (cc) Formación Multimnodal, e-UAEM, 2021

Además de los mecanismos humanos y automatizados para crear y dispersar información falsa revisados previamente, otro que se usa son las identidades falsas para desviar e influir en la opinión pública, vía las redes sociales.

Los trolls pueden ser seres humanos, generalmente pagados, o bots (robots), cuyos blancos a menudo son cuentas de Twitter de líderes de opinión a quienes buscan descalificar. Su estrategia es publicar mensajes provocadores para generar respuestas emocionales negativas.

Diferentes estudios han revisado cuentas de trollers en torno a procesos electorales y han detectado, por ejemplo, que es común que tengan perfiles similares entre sí, que compartan seguidores y que sus cuentas hayan sido creadas en fechas iguales o cercanas, lo que permite identificarlos como cuentas títere (sock-puppet) generadas con el único fin de agredir a blancos específicos. Cabe aclarar que no todas las cuentas de trollers son cuentas títere.

Los bots (nombre corto para robots) son programas que pueden comportarse como seres humanos en las redes sociales, interactuando con la información para compartir y generar reacciones. Esto permite hacer que una noticia parezca ser muy popular, aunque dicha popularidad esté sostenida por un montón de usuarias y usuarios falsos.

Se estima que entre el 9 y el 15 % de las cuentas activas de Twitter son bots (Bounegru, L. et al., 2017). Una publicación del prestigiado diario inglés The Guardian reporta que en Rusia 45 % de las cuentas más activas en Twitter son bots (Hern, 2017). Un artículo de Lazer, D.M.J. et al. (2018) indica que se estima una población de 60 millones de bots entre quienes usan Facebook. Una noticia en el diario Excélsior (2018) reporta que Instagram también tiene un elevado número de usuarias y usuarios ‘fantasma’.

Para conocer más sobre el impacto de los bots, te invitamos a revisar la siguiente nota sobre un mexicano que ha generado una empresa para difundir en las redes sociales información que no es verdadera o que responde a lo que el cliente solicita.

Conoce al rey de las fake news en México (c) Ryan Broderick & Íñigo Arredondo, 2018




2. c. Manipulación de buscadores

Dado que Google es el buscador más usado en numerosos países, una táctica importante para las campañas de malinformación y desinformación ha sido manipular el algoritmo de búsqueda de dicho motor mediante técnicas conocidas como black hat SEO (SEO son las siglas de search engine optimization). Estas técnicas se diseñaron para engañar al algoritmo del famoso buscador y dominar los resultados de la búsqueda por unas horas, antes de que Google corrija la distorsión. Quienes usan estas estrategias intentan llevar sus contenidos a los primeros resultados de las búsquedas.

Es preocupante saber que hay agentes tratando de engañar al algoritmo de búsqueda de Google para posicionar información falsa. Sin embargo, es más preocupante aún que, de origen, el algoritmo de un sitio web tan popular como YouTube esté orientado a privilegiar contenido sesgado y/o conspirativo. Un artículo publicado en The Guardian (Lewis, 2018) afirma que el algoritmo de YouTube está diseñado para distorsionar la realidad, por tanto, habría que revisar con ojo crítico los videos que nos presenta como los más populares o recomendados.

Además de las técnicas black hat (sombrero negro), hay técnicas más legítimas que también pueden engañar al algoritmo de Google. Estas técnicas se basan en tres características que Google valora:

  • Contenido: En la medida que exista consistencia entre titulares, textos y palabras clave, el contenido será mejor puntuado.
  • Vínculos: El puntaje de un sitio web puede elevarse o bajar según sea referido (vinculado) desde otros sitios web (backlinks). Si es referido de sitios creíbles, se incrementa su puntaje; si es referido de sitios spam, se perjudica su puntaje. También cuentan links de redes sociales.
  • Popularidad: Un sitio web mejora su puntuación con cada clic que las y los visitantes dan en el mismo.

2. d. Gestores de redes sociales

Dando continuidad a la información del inciso a) Recolección de datos conductuales (behavioral data collection), otra estrategia para perfilar a usuarias y usuarios es el uso de los llamados Social Media Management Services (SMMS) o ‘gestores de redes sociales’, los cuales usan las analíticas de datos de usuarias y usuarios de redes sociales para dirigirles los mensajes correctos en el tiempo correcto, a través de canales múltiples y en forma simultánea y automática.

Algunas firmas que ofrecen estos servicios son Hootsuite, Sprinklr, Hubspot y Sprout Social. Estas soluciones informáticas buscan una mayor automatización en la gestión de contenidos publicitarios en las redes sociales para que los grandes anunciantes puedan gestionar sus campañas sin necesidad de gestores humanos. Esto se basa en inteligencia artificial, también llamada machine learning.

Como otras herramientas enumeradas en este apartado, estos gestores fueron creados para la industria publicitaria, pero también están al servicio de dispersores de noticias falsas.


Mecanismos y agentes de viralización de noticias (cc) Formación Multimodal, e-UAEM, 2021



3. Mecanismos basados en inteligencia artificial para crear información visual y audiovisual falsa


Desafortunadamente, el uso de la tecnología no se limita a controlar los flujos de la información en la red. Recientemente se ha empezado a usar la inteligencia artificial para crear material engañoso que es muy convincente.

Los sistemas de aprendizaje automático están demostrando una espeluznante capacidad para crear lo que se denomina deepfakes (falsificaciones profundas): fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que alguien famoso ha sido fotografiado en una situación comprometedora o que una figura pública está diciendo cosas que en realidad nunca diría (Susarla, 2018).


Revisemos esta fotografía. ¿Notas algo extraño? En ella hay tres figuras de la política estadounidense que son afrodescendientes: Malcolm X, el expresidente Obama y Martin Luther King. Resulta imposible que aparezcan juntas en una imagen, pues Malcolm X murió en 1965 y Martin Luther King en 1968; además, en los sesenta Obama era apenas un niño, por lo que tendría que haber viajado en el tiempo para fotografiarse al lado de los otros dos emblemáticos personajes.

Las fotografías manipuladas han existido casi desde el comienzo de la propia técnica fotográfica. Sin embargo, con el avance tecnológico y la aparición de programas como Photoshop, la edición fotográfica se ha vuelto más sofisticada y la creación de imágenes manipuladas es cada vez más común y accesible.

Para entender cómo se manipulan imágenes en movimiento para crear los llamados deepfake, te invitamos a ver los siguientes videos: en el primero, el expresidente Barack Obama dice cosas que nunca diría; en el segundo, se muestra cómo se puede manipular la gesticulación del rostro. La máxima “ver para creer” ha quedado, sin duda, superada por estos programas:





Como contenido bonus, te compartimos un deepfake creado por la industria publicitaria para la cadena mexicana de supermercados Soriana, en el que, literalmente, revivieron al famoso Cantinflas:






4. Referencias bibliográficas

Allen, A. (14 de febrero de 2017). Fake news stories promote a movie about a fake spa. Político. Recuperado de https://www.politico.com/story/2017/02/fake-news-movie-cure-wellness-235017

Ames, C. (2 de mayo de 2018). Fake News Detectors. The Sage Colleges. Recuperado de https://www.sage.edu/about/leadership/presidents-office/blog/fake-news-detectors/

AP (26 de diciembre de 2017). Inventan detector de 'fake news'. Reforma. Recuperado de https://www.reforma.com/aplicacioneslibre/articulo/default.aspx?id=1286948&md5=d8584e1aec6fc716cdf4159fbca768d7&ta=0dfdbac11765226904c16cb9ad1b2efe

Bach, N. (8 de marzo de 2018). Facebook has enlisted the help of this news agency to debunk fake news during midterm elections. Fortune. Recuperado de http://fortune.com/2018/03/08/ap-associated-press-fact-checkers-facebook-fake-news-midterm-elections/

Bad News (juego en línea). Recuperado de https://www.getbadnews.com/

BBC News (15 de junio de 2017). Prices for fake news campaigns revealed. Recuperado de http://www.bbc.com/news/technology-40287399

Belam, M. (15 de noviembre de 2017). Falling for the joke: the risk of using Twitter as a news source. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/nov/15/falling-for-the-joke-the-risk-of-using-twitter-as-a-news-source

Berduygina, O.N., Vladimirova, T.N. y Chernyaeva E.V. (2019).Trends in the Spread of Fake News in Mass Media. Media Watch 10 (1), p. 122-132. DOI: 10.15655/mw/2019/v10i1/49561

Bounegru, L., Gray, J., Venturini, T. y Mauri, M. (2017). A Field Guide to “Fake News” and other information disorders. Amsterdam: Public Data Lab.

Brockes, E. (14 de junio de 2017). Should I speak up when I see something offensive or false on social media? The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/14/social-media-fake-offensive-posts-speak-up

Brodnig, I. (7 de noviembre de 2017). 7 types of misinformation in the German election. FirstDraft. Recuperado de https://firstdraftnews.org/7-types-german-election/

Brown, D. [TED-Ed]. (2014, junio 05). ¿Cómo elegir tus noticias? - Damon Brown [Archivo de video]. Recuperado de https://youtu.be/q-Y-z6HmRgI

BuzzFeedVideo (2018, abril 17). You Won't Believe What Obama Says in This Video! [Archivo de video]. Recuperado de https://youtu.be/cQ54GDm1eL0

Chávez, G. (3 de mayo de 2018). 'Fake News Stories', el nuevo enemigo en Facebook. Expansión. Recuperado de https://expansion.mx/tecnologia/2018/05/03/fake-news-stories-el-nuevo-enemigo-en-facebook

Cruz, A. (8 de diciembre de 2017). Universidades de México deben crear observatorio contra falsas noticias. Crónica. Recuperado de http://www.cronica.com.mx/notas/2017/1055821.html

del Barco, L. (30 de abril de 2018). Facebook ya sabe cómo reducir el impacto de las 'fake news'. Hipertextual. Recuperado de https://hipertextual.com/2018/04/facebook-sabe-reducir-impacto-fake-news

DeMers, J. (8 de agosto de 2016). 59 Percent of you will share this article without even reading it. Forbes. Recuperado de https://www.forbes.com/sites/jaysondemers/2016/08/08/59-percent-of-you-will-share-this-article-without-even-reading-it/#33feea0b2a64

Diakopoulos, N. (23 de mayo de 2016). We need to know the algorithms the government uses to make important decisions about us. The Conversation. Recuperado de https://theconversation.com/we-need-to-know-the-algorithms-the-government-uses-to-make-important-decisions-about-us-57869

Edell, A. (11 de enero de 2018). I trained fake news detection AI with >95% accuracy, and almost went crazy. Towards Data Science. Recuperado de https://towardsdatascience.com/i-trained-fake-news-detection-ai-with-95-accuracy-and-almost-went-crazy-d10589aa57c

Excélsior, Redacción (01 de mayo de 2018). Mexicanos deben reducir credulidad ciega en las redes sociales: UNAM. Excélsior. Recuperado de http://www.excelsior.com.mx/nacional/mexicanos-deben-reducir-credulidad-ciega-en-las-redes-sociales-unam/1236087

Facebook (s.f.). Sugerencias para detectar las noticias falsas. Facebook, Servicio de ayuda. Recuperado de https://www.facebook.com/help/188118808357379?ref=shareable

First Draft. (2017, octubre 05). Viral video hoax:pig saves goat [Archivo de video]. Recuperado de https://youtu.be/UbTuA0MAU0s

Fresneda, C. (13 de enero de 2017). La BBC crea un equipo para 'desenmascarar' las noticias falsas. El Mundo. Recuperado de http://www.elmundo.es/television/2017/01/13/5878fd82268e3e112e8b45ca.html

Ghosh, D., y Scott, B. (2018). #DIGITALDECEIT: The Technologies Behind Precision Propaganda on the Internet. Harvard Kennedy School, Shorenstein Center on Media, Politics and Public Policy; New America's Public Interest Technology.

Guerini, M., y Staiano, J. (2015, May). Deep feelings: A massive cross-lingual study on the relation between emotions and virality. In Proceedings of the 24th International Conference on World Wide Web (pp. 299-305). ACM.

Hern, A. (19 de junio de 2017). Facebook and Twitter are being used to manipulate public opinion – report. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/19/social-media-proganda-manipulating-public-opinion-bots-accounts-facebook-twitter

Jackson, J. (12 de enero de 2017). BBC sets up team to debunk fake news. The Guardian. Recuperado de https://www.theguardian.com/media/2017/jan/12/bbc-sets-up-team-to-debunk-fake-news

Jacobs, T. (20 de febrero de 2018). How to immunize yourself against fake news. Pacific Standard. Recuperado de https://psmag.com/news/how-to-immunize-yourself-against-fake-news

Kalogeropoulos, A., Negredo, S., Picone, I., y Nielsen, R. K. (2017). Who Shares and Comments on News?: A Cross-National Comparative Analysis of Online and Social Media Participation. Social Media+ Society, 3 (4), 2056305117735754.

Kelion, L. (22 de junio de 2017). WhatsApp rises as a major force in news media. BBC News. Recuperado de http://www.bbc.com/news/technology-40340830

Kelleher, T. (30 de mayo de 2017). What Universities Can Do About Digital Literacy in the Age of Fake News. MediaShift. Recuperado de http://mediashift.org/2017/05/what-universities-can-do-about-digital-literacy-in-the-age-of-fake-news/

Lazer, D. M., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, J., Nyhan, B., Pennycook, G., Rothschild, D., Schudson, S., Sloman S.A., Sunstein, C.R., Thorson, E., Watts, D.J. y Zittrain, J.L. (2018). The science of fake news. Science, 359 (6380), 1094-1096.

Levin, S. (5 de diciembre de 2017). Google to hire thousands of moderators after outcry over YouTube abuse videos. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/dec/04/google-youtube-hire-moderators-child-abuse-videos

Lewis, P. (2 de febrero de 2018). ‘Fiction is outperforming reality’: how YouTube algorithm distorts truth. The Guardian. Recuperado de https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth

López, F. (2 de mayo de 2018). Si sacas más de 9 en este quiz, eres una máquina para detectar 'fake news'. Buzz Feed News. Recuperado de https://www.buzzfeed.com/fanalopez/quiz-fake-news-2?origin=shp&utm_term=.sfa3D6xJ35#.irMBp2lNBG

Martínez P., D. (18 de diciembre de 2017). Nace la comunidad Maldita para desenmascarar bulos y fake news. Nobbot. Recuperado de https://www.nobbot.com/general/nace-maldita-para-desenmascarar-bulos-y-fake-news/

McCombs, M. (1994). Influencing the pictures in our heads: two dimensions of Agenda-setting. Masu Komyunikeishon Kenkyu (Journal of Mass Communication Studies), 45, 171-181.

McCombs, M. E. y Shaw, D. L. (1972). The agenda-setting function of mass media. Public opinion quarterly, 36 (2), 176-187

Miranda, P. (21 de mayo de 2018). ¿Quieres saber algo de las elecciones? Pregúntale en chatbot a EMI. El Universal. Recuperado de http://www.eluniversal.com.mx/elecciones-2018/quieres-saber-algo-de-las-elecciones-preguntale-en-chatbot-emi

Morris, D.Z. (10 de marzo de 2018). Human Emotion, Not Russians or Bots, Makes Fake News More Viral Than the Truth, Study Finds. Fortune. Recuperado de http://fortune.com/2018/03/10/human-emotion-fakes-news-viral/

Murray, A. (22 de noviembre de 2016). How to report fake news to social media. BBC News. Recuperado de http://www.bbc.com/news/38053324

Pariser, E. [TED]. (2011, mayo 11). Eli Pariser: cuidado con la "burbuja de filtros" en la red. [Archivo de video]. Recuperado de https://youtu.be/B8ofWFx525s

Pichihua, S. (6 de julio de 2016). Buzzfeed busca desenmascarar noticias falsas. ClasesdePeriodismo.com. Recuperado de http://www.clasesdeperiodismo.com/2016/07/06/buzzfeed-busca-desenmascarar-noticias-falsas/

Pregúntale a Emi (chatbot en línea) Recuperado de http://preguntaleaemi.com/

Quartz (2016, abril 06). Nothing is real: How German scientists control Putin's face [Archivo de video]. Recuperado de https://youtu.be/ttGUiwfTYvg

Realinfluencers (7 de marzo de 2017). Fake news: estrategias para enseñar a tus alumnos a seleccionar y contrastar fuentes. Realinfluencers. Recuperado de https://www.realinfluencers.es/2017/03/07/estrategias-para-ensenar-alumnos-contrastar-fuentes/

Rodrigo Alsina, M. (1993). La construcción de la noticia. España: Ediciones Paidós.

Schulten, K. (2 de octubre de 2015). Skills and Strategies / Fake News vs. Real News: Determining the Reliability of Sources. The Learning Network. Recuperado de https://learning.blogs.nytimes.com/2015/10/02/skills-and-strategies-fake-news-vs-real-news-determining-the-reliability-of-sources/

Schwartz, D. H. [TED-Ed]. (2014, abril 28). No todos los estudios científicos son creados de igual forma- David H. Schwartz [Archivo de video]. Recuperado de https://youtu.be/GUpd2HJHUt8

Solon, O. (1 de noviembre de 2017). Americans 'evenly split' over need to regulate Facebook and other big tech. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/oct/31/americans-evenly-split-over-need-to-regulate-facebook-and-other-big-tech

Solon, O. (2 de diciembre de 2016). Fake news detector for Facebook leads to fake news story about who made it. The Guardian. Recuperado de https://www.theguardian.com/technology/2016/dec/02/facebook-fake-news-flag-techcrunch-bs-detector

Solon, O. (29 de junio de 2017a). Counter-terrorism was never meant to be Silicon Valley's job. Is that why it's failing? The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/29/silicon-valley-counter-terrorism-facebook-twitter-youtube-google

Soriana. (2011, mayo 07). Soriana - Detrás de cámaras [Archivo de video]. Recuperado de https://youtu.be/FRfP5SWi4-0

Susarla, A. (20 de mayo de 2018). Cómo puede la inteligencia artificial detectar y crear noticias falsas. El País. Recuperado de https://elpais.com/tecnologia/2018/05/07/actualidad/1525699434_877074.html

Tavlin, N. [TED-Ed]. (2015, agosto 27). ¿Cómo se propagan las noticias falsas? [Archivo de video]. Recuperado de https://youtu.be/cSKGa_7XJkg

The News Literacy Project (s. f.). Ten Questions for Fake News Detection. Recuperado de http://www.thenewsliteracyproject.org/sites/default/files/GO-TenQuestionsForFakeNewsFINAL.pdf

UAEM. (2019). Exploradores de la posverdad: Literacidad informacional vs. Noticias falsas. [MOOC]. MéxicoX

UNESCO y Athabasca University. (2019). Alfabetismo mediático e informacional (UAEM, Trad. y Adap.) [MOOC]. MéxicoX. https://www.mexicox.gob.mx/courses/course-v1:UAEM+AMEI21042X+2021_04/about (Trabajo original publicado en 2015)

UNESCO (2017). The Media: Operation Decontamination. The UNESCO Courier, Julio-Septiembre 2017, No. 2.

UNESCO (2020). Periodismo, "Noticias falsas" & Desinformación. Manual de Educación y Capacitación en Periodismo. República Dominicana: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.

Vázquez-Herrero, J., Vizoso, A. y López-García, X. (2019). Innovación tecnológica y comunicativa para combatir la desinformación: 135 experiencias para un cambio de rumbo. El profesional de la información, 28 (3). https://doi.org/10.3145/epi.2019.may.01

Vincent, J. (17 de abril de 2017). Watch Jordan Peele use AI to make Barack Obama deliver a PSA about fake news. The Verge. Recuperado de https://www.theverge.com/tldr/2018/4/17/17247334/ai-fake-news-video-barack-obama-jordan-peele-buzzfeed

Vosoughi, S., Roy, D., y Aral, S. (2018). The spread of true and false news online. Science, 359 (6380), 1146-1151.

Wakefield, J. (2 de diciembre de 2016). Fake news detector plug-in developed. BBC News. Recuperado de http://www.bbc.com/news/technology-38181158

Wardle, C. (16 de febrero de 2017). Fake news. It's complicated. First Draft. Recuperado de https://firstdraftnews.org/fake-news-complicated/

York College of Pennsylvania (2020). Deepfakes. Recuperado de https://library.ycp.edu/c.php?g=935163&p=6756490

Zou, J. (25 de septiembre de 2016). Removing gender bias from algorithms. The Conversation. Recuperado de https://theconversation.com/removing-gender-bias-from-algorithms-64721



¡Muy bien! Has terminado la revisión del texto interactivo

Te invitamos a continuar con las actividades de la semana.