|
|
|
Te recomendamos consultar el texto interactivo de principio a fin por lo menos una vez, aunque puedes acceder a él las veces que lo desees. |
Mecanismos que contribuyen a malinformar/desinformar
Contenido
1. Mecanismos humanos que se usan para crear información falsa
Lo primero que debemos identificar es que no hay un solo tipo de información falsa, ya que esta puede presentar diferentes formas. A continuación, te presentamos una propuesta de tipología que devela las manifestaciones y los propósitos de este tipo de información.
Berduygina, Vladimirova y Chernyaeva (2019) ofrecen otras posibles formas de clasificar la información engañosa a partir de los criterios que te presentamos a continuación:
1. a. Criterios de clasificación de información engañosa
| Criterio de clasificación | Descripción |
|
Proporción de verdad o falsedad en la información |
|
|
Autenticidad de circunstancias, tiempo y lugar que caracterizan el evento |
|
|
Personas presentadas en la información |
|
|
Posibles motivadores para la creación y difusión |
|
|
Percepción de autenticidad |
|
Basamos nuestras decisiones en la información que consumimos. Quienes construyen y diseminan las noticias, legítimas o falsas, cuentan con que estas impactarán en nuestras acciones. Las noticias pueden inclinarnos a votar por un candidato en lugar de otro, o bien, pueden cambiar nuestra opinión respecto al más reciente estreno cinematográfico o a la efectividad de un medicamento. Hay información que elegimos incorporar a nuestras creencias y otra que descartamos. Lo importante es que tales decisiones sean conscientes, informadas, críticas y no viscerales.
La desinformación y malinformación que nos rodea pueden deberse a diferentes razones y obedecer a distintas agendas, pero en todos los casos, si optamos por creer datos distorsionados o inventados, estaremos en riesgo de tomar decisiones equivocadas. Para comprender mejor el impacto que buscan algunos agentes que generan información falsa o distorsionada, a continuación, te presentamos una matriz que presenta las principales razones que motivan a dichos agentes y el tipo de piezas de contenido que utilizan.
1. b. Matriz de la desinformación/malinformación
Berduygina, Vladimirova y Chernyaeva (2019) ofrecen una propuesta adicional de las metas y motivaciones que pueden movilizar a entidades y personas a crear y/o circular información engañosa:
2. Mecanismos automatizados que se usan para controlar los flujos de información en internet
Mecanismos y agentes de viralización de noticias. El fenómeno social denominado fake news, o noticias falsas, no puede ser analizado solamente a la luz de su contenido, pues, en parte, está construido por sus lógicas de flujo y circulación. Si un blog dice que el Papa Francisco visitará la Luna es solo una mentira, pero si esa información se disemina aceleradamente, es decir, se vuelve viral, entonces puede decirse que se trata de una noticia falsa o fake news. Por tanto, este fenómeno es la combinación de contenidos y de dinámicas de dispersión.
Se dice que una noticia, verdadera o falsa, es viral cuando circula rápidamente a través de internet y de las redes sociales en línea.
En este apartado revisaremos brevemente los principales mecanismos y agentes que propician la propagación de información de todo tipo, incluidas las noticias falsas.
2. a. Recolección de datos conductuales (behavioral data collection)
Originalmente los mecanismos y las herramientas de rastreo de usuarias y usuarios en línea fueron desarrollados por la industria publicitaria con el fin de ofrecer anuncios “a la medida” de sus gustos y necesidades. Esta tecnología se conoce como ‘rastreo’ o tracking y su forma más conocida son las llamadas cookies, mismas que se depositan en los navegadores y que recaban y envían información de lo que un usuario o una usuaria hace en línea… es decir, qué sitios visita, qué información busca, etc.
Cuando una persona visita un sitio web puede encontrar dos tipos de cookies: las propias del sitio (first party cookies) y las de sus anunciantes (third party cookies).
Los mecanismos de rastreo establecen los perfiles de los usuarios y las usuarias (preferencias, intereses, creencias) y los usan para dirigirles información específica.
Dado que violan la privacidad, en muchos países es obligatorio que los sitios desplieguen una advertencia respecto al uso de cookies y que cada usuaria o usuario las acepte explícita o tácitamente.
Otro mecanismo de rastreo es el web beacon o beacon, compuesto por objetos de programación que se insertan en una página web. Generalmente, un tercero paga por instalar su beacon en páginas de alto tráfico. Cuando el usuario o la usuaria carga la página, el tercero recibe una señal y manda su beacon para rastrear su actividad en dicha página.
Algunas de las herramientas más usadas en el rastreo son Google Adsense, DoubleClick, Google Analytics, Gravatar, Wordpress Stats y Facebook Connect. Si bien muchas de estas herramientas son usadas por anunciantes, también están siendo empleadas por quienes diseminan noticias falsas con diferentes propósitos.
Un problema importante con los rastreadores y los filtros de redes sociales que analizan el comportamiento de las usuarias y los usuarios para proveerles de contenido personalizado, es que terminan confinándolos a una “burbuja” de opiniones sociales y políticas que se reciclan en sí mismas, generando lo que se conoce como filter bubble o echo chambers.
Te invitamos a ver el siguiente video, en el cual Eli Pariser se refiere a este fenómeno como la burbuja de filtros y explica cómo funciona y por qué es importante que el filtrado de nuestros contenidos sea transparente y podamos tener agencia1 al momento de decidir cuál contenido nos interesa y cuál no.
1 Se usa la palabra ‘agencia’ en su sentido filosófico, como la habilidad de tomar acción o de elegir qué acción tomar.
2. b. Trolls, bots> y “sock-puppets”
Además de los mecanismos humanos y automatizados para crear y dispersar información falsa revisados previamente, otro que se usa son las identidades falsas para desviar e influir en la opinión pública, vía las redes sociales.
Los trolls pueden ser seres humanos, generalmente pagados, o bots (robots), cuyos blancos a menudo son cuentas de Twitter de líderes de opinión a quienes buscan descalificar. Su estrategia es publicar mensajes provocadores para generar respuestas emocionales negativas.
Diferentes estudios han revisado cuentas de trollers en torno a procesos electorales y han detectado, por ejemplo, que es común que tengan perfiles similares entre sí, que compartan seguidores y que sus cuentas hayan sido creadas en fechas iguales o cercanas, lo que permite identificarlos como cuentas títere (sock-puppet) generadas con el único fin de agredir a blancos específicos. Cabe aclarar que no todas las cuentas de trollers son cuentas títere.
Los bots (nombre corto para robots) son programas que pueden comportarse como seres humanos en las redes sociales, interactuando con la información para compartir y generar reacciones. Esto permite hacer que una noticia parezca ser muy popular, aunque dicha popularidad esté sostenida por un montón de usuarias y usuarios falsos.
Se estima que entre el 9 y el 15 % de las cuentas activas de Twitter son bots (Bounegru, L. et al., 2017). Una publicación del prestigiado diario inglés The Guardian reporta que en Rusia 45 % de las cuentas más activas en Twitter son bots (Hern, 2017). Un artículo de Lazer, D.M.J. et al. (2018) indica que se estima una población de 60 millones de bots entre quienes usan Facebook. Una noticia en el diario Excélsior (2018) reporta que Instagram también tiene un elevado número de usuarias y usuarios ‘fantasma’.
Para conocer más sobre el impacto de los bots, te invitamos a revisar la siguiente nota sobre un mexicano que ha generado una empresa para difundir en las redes sociales información que no es verdadera o que responde a lo que el cliente solicita.
2. c. Manipulación de buscadores
Dado que Google es el buscador más usado en numerosos países, una táctica importante para las campañas de malinformación y desinformación ha sido manipular el algoritmo de búsqueda de dicho motor mediante técnicas conocidas como black hat SEO (SEO son las siglas de search engine optimization). Estas técnicas se diseñaron para engañar al algoritmo del famoso buscador y dominar los resultados de la búsqueda por unas horas, antes de que Google corrija la distorsión. Quienes usan estas estrategias intentan llevar sus contenidos a los primeros resultados de las búsquedas.
Es preocupante saber que hay agentes tratando de engañar al algoritmo de búsqueda de Google para posicionar información falsa. Sin embargo, es más preocupante aún que, de origen, el algoritmo de un sitio web tan popular como YouTube esté orientado a privilegiar contenido sesgado y/o conspirativo. Un artículo publicado en The Guardian (Lewis, 2018) afirma que el algoritmo de YouTube está diseñado para distorsionar la realidad, por tanto, habría que revisar con ojo crítico los videos que nos presenta como los más populares o recomendados.
Además de las técnicas black hat (sombrero negro), hay técnicas más legítimas que también pueden engañar al algoritmo de Google. Estas técnicas se basan en tres características que Google valora:
2. d. Gestores de redes sociales
Dando continuidad a la información del inciso a) Recolección de datos conductuales (behavioral data collection), otra estrategia para perfilar a usuarias y usuarios es el uso de los llamados Social Media Management Services (SMMS) o ‘gestores de redes sociales’, los cuales usan las analíticas de datos de usuarias y usuarios de redes sociales para dirigirles los mensajes correctos en el tiempo correcto, a través de canales múltiples y en forma simultánea y automática.
Algunas firmas que ofrecen estos servicios son Hootsuite, Sprinklr, Hubspot y Sprout Social. Estas soluciones informáticas buscan una mayor automatización en la gestión de contenidos publicitarios en las redes sociales para que los grandes anunciantes puedan gestionar sus campañas sin necesidad de gestores humanos. Esto se basa en inteligencia artificial, también llamada machine learning.
Como otras herramientas enumeradas en este apartado, estos gestores fueron creados para la industria publicitaria, pero también están al servicio de dispersores de noticias falsas.
3. Mecanismos basados en inteligencia artificial para crear información visual y audiovisual falsa
Desafortunadamente, el uso de la tecnología no se limita a controlar los flujos de la información en la red. Recientemente se ha empezado a usar la inteligencia artificial para crear material engañoso que es muy convincente.
Los sistemas de aprendizaje automático están demostrando una espeluznante capacidad para crear lo que se denomina deepfakes (falsificaciones profundas): fotos y videos que sustituyen de manera realista el rostro de una persona por el de otra para que parezca, por ejemplo, que alguien famoso ha sido fotografiado en una situación comprometedora o que una figura pública está diciendo cosas que en realidad nunca diría (Susarla, 2018).
Revisemos esta fotografía. ¿Notas algo extraño? En ella hay tres figuras de la política estadounidense que son afrodescendientes: Malcolm X, el expresidente Obama y Martin Luther King. Resulta imposible que aparezcan juntas en una imagen, pues Malcolm X murió en 1965 y Martin Luther King en 1968; además, en los sesenta Obama era apenas un niño, por lo que tendría que haber viajado en el tiempo para fotografiarse al lado de los otros dos emblemáticos personajes.
Las fotografías manipuladas han existido casi desde el comienzo de la propia técnica fotográfica. Sin embargo, con el avance tecnológico y la aparición de programas como Photoshop, la edición fotográfica se ha vuelto más sofisticada y la creación de imágenes manipuladas es cada vez más común y accesible.
Para entender cómo se manipulan imágenes en movimiento para crear los llamados deepfake, te invitamos a ver los siguientes videos: en el primero, el expresidente Barack Obama dice cosas que nunca diría; en el segundo, se muestra cómo se puede manipular la gesticulación del rostro. La máxima “ver para creer” ha quedado, sin duda, superada por estos programas:
Como contenido bonus, te compartimos un deepfake creado por la industria publicitaria para la cadena mexicana de supermercados Soriana, en el que, literalmente, revivieron al famoso Cantinflas:
4. Referencias bibliográficas
Allen, A. (14 de febrero de 2017). Fake news stories promote a movie about a fake spa. Político. Recuperado de https://www.politico.com/story/2017/02/fake-news-movie-cure-wellness-235017
Ames, C. (2 de mayo de 2018). Fake News Detectors. The Sage Colleges. Recuperado de https://www.sage.edu/about/leadership/presidents-office/blog/fake-news-detectors/
AP (26 de diciembre de 2017). Inventan detector de 'fake news'. Reforma. Recuperado de https://www.reforma.com/aplicacioneslibre/articulo/default.aspx?id=1286948&md5=d8584e1aec6fc716cdf4159fbca768d7&ta=0dfdbac11765226904c16cb9ad1b2efe
Bach, N. (8 de marzo de 2018). Facebook has enlisted the help of this news agency to debunk fake news during midterm elections. Fortune. Recuperado de http://fortune.com/2018/03/08/ap-associated-press-fact-checkers-facebook-fake-news-midterm-elections/
Bad News (juego en línea). Recuperado de https://www.getbadnews.com/
BBC News (15 de junio de 2017). Prices for fake news campaigns revealed. Recuperado de http://www.bbc.com/news/technology-40287399
Belam, M. (15 de noviembre de 2017). Falling for the joke: the risk of using Twitter as a news source. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/nov/15/falling-for-the-joke-the-risk-of-using-twitter-as-a-news-source
Berduygina, O.N., Vladimirova, T.N. y Chernyaeva E.V. (2019).Trends in the Spread of Fake News in Mass Media. Media Watch 10 (1), p. 122-132. DOI: 10.15655/mw/2019/v10i1/49561
Bounegru, L., Gray, J., Venturini, T. y Mauri, M. (2017). A Field Guide to “Fake News” and other information disorders. Amsterdam: Public Data Lab.
Brockes, E. (14 de junio de 2017). Should I speak up when I see something offensive or false on social media? The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/14/social-media-fake-offensive-posts-speak-up
Brodnig, I. (7 de noviembre de 2017). 7 types of misinformation in the German election. FirstDraft. Recuperado de https://firstdraftnews.org/7-types-german-election/
Brown, D. [TED-Ed]. (2014, junio 05). ¿Cómo elegir tus noticias? - Damon Brown [Archivo de video]. Recuperado de https://youtu.be/q-Y-z6HmRgI
BuzzFeedVideo (2018, abril 17). You Won't Believe What Obama Says in This Video! [Archivo de video]. Recuperado de https://youtu.be/cQ54GDm1eL0
Chávez, G. (3 de mayo de 2018). 'Fake News Stories', el nuevo enemigo en Facebook. Expansión. Recuperado de https://expansion.mx/tecnologia/2018/05/03/fake-news-stories-el-nuevo-enemigo-en-facebook
Cruz, A. (8 de diciembre de 2017). Universidades de México deben crear observatorio contra falsas noticias. Crónica. Recuperado de http://www.cronica.com.mx/notas/2017/1055821.html
del Barco, L. (30 de abril de 2018). Facebook ya sabe cómo reducir el impacto de las 'fake news'. Hipertextual. Recuperado de https://hipertextual.com/2018/04/facebook-sabe-reducir-impacto-fake-news
DeMers, J. (8 de agosto de 2016). 59 Percent of you will share this article without even reading it. Forbes. Recuperado de https://www.forbes.com/sites/jaysondemers/2016/08/08/59-percent-of-you-will-share-this-article-without-even-reading-it/#33feea0b2a64
Diakopoulos, N. (23 de mayo de 2016). We need to know the algorithms the government uses to make important decisions about us. The Conversation. Recuperado de https://theconversation.com/we-need-to-know-the-algorithms-the-government-uses-to-make-important-decisions-about-us-57869
Edell, A. (11 de enero de 2018). I trained fake news detection AI with >95% accuracy, and almost went crazy. Towards Data Science. Recuperado de https://towardsdatascience.com/i-trained-fake-news-detection-ai-with-95-accuracy-and-almost-went-crazy-d10589aa57c
Excélsior, Redacción (01 de mayo de 2018). Mexicanos deben reducir credulidad ciega en las redes sociales: UNAM. Excélsior. Recuperado de http://www.excelsior.com.mx/nacional/mexicanos-deben-reducir-credulidad-ciega-en-las-redes-sociales-unam/1236087
Facebook (s.f.). Sugerencias para detectar las noticias falsas. Facebook, Servicio de ayuda. Recuperado de https://www.facebook.com/help/188118808357379?ref=shareable
First Draft. (2017, octubre 05). Viral video hoax:pig saves goat [Archivo de video]. Recuperado de https://youtu.be/UbTuA0MAU0s
Fresneda, C. (13 de enero de 2017). La BBC crea un equipo para 'desenmascarar' las noticias falsas. El Mundo. Recuperado de http://www.elmundo.es/television/2017/01/13/5878fd82268e3e112e8b45ca.html
Ghosh, D., y Scott, B. (2018). #DIGITALDECEIT: The Technologies Behind Precision Propaganda on the Internet. Harvard Kennedy School, Shorenstein Center on Media, Politics and Public Policy; New America's Public Interest Technology.
Guerini, M., y Staiano, J. (2015, May). Deep feelings: A massive cross-lingual study on the relation between emotions and virality. In Proceedings of the 24th International Conference on World Wide Web (pp. 299-305). ACM.
Hern, A. (19 de junio de 2017). Facebook and Twitter are being used to manipulate public opinion – report. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/19/social-media-proganda-manipulating-public-opinion-bots-accounts-facebook-twitter
Jackson, J. (12 de enero de 2017). BBC sets up team to debunk fake news. The Guardian. Recuperado de https://www.theguardian.com/media/2017/jan/12/bbc-sets-up-team-to-debunk-fake-news
Jacobs, T. (20 de febrero de 2018). How to immunize yourself against fake news. Pacific Standard. Recuperado de https://psmag.com/news/how-to-immunize-yourself-against-fake-news
Kalogeropoulos, A., Negredo, S., Picone, I., y Nielsen, R. K. (2017). Who Shares and Comments on News?: A Cross-National Comparative Analysis of Online and Social Media Participation. Social Media+ Society, 3 (4), 2056305117735754.
Kelion, L. (22 de junio de 2017). WhatsApp rises as a major force in news media. BBC News. Recuperado de http://www.bbc.com/news/technology-40340830
Kelleher, T. (30 de mayo de 2017). What Universities Can Do About Digital Literacy in the Age of Fake News. MediaShift. Recuperado de http://mediashift.org/2017/05/what-universities-can-do-about-digital-literacy-in-the-age-of-fake-news/
Lazer, D. M., Baum, M. A., Benkler, Y., Berinsky, A. J., Greenhill, K. M., Menczer, F., Metzger, J., Nyhan, B., Pennycook, G., Rothschild, D., Schudson, S., Sloman S.A., Sunstein, C.R., Thorson, E., Watts, D.J. y Zittrain, J.L. (2018). The science of fake news. Science, 359 (6380), 1094-1096.
Levin, S. (5 de diciembre de 2017). Google to hire thousands of moderators after outcry over YouTube abuse videos. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/dec/04/google-youtube-hire-moderators-child-abuse-videos
Lewis, P. (2 de febrero de 2018). ‘Fiction is outperforming reality’: how YouTube algorithm distorts truth. The Guardian. Recuperado de https://www.theguardian.com/technology/2018/feb/02/how-youtubes-algorithm-distorts-truth
López, F. (2 de mayo de 2018). Si sacas más de 9 en este quiz, eres una máquina para detectar 'fake news'. Buzz Feed News. Recuperado de https://www.buzzfeed.com/fanalopez/quiz-fake-news-2?origin=shp&utm_term=.sfa3D6xJ35#.irMBp2lNBG
Martínez P., D. (18 de diciembre de 2017). Nace la comunidad Maldita para desenmascarar bulos y fake news. Nobbot. Recuperado de https://www.nobbot.com/general/nace-maldita-para-desenmascarar-bulos-y-fake-news/
McCombs, M. (1994). Influencing the pictures in our heads: two dimensions of Agenda-setting. Masu Komyunikeishon Kenkyu (Journal of Mass Communication Studies), 45, 171-181.
McCombs, M. E. y Shaw, D. L. (1972). The agenda-setting function of mass media. Public opinion quarterly, 36 (2), 176-187
Miranda, P. (21 de mayo de 2018). ¿Quieres saber algo de las elecciones? Pregúntale en chatbot a EMI. El Universal. Recuperado de http://www.eluniversal.com.mx/elecciones-2018/quieres-saber-algo-de-las-elecciones-preguntale-en-chatbot-emi
Morris, D.Z. (10 de marzo de 2018). Human Emotion, Not Russians or Bots, Makes Fake News More Viral Than the Truth, Study Finds. Fortune. Recuperado de http://fortune.com/2018/03/10/human-emotion-fakes-news-viral/
Murray, A. (22 de noviembre de 2016). How to report fake news to social media. BBC News. Recuperado de http://www.bbc.com/news/38053324
Pariser, E. [TED]. (2011, mayo 11). Eli Pariser: cuidado con la "burbuja de filtros" en la red. [Archivo de video]. Recuperado de https://youtu.be/B8ofWFx525s
Pichihua, S. (6 de julio de 2016). Buzzfeed busca desenmascarar noticias falsas. ClasesdePeriodismo.com. Recuperado de http://www.clasesdeperiodismo.com/2016/07/06/buzzfeed-busca-desenmascarar-noticias-falsas/
Pregúntale a Emi (chatbot en línea) Recuperado de http://preguntaleaemi.com/
Quartz (2016, abril 06). Nothing is real: How German scientists control Putin's face [Archivo de video]. Recuperado de https://youtu.be/ttGUiwfTYvg
Realinfluencers (7 de marzo de 2017). Fake news: estrategias para enseñar a tus alumnos a seleccionar y contrastar fuentes. Realinfluencers. Recuperado de https://www.realinfluencers.es/2017/03/07/estrategias-para-ensenar-alumnos-contrastar-fuentes/
Rodrigo Alsina, M. (1993). La construcción de la noticia. España: Ediciones Paidós.
Schulten, K. (2 de octubre de 2015). Skills and Strategies / Fake News vs. Real News: Determining the Reliability of Sources. The Learning Network. Recuperado de https://learning.blogs.nytimes.com/2015/10/02/skills-and-strategies-fake-news-vs-real-news-determining-the-reliability-of-sources/
Schwartz, D. H. [TED-Ed]. (2014, abril 28). No todos los estudios científicos son creados de igual forma- David H. Schwartz [Archivo de video]. Recuperado de https://youtu.be/GUpd2HJHUt8
Solon, O. (1 de noviembre de 2017). Americans 'evenly split' over need to regulate Facebook and other big tech. The Guardian. Recuperado de https://www.theguardian.com/technology/2017/oct/31/americans-evenly-split-over-need-to-regulate-facebook-and-other-big-tech
Solon, O. (2 de diciembre de 2016). Fake news detector for Facebook leads to fake news story about who made it. The Guardian. Recuperado de https://www.theguardian.com/technology/2016/dec/02/facebook-fake-news-flag-techcrunch-bs-detector
Solon, O. (29 de junio de 2017a). Counter-terrorism was never meant to be Silicon Valley's job. Is that why it's failing? The Guardian. Recuperado de https://www.theguardian.com/technology/2017/jun/29/silicon-valley-counter-terrorism-facebook-twitter-youtube-google
Soriana. (2011, mayo 07). Soriana - Detrás de cámaras [Archivo de video]. Recuperado de https://youtu.be/FRfP5SWi4-0
Susarla, A. (20 de mayo de 2018). Cómo puede la inteligencia artificial detectar y crear noticias falsas. El País. Recuperado de https://elpais.com/tecnologia/2018/05/07/actualidad/1525699434_877074.html
Tavlin, N. [TED-Ed]. (2015, agosto 27). ¿Cómo se propagan las noticias falsas? [Archivo de video]. Recuperado de https://youtu.be/cSKGa_7XJkg
The News Literacy Project (s. f.). Ten Questions for Fake News Detection. Recuperado de http://www.thenewsliteracyproject.org/sites/default/files/GO-TenQuestionsForFakeNewsFINAL.pdf
UAEM. (2019). Exploradores de la posverdad: Literacidad informacional vs. Noticias falsas. [MOOC]. MéxicoX
UNESCO y Athabasca University. (2019). Alfabetismo mediático e informacional (UAEM, Trad. y Adap.) [MOOC]. MéxicoX. https://www.mexicox.gob.mx/courses/course-v1:UAEM+AMEI21042X+2021_04/about (Trabajo original publicado en 2015)
UNESCO (2017). The Media: Operation Decontamination. The UNESCO Courier, Julio-Septiembre 2017, No. 2.
UNESCO (2020). Periodismo, "Noticias falsas" & Desinformación. Manual de Educación y Capacitación en Periodismo. República Dominicana: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
Vázquez-Herrero, J., Vizoso, A. y López-García, X. (2019). Innovación tecnológica y comunicativa para combatir la desinformación: 135 experiencias para un cambio de rumbo. El profesional de la información, 28 (3). https://doi.org/10.3145/epi.2019.may.01
Vincent, J. (17 de abril de 2017). Watch Jordan Peele use AI to make Barack Obama deliver a PSA about fake news. The Verge. Recuperado de https://www.theverge.com/tldr/2018/4/17/17247334/ai-fake-news-video-barack-obama-jordan-peele-buzzfeed
Vosoughi, S., Roy, D., y Aral, S. (2018). The spread of true and false news online. Science, 359 (6380), 1146-1151.
Wakefield, J. (2 de diciembre de 2016). Fake news detector plug-in developed. BBC News. Recuperado de http://www.bbc.com/news/technology-38181158
Wardle, C. (16 de febrero de 2017). Fake news. It's complicated. First Draft. Recuperado de https://firstdraftnews.org/fake-news-complicated/
York College of Pennsylvania (2020). Deepfakes. Recuperado de https://library.ycp.edu/c.php?g=935163&p=6756490
Zou, J. (25 de septiembre de 2016). Removing gender bias from algorithms. The Conversation. Recuperado de https://theconversation.com/removing-gender-bias-from-algorithms-64721
|
¡Muy bien! Has terminado la revisión del texto interactivoTe invitamos a continuar con las actividades de la semana. |