Saltar al contenido
Deberes escolares » Charlas educativas » Cómo proteger la verdad en la era de la desinformación – Charla TEDxCERN

Cómo proteger la verdad en la era de la desinformación – Charla TEDxCERN

Charla «Cómo proteger la verdad en la era de la desinformación» de TEDxCERN en español.

Las noticias falsas pueden influir en las elecciones, arruinar las economías y sembrar la discordia en la vida cotidiana. El experto en datos Sinan Aral desmitifica cómo y por qué se difunden tan rápidamente, para lo cual cita uno de los mayores estudios sobre desinformación, e identifica cinco estrategias para ayudarnos a desentrañar la enredada red entre lo verdadero y lo falso.

  • Autor/a de la charla: Sinan Aral
  • Fecha de grabación: 2018-11-20
  • Fecha de publicación: 2019-12-17
  • Duración de «Cómo proteger la verdad en la era de la desinformación»: 903 segundos

 

Traducción de «Cómo proteger la verdad en la era de la desinformación» en español.

El 23 de abril de 2013, Associated Press puso el siguiente tuit en Twitter.

Decía: «Noticia de última hora: dos explosiones en la Casa Blanca.

Barack Obama ha resultado herido».

Este tuit fue retuiteado 4000 veces en menos de cinco minutos, y se hizo viral a partir de ese instante.

Ahora bien, este tuit no fue una noticia verdadera difundida por la agencia Associated Press.

En realidad, fue una noticia falsa, propagada por ‘hackers’ sirios que se habían hecho con el control del Twitter de Associated Press.

Su objetivo era alterar a la sociedad, pero alteraron mucho más, porque los algoritmos automatizados de negociación inmediatamente interpretaron la sensibilidad de este tuit, y comenzaron a operar en base a la posibilidad de que el presidente de los EE.

UU.

hubiese sido herido o asesinado en esa explosión.

Y cuando empezaron a tuitear, hicieron que el mercado de valores se desplomara al instante, y se perdieron 140 mil millones de dólares en valor bursátil en un solo día.

Robert Mueller, consejero y fiscal especial de los Estados Unidos, acusó penalmente a tres compañías rusas y a 13 individuos rusos de conspirar para cometer fraude contra los Estados Unidos al entrometerse en las elecciones presidenciales de 2016.

Lo que esta acusación deja al descubierto es la historia de la Agencia de Investigación de Internet, el oscuro brazo del Kremlin en las redes sociales.

Solo en las elecciones presidenciales, los intentos de la Agencia de Internet llegaron a 126 millones de personas en Facebook en los Estados Unidos, emitieron tres millones de tuits individuales y 43 horas de contenido de YouTube.

Todo lo cual era falso, desinformación diseñada para meter cizaña en la elección presidencial de EE.

UU.

Un estudio reciente realizado por la Universidad de Oxford mostró que en las últimas elecciones suecas, un tercio de toda la información que se difundió en las redes sociales sobre las elecciones era falsa o incorrecta.

Además, este tipo de campañas de desinformación en redes sociales pueden difundir lo que se ha llamado «propaganda genocida», por ejemplo contra los rohingya en Burma, que desencadenó linchamientos en la India.

Estudiamos las noticias falsas y comenzamos a hacerlo antes de que fuera un término popular.

Y hemos publicado recientemente el estudio longitudinal más grande jamás realizado sobre la difusión de noticias falsas en línea en la portada de la revista «Science» en marzo de este año.

Estudiamos todas las noticias verificadas como verdaderas y falsas que se propagaron por Twitter, desde su creación en 2006 hasta 2017.

Y cuando estudiamos esta información, tomamos las noticias verificadas y revisadas por seis organizaciones independientes de comprobación de datos.

Así que sabíamos cuáles eran ciertas y cuáles falsas.

Podemos medir su difusión, la velocidad de su difusión, el alcance de su difusión, cuántas personas se enredan en esta cascada de información, etc.

Y lo que hicimos en esta investigación fue comparar la propagación de noticias verdaderas con las falsas.

Y estos son los resultados.

Hallamos que una noticia falsa llega más lejos, más rápido y tiene más alcance que la verdadera en todas las categorías de información que hemos estudiado, a veces en un orden de magnitud.

Y las noticias falsas en el ámbito de la política fueron las más virales.

Se difunden más lejos, más rápido, y tienen mayor alcance que cualquier otro tipo de noticias falsas.

Cuando vimos esto, sentimos a la vez preocupación y curiosidad.

¿Por qué? ¿Por qué las noticias falsas llegan más lejos, más rápido, y tienen mayor alcance que la verdad? La primera hipótesis que se nos ocurrió fue: «Bueno, tal vez quienes difunden noticias falsas tienen más seguidores o siguen a más gente, o tuitean con más frecuencia, o tal vez son más usuarios ‘verificados’ de Twitter, con más credibilidad, o tal vez han estado en Twitter más tiempo».

Así que inspeccionamos cada uno de estos casos.

Y lo que encontramos fue exactamente lo contrario.

Quienes difundían noticias falsas tenían menos seguidores, seguían a menos gente, eran menos activos, eran usuarios poco «verificados» y habían estado en Twitter por un período de tiempo más corto.

Y sin embargo, las noticias falsas eran un 70 % más propensas a ser retuiteadas, teniendo en cuenta estos y muchos otros factores.

Así que tuvimos que buscar otras explicaciones.

E ideamos lo que llamamos «hipótesis de la novedad».

Si leemos documentaciones sobre el tema, es bien sabido que la atención humana se siente atraída por la novedad, cosas que son nuevas en el entorno.

Y si leemos la literatura sociológica, veremos que nos gusta compartir información novedosa.

Sentimos que tenemos acceso a información privilegiada, y ganamos estatus mediante la difusión de este tipo de información.

Decidimos entonces medir la novedad de un tuit verdadero o falso, en comparación con el corpus de lo que esa persona había visto en Twitter los 60 días anteriores.

Pero no fue suficiente, porque pensamos: «Bueno, quizá las noticias falsas son más novedosas en un sentido teórico, pero tal vez la gente no las percibe como más novedosas».

Así que para entender cómo la gente percibe las noticias falsas, nos fijamos en la información y el componente afectivo de las respuestas a los tuits verdaderos y falsos.

Y lo que detectamos fue que, teniendo en cuenta un montón de sentimientos diferentes, como sorpresa, disgusto, miedo, tristeza, expectativa, alegría y confianza, las noticias falsas generaron significativamente más sorpresa y disgusto en las respuestas a los falsos tuits.

Y las noticias verdaderas mostraron significativamente más expectativas, alegría y confianza en respuesta a los tuits verdaderos.

La sorpresa corrobora nuestra hipótesis de la novedad.

Esto es nuevo y sorprendente, por lo que es más fácil que se comparta.

Al mismo tiempo, hubo testimonios ante el Congreso en las dos cámaras parlamentarias de los Estados Unidos sobre el papel de los robots en la propagación de información errónea.

Así que consideramos esto también.

Utilizamos múltiples algoritmos complejos de rastreo para encontrar los robots en nuestros datos y sacarlos.

Los sacamos, los volvimos a poner y comparamos lo que sucede con nuestras mediciones.

Descubrimos que, efectivamente, los robots aceleraban la propagación de noticias falsas en línea, pero aceleraban la propagación de las verdaderas aproximadamente a la misma velocidad.

Lo que significa que los robots no son los responsables de la difusión diferencial de la verdad y la mentira en línea.

No podemos renunciar a esa responsabilidad, porque nosotros, los seres humanos, somos responsables de esa propagación.

Ahora bien, todo lo que les he dicho hasta el momento, por desgracia para todos nosotros, es la buena noticia.

La razón es que está a punto de ponerse mucho peor.

Y dos tecnologías específicas van a empeorar la situación.

Vamos a presenciar el aumento de una tremenda ola de medios sintéticos.

Video falso, audio falso, muy convincentes para el ojo humano.

Y esto será impulsado por dos tecnologías.

La primera es conocida como «redes de confrontación generativas».

Es un modelo de aprendizaje automático con dos redes: un discriminador, cuyo trabajo es determinar si algo es verdadero o falso, y un generador, cuyo trabajo es generar medios sintéticos.

El generador sintético genera un video o audio sintético, y el discriminador trata de distinguir si es verdadero o falso.

Y, de hecho, el trabajo del generador es maximizar la probabilidad de engañar al discriminador para que crea que el video y el audio sintéticos que está creando son realmente ciertos.

Imaginen una máquina en un Hyperloop, que se perfecciona más y más con el fin de engañarnos.

Esto, combinado con la segunda tecnología, que es esencialmente la democratización de la inteligencia artificial, la capacidad de cualquier persona, sin ningún tipo de experiencia en inteligencia artificial o aprendizaje automático, de implementar este tipo de algoritmos para generar los medios sintéticos hace que, en última instancia, sea mucho más fácil crear videos.

La Casa Blanca emitió el video falso y adulterado de una pasante que intentaba sacarle el micrófono a un periodista.

Eliminaron fotogramas de este video para que las acciones del periodista pareciesen más violentas.

Y cuando camarógrafos y dobles fueron consultados acerca de este tipo de técnica, dijeron: «Sí, siempre lo hacemos en las películas para que nuestros puñetazos y patadas parezcan más rápidos y agresivos».

Entonces mostraron este video y lo utilizaron parcialmente como excusa para denegar el acceso de Jim Acosta como periodista a la Casa Blanca.

Y la CNN tuvo que demandarlos para regresarle su pase de prensa.

Hay unos cinco modos diferentes que se me ocurren para tratar de abordar algunos de estos problemas difíciles hoy en día.

Cada uno es prometedor, pero tiene sus propios desafíos.

El primero es el etiquetado.

Piénsenlo de esta manera: cuando van a la tienda para comprar alimentos, está todo etiquetado.

Saben la cantidad de calorías que tiene, la cantidad de grasa que contiene, pero, cuando consumimos información, no tenemos etiquetas de ningún tipo.

¿Qué contiene esta información? ¿Es creíble la fuente? ¿De dónde se obtuvo esta información? No tenemos ninguno de esos datos cuando consumimos información.

Esa es una vía potencial, pero viene con sus desafíos.

Por ejemplo, ¿quién decide en la sociedad lo que es cierto y lo que es falso? ¿Son los gobiernos? ¿Es Facebook? ¿Es un consorcio independiente de verificadores? ¿Y quién controla a los verificadores? Otra vía potencial son los incentivos.

Sabemos que durante la elección presidencial de EE.

UU.

se produjo una oleada de información falsa que procedía de Macedonia.

No tenía ningún fin político pero sí un fin económico.

Y este fin económico existió porque las noticias falsas viajan mucho más lejos, más rápido, y tienen mayor alcance que la verdad, y se puede ganar dinero con la publicidad mientras se atrae la atención con este tipo de información.

Pero si podemos reducir la difusión de esta información, tal vez se reduciría el incentivo económico para producirla.

En tercer lugar, pensemos en la regulación y, desde luego, debemos pensar en esta opción.

En EE.

UU., en la actualidad, estamos explorando lo que podría suceder si Facebook y otros medios se regularan.

Aunque debemos tener en cuenta cosas como la regulación del discurso político, es decir, etiquetarlo como discurso político, asegurarse de que los actores extranjeros no puedan financiar el discurso político, también tiene sus propios peligros.

Por ejemplo, Malasia acaba de instituir una condena de seis años de prisión para cualquier persona que sea sorprendida difundiendo datos falsos.

Y en los regímenes autoritarios, este tipo de políticas se pueden utilizar para suprimir las opiniones minoritarias y para seguir ampliando la represión.

La cuarta opción posible es la transparencia.

Queremos saber cómo funcionan los algoritmos de Facebook.

¿De qué manera los datos se combinan con los algoritmos para producir los resultados que vemos? Queremos que abran el kimono y nos muestren exactamente el funcionamiento interno de Facebook.

Y si queremos conocer el efecto de las redes sociales en la sociedad, necesitamos que científicos, investigadores y otras personas tengan acceso a este tipo de información.

Pero al mismo tiempo, estamos pidiendo a Facebook poner todo bajo llave para mantener los datos seguros.

Así, Facebook y las otras plataformas de medios sociales se enfrentan a lo que llamo «la paradoja de la transparencia».

Les estamos pidiendo que sean abiertas, transparentes y, al mismo tiempo, seguras.

Esta es una aguja muy difícil enhebrar, pero deberán enhebrar esta aguja si queremos alcanzar la promesa de las tecnologías sociales y, a la vez, evitar sus riesgos.

La última opción posible son los algoritmos y el aprendizaje automático, tecnología ideada para erradicar y entender las noticias falsas, cómo se transmiten, y tratar de reducir su difusión.

La humanidad tiene que estar en el bucle de esta tecnología, porque nunca podremos negar que detrás de cualquier solución o enfoque tecnológico hay una pregunta ética y filosófica fundamental acerca de cómo definimos la verdad y la falsedad, a quién le damos el poder de definir la verdad y la mentira, y qué opiniones son legítimas, qué tipo de discurso debe permitirse y así sucesivamente.

La tecnología no es una solución en este caso.

La ética y la filosofía son la solución.

Casi todas las teorías de la toma de decisiones humanas, la cooperación humana y la coordinación humana tienen un cierto sentido de la verdad en su esencia.

Pero con el aumento de noticias falsas, de videos falsos, de audios falsos, estamos al borde del precipicio del fin de la realidad, donde no podemos diferenciar lo que es real de lo que es falso.

Y eso es potencialmente muy peligroso.

Tenemos que estar vigilantes en la defensa de la verdad contra la información errónea, con nuestras tecnologías, con nuestras políticas y, quizás lo más importante, con nuestras propias responsabilidades, decisiones, comportamientos y acciones individuales.

Muchas gracias.

(Aplausos)

https://www.ted.com/talks/sinan_aral_how_we_can_protect_truth_in_the_age_of_misinformation/

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *