fbpx Press "Enter" to skip to content

La información errónea sobre COVID-19 está poniendo a prueba a Facebook

Aproximadamente un año después de las elecciones, Facebook introdujo una herramienta para informar a las personas si habían interactuado involuntariamente con el ejército troll ruso. Si te gustó la página de un troll disfrazado, podrías visitar una parte oscura de Facebook y te lo diría. La herramienta no le dirá si ha visto alguna de las publicaciones de la página, o incluso si las ha compartido. Alex Hern escribió sobre este defecto en ese momento en The Guardian :

Facebook no informará a esos usuarios sobre su exposición a la información errónea, aunque la compañía no ha dicho si no puede o no quiere proporcionar esa información. Una fuente cercana a la compañía lo describió como “desafiante” identificar y notificar de manera confiable a todos los que habían estado expuestos accidentalmente a propaganda extranjera.

Avance rápido hasta hoy, cuando la información errónea que nos preocupa principalmente tiene que ver con COVID-19. En las últimas semanas, hemos hablado de engaños que intentan vincular el coronavirus a las nuevas redes 5G, peligrosas “curas” falsas basadas en el uso de cloro, etc. Los informes han encontrado constantemente este tipo de artículos acumulando miles de acciones en Facebook. Incluso más que la información errónea rusa, los engaños COVID-19 plantean riesgos claros para la salud pública. Entonces, ¿qué debe hacer Facebook al respecto?

El jueves, la compañía dijo que invitaría a las personas que habían compartido un engaño a visitar una página creada por la Organización Mundial de la Salud para desacreditar los mitos populares de COVID-19. Aquí está Guy Rosen, vicepresidente de integridad de Facebook, en una publicación de blog :

Vamos a comenzar a mostrar mensajes en News Feed a las personas que les han gustado, reaccionado o comentado sobre la información errónea nociva sobre COVID-19 que hemos eliminado desde entonces. Estos mensajes conectarán a las personas con los mitos de COVID-19 desacreditados por la OMS, incluidos los que hemos eliminado de nuestra plataforma por provocar daños físicos inminentes. Queremos conectar a las personas que pueden haber interactuado con información errónea dañina sobre el virus con la verdad de fuentes autorizadas en caso de que vean o escuchen estas afirmaciones nuevamente fuera de Facebook. La gente comenzará a ver estos mensajes en las próximas semanas.

Si no leyó atentamente el párrafo anterior, puede suponer que el sistema de Facebook funcionaría de la siguiente manera: comparte un artículo que dice algo así como: “inhalar macarrones con queso y cura el coronavirus”, un artículo que es desacreditado por un verificador de hechos independiente , y luego Facebook lo vincula a la página de la OMS sobre los mitos sobre macarrones con queso. Tal vez incluso haya un mensaje que diga algo como: “Para que lo sepas, resoplar macarrones con queso no cura el coronavirus. Haga clic aquí para más “.

Pero hemos aprendido que las personas son obstinadas y no disfrutan que les digan que han sido engañadas. Hubo un momento famoso después de las elecciones de 2016 cuando Facebook comenzó a etiquetar las publicaciones falsas como “disputadas” y descubrió que al hacerlo, la gente las compartía más . Y así, la compañía ha adoptado un enfoque diferente aquí.

Dentro de unas semanas, las personas que hayan compartido publicaciones de tipo mac-and-cheese-cured-my-COVID verán una gran historia en el News Feed. No tiene la etiqueta “Oye, has sido engañado”. Más bien, dice: “Ayuda a amigos y familiares a evitar información falsa sobre COVID-19”. Luego los invita a compartir un enlace al sitio que destruye mitos de la OMS, así como un botón que llevará al usuario directamente al sitio.

El objetivo de este tipo de enfoque es hacer que las personas se pongan menos a la defensiva sobre el hecho de que pueden haber estado equivocadas, y tratar de pasar de contrabando alguna información buena a sus cerebros sin hacerlos sentir tontos. El atractivo de ayudar a amigos y familiares también es un buen toque. ¿Quién no quiere ayudar a sus amigos y familiares? Y Facebook está poniendo la información directamente en el servicio de noticias: no es necesario visitar algún centro de ayuda arcano enterrado debajo de capas de grifos. (Si comparte una publicación que recibe información errónea y se elimina, también recibirá una notificación por separado al respecto).

Pero este enfoque también tiene desventajas. Si no quiere saber si has compartido accidentalmente una mentira a todos sus amigos, esta herramienta no le ayudará. Y la página de la OMS que destruye mitos actualmente desacredita 19 engaños diferentes: ¿cuáles son las probabilidades de que vaya a desplazarse hasta el que accidentalmente compartió y lo leyó? ¿Qué pasa con el próximo mes, cuando esa lista haya crecido a 40?

Este no es un problema pequeño. Avaaz, un grupo de derechos humanos que sigue de cerca la información errónea, publicó un informe en profundidad esta semana que examinó 100 piezas de información errónea, escritas en seis idiomas, que se compartieron en Facebook. Se descubrió que esas publicaciones se compartieron más de 1.7 millones de veces y se vieron aproximadamente 117 millones de veces. ( Vice habla con los autores .)

Los autores del informe Avaaz argumentan que Facebook debería informar a cada persona que haya visto información errónea sobre el coronavirus exactamente sobre lo que se equivocó. El grupo incluso realizó una prueba de este sistema que dice que algo como esto puede funcionar:

Para probar la efectividad de las correcciones, se diseñó un modelo visual hiperrealista de Facebook para imitar la experiencia del usuario en la plataforma. Luego, una muestra representativa de la población estadounidense, que consta de 2.000 participantes anónimos, elegidos y encuestados de forma independiente por la rama de Investigación Académica, Política y de Asuntos Públicos de YouGov, mostró al azar hasta 5 noticias falsas que se basaron en hechos reales e independientes. se verificaron ejemplos de contenido falso o engañoso que se comparte en Facebook.

A través de un modelo aleatorio, algunos de los usuarios, después de ver las noticias falsas, mostraron correcciones. Algunos usuarios solo vieron el contenido falso o engañoso, y algunos no vieron ninguno. Luego, los participantes encuestados respondieron preguntas diseñadas para evaluar si creían las noticias falsas.

Avaad dijo que su estudio mostró que la creencia en la desinformación disminuyó al menos un 50 por ciento en los participantes del estudio.

Rosen me dijo que llamar a estos engaños con un mensaje especial podría darles más visibilidad de la que tenían originalmente, amplificando la información errónea. Quizás te desplazaste por una información errónea sin internalizar su contenido; Si Facebook pone un gran cuadro rojo en el News Feed que dice “por cierto, esto es falso”, los efectos podrían ser contraproducentes.

Aún así, dijo, Facebook está probando el uso del lenguaje que dice más explícitamente que una persona está viendo los mensajes de la OMS porque vio información errónea. El objetivo es proporcionar la mensajería más efectiva posible, dijo.

Una posibilidad que veo es ofrecer diferentes intervenciones en función de si alguien simplemente vio un engaño, o lo comentó o compartió activamente. Podría decirse que las personas que comparten engaños merecen una respuesta más fuerte que alguien que simplemente vio algo, o tal vez incluso lo pasó por alto, en su feed.

En comparación con sus primeros trabajos sobre el problema del troll ruso, Facebook ha adoptado un enfoque intervencionista refrescante para detener la propagación de la desinformación de COVID-19. Pero tampoco queda claro cuál de esas intervenciones realmente funciona. Dados los riesgos para la salud pública, esperamos que Facebook aprenda rápidamente.

Comparte el conocimiento
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Comments are closed.