ComoSucedio.com

“La tecnología de Facebook no puede predecir el discurso de odio para frenarlo”

7

Tessa Lyons reconoce las limitaciones de Facebook. Entre ellas, la incapacidad de la tecnológica para lidiar en solitario con las informaciones erróneas que se publican diariamente en la plataforma. “Diferenciar un mensaje considerado discurso de odio de una información falsa no es fácil ni para un humano; hay que analizar muchos detalles y la tecnología no llega”, admite Lyons, una de las responsables del departamento que lucha contra la llamada misinformation (en español, información errónea) de Facebook.

Tessa Lyons, en San Francisco. FACEBOOK

Lyons ha anunciado este jueves en la sede central de Facebook en Menlo Park, California, que la tecnológica castigará los discursos de odio y los llamamientos a la violencia eliminando ese tipo de contenidos de la plataforma. Para ello, se aliarán con organizaciones locales y agencias de seguridad para determinar si el contenido publicado en la red social es inexacto o engañoso y contribuye a cometer actos de violencia física.

El anuncio llegó después de que el pasado marzo el gobierno de Sri Lanka bloqueara el acceso a las redes sociales para detener la difusión de vídeos que instigaban a la violencia contra musulmanes, a los que se acusaba de estar vendiendo comida envenenada a los budistas. Tras su comparecencia ante más de 30 periodistas internacionales, invitados a Menlo Park en un intento de Facebook por ofrecer una imagen de transparencia, Tessa Lyons contestó a las preguntas de EL PAÍS.

Pregunta. ¿Cuál es la definición de Facebook de noticia falsa?

Respuesta. Internamente no usamos la palabra fake news. Solo lo hacemos para hablar de puertas hacia afuera porque es el término que emplea la gente. No creemos que tenga una definición clara, pero nuestro foco está en detectar el relato de hechos falsos. Uno de los retos de la información errónea es que no hay una sola fuente para la verdad. Si piensas en todas las noticias que lees al día, ¿cuántas de ellas son objetivamente verdaderas y cuántas objetivamente falsas? Hay muchos contenidos en los que no se ve de forma clara, que están en un espacio gris, en los que la gente presenta los hechos tal y como los ve. Es su realidad. Si los empleados de Facebook revisaran todo lo que la gente quiere publicar para determinar si ese contenido es verdadero o falso y en base a esa determinación decidiéramos si puede permanecer en la plataforma, sería una postura extrema y muy negativa. Lo que tampoco sería admisible es que no tomáramos ninguna responsabilidad y permitiésemos que el discurso de odio y la violencia fueran difundidos. La solución es una fórmula intermedia que hay que establecer.

P. ¿Tienen identificados el tipo de perfiles que suelen publicar contenidos nocivos?

R. Hay muchos tipos de desinformación: hay malos actores, malos comportamientos y mal contenido. Dentro de los malos actores están las cuentas falsas; en el primer trimestre de 2018 hemos eliminado 583 millones. Dentro de los malos comportamientos, usar tácticas como el spamming [envío en grandes cantidades de correos no deseados] para difundir mensajes, y dentro de mal contenido están las noticias falsas, los discursos de odio o el clickbait[contenidos que buscan atraer el mayor número de clics con titulares sensacionalistas o inexactos]. Nunca son elementos aislados, se usan diferentes combinaciones. Cada una de esas áreas requiere diferentes estrategias y recae sobre diferentes equipos. Para frenarlo, tenemos que coordinar a nuestros departamentos para que trabajen de forma conjunta y compartan las diferentes tecnologías.

P. ¿Los algoritmos pueden ser entrenados para detectar informaciones falsas?

La mayoría de las publicaciones eliminadas ha sido denunciada por usuarios

R. Todo lo que hacemos requiere la combinación de tecnología y humanos. La pregunta es en qué proporción. La tecnología es muy efectiva en detectarspam antes de que los usuarios nos reporten el daño. Pero si miras el discurso de odio, la cantidad de contenidos que hemos eliminado en el primer trimestre de este año, unos 1,5 millones de publicaciones, la mayoría ha sido denunciado por usuarios. Nuestra tecnología no lo puede predecir para frenarlo, es un fenómeno más nuevo que el spam. En cuanto a la información errónea, el porcentaje es muy bajo. Hace cinco años yo misma pensaba que la tecnología avanzaría más rápido. Aunque mucha gente cree que en Facebook confiamos plenamente en la tecnología, sabemos que no puede resolver todos los problemas. La tecnología puede decidir si una foto es violenta, pero para diferenciar una opinión de una desinformación publicada para manipular a la gente, ni siquiera los humanos son buenos detectándolo.

P. ¿Qué acciones concretas están llevando a cabo para luchar contra las noticias falsas?

R. Lo primero es reducir su distribución. Una vez detectadas, nuestro algoritmo le da una menor puntuación, y aparecen en menor medida en el news feed [en español el llamado muro] de los usuarios. Para evaluar la efectividad de esta medida, hacemos test A y B con dos grupos de población. Unos reciben ese tipo de contenidos y los otros no. Es la única forma de medir el impacto, pero hay consecuencias y cuestiones éticas detrás. Hay un motivo obvio por el que no queremos abusar de esas pruebas; estamos sometiendo a una parte de los usuarios a que consuman esos contenidos para medir la eficiencia del algoritmo. Por eso lo hacemos de forma limitada. De esos experimentos hemos concluido que las historias falsas se distribuyen en un 80 % menos gracias a una clasificación peor.

P. Hace una semana comenzó la colaboración de Facebook con investigadores externos para el análisis de las métricas internas. ¿Cuál es su principal objetivo?

Los informes de los académicos se publicarán aunque perjudiquen los intereses de Facebook.

R. Queremos trabajar de forma más cercana con académicos para entender el impacto de las redes sociales en las elecciones, la democracia o las informaciones falsas. Dos investigadores de Stanford y Harvard están liderando una comisión independiente con la que colaboramos y cuyos informes se publicarán aunque perjudique nuestros intereses. Ellos deciden qué datos internos necesitan, hablamos de más de un terabyte de información. Académicos de todo el mundo pueden solicitar formar parte de esa comisión. No espero que en tres meses tengan la solución definitiva, pero es un gran paso para nosotros.

P. Han anunciado que, por primera vez desde la creación de Facebook, están trabajando con organizaciones locales de Sri Lanka para detectar contenidos engañosos que inciten a la violencia. ¿Podría explicar qué fórmula están usando?

R. Hemos llevado a cabo acciones para reducir la distribución de esos contenidos, como reducir su visibilidad, pero reconocemos que hay países donde la información engañosa se está usando para provocar agresiones físicas. Por eso, hemos dado pasos con organizaciones y con expertos en esos países para analizar la forma correcta de remodelar nuestras políticas. En Sri Lanka hemos eliminado por primera vez contenidos dentro de esta categoría. Hemos empezado por países en los que hemos visto que la desinformación ha contribuido a agresiones físicas o violencia fuera de la red. Sobre la metodología, estamos en pleno proceso de creación y todavía no podemos compartirlo.

Escrito por: Ana Torres Menarques
Fuente: ElPais.com

Comments are closed.