SAN FRANCISCO – Facebook, que enfrenta crecientes críticas por los mensajes que han incitado a la violencia en algunos países, dijo el miércoles que comenzaría a eliminar la desinformación que podría llevar a que las personas sufran daños físicos.
La política amplía las reglas de Facebook sobre qué tipo de información falsa eliminará, y es en gran medida una respuesta a episodios en Sri Lanka, Myanmar e India en los que los rumores que se propagaron en Facebook provocaron ataques en el mundo real contra las minorías étnicas.
«Hemos identificado que existe un tipo de desinformación compartida en ciertos países que puede provocar tensiones subyacentes y provocar daños físicos fuera de línea», dijo Tessa Lyons, directora de productos de Facebook. «Tenemos una responsabilidad más amplia no solo de reducir ese tipo de contenido sino de eliminarlo».
Facebook ha sido duramente criticado por la forma en que su plataforma se ha utilizado para difundir el discurso de odio y la información falsa que provocó la violencia. La compañía ha tenido problemas para equilibrar su creencia en la libertad de expresión con esas preocupaciones, particularmente en países donde el acceso a internet es relativamente nuevo y existen fuentes limitadas de noticias para contrarrestar los rumores de las redes sociales.
En Myanmar, Facebook ha sido acusado por investigadores de las Naciones Unidas y grupos de derechos humanos de facilitar la violencia contra los musulmanes Rohingya , un grupo étnico minoritario, al permitir el discurso de odio antimusulmán y las noticias falsas.
En Sri Lanka, estallaron disturbios luego de que noticias falsas enfrentaron a la comunidad budista mayoritaria del país contra los musulmanes. Los rumores de redes sociales casi idénticos también han llevado a ataques en India y México . En muchos casos, los rumores no incluyeron un llamado a la violencia, sino que amplificaron las tensiones subyacentes.
Las nuevas reglas se aplican a una de las otras grandes redes sociales de Facebook, Instagram, pero no a WhatsApp, donde también circularon noticias falsas. En la India, por ejemplo, los falsos rumores difundidos a través de WhatsApp sobre los secuestradores de niños han llevado a la violencia de la mafia .
En una entrevista publicada el miércoles por el sitio de noticias tecnológicas Recode , Mark Zuckerberg, director ejecutivo de Facebook, trató de explicar cómo la compañía intenta diferenciar entre el discurso ofensivo -el ejemplo que usó fueron las personas que niegan el Holocausto- y los mensajes que promovieron información falsa. eso podría llevar a daño físico.
«Creo que hay una situación terrible donde hay violencia e intención sectaria subyacente», dijo Zuckerberg a Kara Swisher de Recode, quien se convertirá en un colaborador de opinión con The New York Times a finales de este verano. «Claramente es responsabilidad de todos los jugadores que estuvieron involucrados allí».
La empresa de medios sociales ya cuenta con reglas en las que se elimina la amenaza directa de violencia o discurso de odio, pero ha dudado en eliminar los rumores que no violan directamente sus políticas de contenido.
Bajo las nuevas reglas, Facebook dijo que crearía alianzas con grupos locales de la sociedad civil para identificar información errónea para su eliminación. Las nuevas reglas ya se están aplicando en Sri Lanka, y la Sra. Lyons dijo que la compañía esperaba presentarlas pronto en Myanmar, y luego expandirlas a otros lugares.
El ejemplo del Sr. Zuckerberg sobre la negación del Holocausto rápidamente creó un furor en línea, y el miércoles por la tarde aclaró sus comentarios en un correo electrónico a la Sra. Swisher. «Personalmente, considero que la negación del Holocausto es profundamente ofensiva, y no tenía la intención de defender la intención de las personas que lo niegan», dijo.
Luego describió las políticas actuales de Facebook en torno a la desinformación. Las publicaciones que violan los estándares de la comunidad de la compañía, que prohíben el discurso de odio, la desnudez y las amenazas directas de violencia, entre otras cosas, se eliminan inmediatamente.
La compañía ha comenzado a identificar publicaciones que son clasificadas como falsas por inspectores de hechos independientes. Facebook «disminuirá» esas publicaciones, moviéndolos efectivamente hacia abajo en las News Feed de cada usuario para que no se promocionen mucho en la plataforma.
La compañía también ha comenzado a agregar cuadros de información bajo historias de noticias falsamente demostrables, sugiriendo otras fuentes de información para que las personas lean.
Pero expandir las nuevas reglas a los Estados Unidos y otros países donde el discurso objetable aún está legalmente protegido podría resultar complicado, siempre y cuando la compañía utilice las leyes de la libertad de expresión como los principios rectores de cómo controla el contenido. Facebook también se enfrenta a la presión de los grupos conservadores que argumentan que la compañía está apuntando injustamente a los usuarios con un punto de vista conservador.
Cuando se le preguntó en una entrevista cómo Facebook definió información errónea que podría causar daño y debería ser eliminada en comparación con ese material, simplemente se redujo debido a que era objetable, la Sra. Lyons dijo: «No siempre hay una línea realmente clara».
«Todo esto es un desafío, es por eso que estamos iterando», dijo. «Es por eso que estamos recibiendo comentarios serios».
Una versión anterior de este artículo malinterpretó las plataformas de redes sociales de Facebook que están sujetas a nuevas reglas sobre desinformación. Las reglas se aplican a Instagram, pero no a WhatsApp.
Sigue a Sheera Frenkel en Twitter: @sheeraf