El director ejecutivo de Facebook, Mark Zuckerberg, ha presentado un plan desarrollado por la empresa para reducir la distribución de publicaciones no permitidas en la red social o que integran contenido ‘límite’ o cercano a vulnerar las políticas de la comunidad, a partir del entrenamiento de la Inteligencia Artificial para identificar este contenido de forma proactiva, y que tiene por objetivo reducir su visibilidad.
Según ha declarado Zuckerberg, el trabajo de la empresa es «mantener bajo el mal uso, mejorar constantemente con el tiempo y anticiparnos a las nuevas amenazas», como ha publicado en una nota dentro de la red social. Por ello, las medidas tomadas por Facebook consisten en «eliminar más contenido dañino, evitar que el contenido ‘límite’ se propague, dar a las personas mayor control sobre su experiencia y crear supervisión y transparencia independiente en los sistemas».
REVISIÓN DE CONTENIDO DAÑINO CON IA
Una de las iniciativas para controlar estas pautas son los estándares que la comunidad de Facebook ha redactado en lo relativo a violencia y contenido gráfico, publicadas en abril y enmarcadas dentro de las directrices internas de la compañía.
Estos estándares recogen que la compañía elimina «contenido que glorifica la violencia o celebra el sufrimiento o la humillación de los demás». En lo relativo a las revisiones del contenido, Zuckerberg ha aludido a los esfuerzos que la empresa realiza durante los últimos años para combinar Inteligencia Artificial (IA) junto con un equipo de personas encargadas de revisar las distintas publicaciones.
Al incorporar la IA y combinarla con las personas encargadas del filtrado de las publicaciones, Facebook pretende «denunciar de forma proactiva el contenido potencialmente problemático al equipo de revisores», e incluso actuar de forma automática en algunos casos. Con la IA, Zuckerberg ha afirmado que se identifica y elimina «un porcentaje mucho mayor de contenido dañino» de forma más rápida.
En la publicación también se indica que con los avances implementados en los últimos años, los equipos de revisión han logrado reducir la identificación incorrecta de una publicación a uno de cada diez casos, y que estos errores se deben fundamentalmente a cuestiones relativas a los matices de las políticas.
La compañía ha resaltado los esfuerzos realizados en reducir estos errores y en «hacer cumplir de forma proactiva» las políticas mediante la combinación de la IA con los equipos de revisores. A esto hay que añadir el entrenamiento de los sistemas de IA para que sean capaces de detectar el contenido que sugiera un riesgo para el propio usuario, como ha destacado Zuckerberg, con el objetivo de ayudar a socorrer a estas personas.
DETECCIÓN DE CONTENIDO LÍMITE
Otra de las medidas resaltadas por la compañía está relacionada con el entrenamiento de la IA para que sea capaz de detectar ‘contenido límite’, es decir, cercano a lo que prohíben publicar las políticas de la comunidad. Este tipo de publicaciones supone, cuando no se supervisan, que «la gente se implicará desproporcionalmente con más contenidos sensacionalistas y provocativos», como ha detectado la compañía. Por ello si se identifican rápido, Facebook es capaz de reducir su distribución.
Zuckerberg espera que, al limitar la distribución de este contenido sensacionalista, materializado sobre todo a través de la desinformación y el ‘click-bait’, los usuarios tendrán menos incentivos para realizar publicaciones en esta línea.
A pesar de la efectividad de esta medida, el director ejecutivo de Facebook ha remarcado que «la manera más efectiva de detener la propagación de información errónea es eliminar las cuentas falsas que la generan». Zuckerberg ha defendido que la empresa debe aplicar los cambios de distribución tanto en el ranking del ‘News Feed’ como en todos los sistemas de recomendación de cosas a las que unirse.
Este mecanismo de control estará activado de forma predeterminada y servirá, según la publicación, para «proporcionar una experiencia más segura» a los usuarios, los cuales verán menos contenido cercano al límite si así lo deciden, aunque quien quiera podrá tener acceso a esas publicaciones, ya que «no violan los estándares».
ORGANISMO INDEPENDIENTE PARA APELAR DECISIONES
Dados los errores que en ocasiones comenten, Facebook comenzó a introducir un «proceso de apelación de contenido» este año, con el que los usuarios podían denunciar decisiones de la compañia que supusieron el borrado de una publicación, en caso de que no estuvieran de acuerdo.
Ahora, la red social pretende ampliarlo para que se puedan apelar decisiones sobre un informe que también haya sido presentado por el usuario, además de ofrecer más transparencia sobre cómo se violaron las políticas de la empresa.
Por otra parte, la compañía se plantea que los usuarios puedan apelar las decisiones tomadas por la empresa en relación a los contenidos ante un organismo independiente, cuyas decisiones serían vinculantes. Así, Facebook establecería este organismo antes de que acabara el año 2019, un propósito con el que busca «defender el principio de dar voz a las personas y al mismo tiempo reconocer la realidad de mantener a las personas seguras».
Este medida, como ha defendido el fundador de la red social, «evitaría la concentración de demasiada toma de decisiones dentro de nuestros equipos», «crearía responsabilidad y supervisión» y, además, «ofrecería la seguridad de que estas decisiones se toman para el mejor interés de la comunidad, y no por razones comerciales».
TRANSPARENCIA
En lo referente a transparencia, la empresa se enfocará en dos aspectos, permitir más investigación académica sobre los sistemas utilizados por Facebook y su impacto, así como establecer informes de transparencia y de aplicación trimestrales.
Facebook publica mediciones estadísticas sobre lo habitual que es el contenido dañino dentro de la red social, así como un seguimiento de su efectividad a lo largo del tiempo, y pretende informar sobre cada categoría de contenido dañino, además de agregar más métricas relacionadas con los errores cometidos y la velocidad de las respuestas.
Los informes están centrados en tres puntos básicos, que recogen cómo de frecuente es el contenido que viola las normas de Facebook, sobre qué cantidad de contenido se actúa y cuánto contenido violatorio se encuentra de forma proactiva. La empresa pretende ser capaz de publicar estos documentos con periodicidad trimestral a finales del año que viene.
Con el objetivo de «aumentar la transparencia y la responsabilidad», Facebook también ha declarado que publicará las actas de las reuniones en las que participan expertos externos y organizaciones, y donde se abordan debates relacionados con la libertad de expresión y los impactos que tienen las acciones de la compañía. Esto se hará debido a que las políticas de Facebook incluyen la necesidad de «obtener regularmente aportaciones de expertos externos y organizaciones».
COLABORACIÓN CON EMPRESAS Y GOBIERNOS
Para establecer un marco regulatorio adecuado, Zuckerberg ha comunicado que la empresa ha comenzado a trabajar con distintos gobiernos para regular el contenido, y así «definir tasas aceptables para distintos tipos de contenido» y dibujar las líneas entre «libertad de expresión y seguridad».
En este sentido, la compañía ya ha empezado a trabajar, entre otros, con el Gobierno frances, y espera poder crear junto con la Comisión Europea, un marco común para Europa en los próximos dos años.
Además, el líder de Facebook ha planteado que las compañías de Internet «informen de la prevalencia de contenido dañino en sus servicios y luego trabajen para reducirla». Con esto, el director ejecutivo de Facebook ha defendido que es necesaria la colaboración con gobiernos y empresas para «encontrar el equilibrio y las soluciones correctas».