Google lanza Perspective, un sistema para combatir a los «trolls» en las noticias

El gigante de internet moderará los comentarios «tóxicos» aplicando Inteligencia Artificial

427
0
Compartir

SILICON VALLEY. – Después de la presión social, los gigantes de la tecnología empiezan a mover ficha para intentar combatir a una de las mayores lacras de los servicios de internet, el acoso y la extensión los llamados «trolls», usuarios que bajo pseudónimos y el anonimato publican mensajes provocadores, irrelevantes o fuera de lugar.

Primero fue Facebook quien empezó a investigar la forma en la luchar contra la difusión de las informaciones falsas. Y, ahora, ha sido Alphabet la que a través del popular motor de búsqueda Google intentará reducir a la mínima expresión los comentarios negativos, considerados «tóxicos». Para ello, el gigante de internet, a través de Jigsaw -anteriormente conocida como Ideas, filial de la firma- ha desarrolado una plataforma llamada «Perspective» que hará frente a los «trolls».

Lo hará mediante una tecnología que se encuentra en su primera etapa de desarrollo y que utiliza técnicas de «machine learning» -aprendizaje de las máquinas- basasadas en Inteligencia Artificial para «ayudar a identificar comentarios negativos y tóxicos en las noticias». A través de una API -interfaz de programación-, editores y desarrolladores podrán acceder al servicio y utilizarlo en sus propias páginas web.

«Perspective analiza los comentarios y los evalúa en base al parecido que tienen con los comentarios que las personas han indicado como tóxicos o que, probablemente, pueden hacer que alguien abandone una conversación», señala en un comunicado el presidente de Jigsaw, Jared Cohen, quien considiera que, desde modo, podrá «aprender a detectar un lenguaje potencialmente tóxico, examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos».

Cada vez que la herramienta encuentra nuevos ejemplos de comentarios tóxicos o reciba correcciones por parte de los usuarios «mejora su capacidad para evaluar los futuros comentarios». Los responsables del proyecto han avanzado que los editores pueden decidir qué hacer con la información que reciben del servicio.

Así, podrán realizar varias operaciones: marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación; ofrecer herramientas para ayudar a su comunidad a entender el impacto de lo que escriben permitiendo, por ejemplo, que la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo; o permitir a los lectores clasificar los comentarios según su toxicidad, facilitándoles la búsqueda de grandes debates escondidos en conversaciones tóxicas.

No hay comentarios

Dejar una respuesta