El nuevo proyecto de inteligencia artificial de
Google pretende ser una herramienta útil para luchar contra el "acoso
online y la creciente toxicidad de las conversaciones en la red".
Google lanzó hoy "Perspective", una
herramienta de inteligencia artificial pensada para medios de comunicación que,
a partir de los comentarios de las notas, aprende a detectar de forma
automática los mensajes que considere "irrespetuosos" y
"tóxicos" -los que llevan a las personas a abandonar las
conversaciones- con el fin de evitar el acoso online.
Se trata de una tecnología "que utiliza el
aprendizaje automático ('machine learning') para identificar los comentarios
tóxicos", como se conoce a aquellos "que lleven a alguien a abandonar
una conversación", explicó Jared Cohen, titular de Jigsaw, la startup de
Google a cargo de la iniciativa.
La herramienta, que aún está "en su primera
etapa de desarrollo", era probada por Wikipedia y los diarios The New York
Times, The Guardian y The Economist, pero desde hoy está disponible de forma
gratuita para cualquier medio que la solicite, aunque por el momento solo
funciona en inglés.
Su objetivo principal es limitar la incidencia de
los llamados trolls en las conversaciones online, en particular en aquellas que
se generan en los espacios para comentarios que usan los sitios de noticias,
tal como como explicó Cohen.
"Imagina que intentas tener una conversación
con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que
dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo
que no hiciste. Probablemente abandonarías la conversación.
Desafortunadamente esto pasa con demasiada
frecuencia en el mundo online, ya que la gente trata de discutir ideas en las
páginas web de noticias que les gustan, pero en lugar de eso terminar
bombardeándose con comentarios tóxico", señaló.
En un posteo en el blog corporativo de Google, el
directivo citó un estudio publicado en noviembre pasado por el instituto
Data&Society para poner la problemática en números: el 72% de los usuarios
de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi
la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un
tercio de los usuarios se autocensura en redes sociales por miedo a
represalias.
Sin embargo, este problema "no impacta solo a
los lectores" ya que los medios "quieren que se genere una buena
conversación y discusión alrededor del contenido publicado pero intentar acabar
con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo.
Como resultado, deciden en ocasiones cerrar los comentarios por completo".
Ese es el camino que en Estados Unidos siguieron
numerosas publicaciones y diarios online, como USA Today, Popular Science,
Recode o la la radio pública nacional (NPR, por sus siglas en inglés), entre
muchos otros.
La idea con este sistema de inteligencia artificial
es que los sitios de noticias no deban llegar a ese extremo y puedan mantener
las secciones de comentarios, con la ayuda de la tecnología.
Perspective funciona analizando los mensajes y
evaluándolos en base "al parecido que tienen con los comentarios que las
personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que
alguien abandone una conversación", detalló Cohen.
"Para aprender a detectar un lenguaje
potencialmente tóxico, Perspective examina decenas de miles de comentarios
etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra
nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los
usuarios, "mejora su capacidad para evaluar los futuros comentarios",
agregó.
Con esta información, ofrece a medios y plataformas
de Internet la información detallada en un marcador que va de 0 a 100 en su
grado de toxicidad, aunque son los propios medios los que deciden cómo usar la
información que reciben.
"Por ejemplo, pueden elegir marcar comentarios
para que sean revisados por sus propios moderadores y decidir si los incluyen
en una conversación", permitir que "la persona que está escribiendo
vea la toxicidad potencial de sus comentarios justo cuando los está
escribiendo" e incluso "permitir a los lectores clasificar los
comentarios según su toxicidad".
Por el momento, el sistema funciona en inglés,
"pero a lo largo de los dos próximos años lanzaremos nuevos modelos que
van a funcionar en otros idiomas", adelantó Cohen, y anunció que
incorporará también "modelos capaces de identificar comentarios
etiquetados como ataques personales o que no se ocupan del asunto que se
debate".
PUBLICADO
EL 23-02-2017
POR
INFOALLEN – Mail: noticias@infoallen.com.ar