¿No sería genial si el aprendizaje automático se pudiera aplicar para mejorar los comentarios y otras conversaciones en línea? Grandes y pequeñas editoriales, desde NYT hasta el sitio que estás leyendo, están gastando recursos significativos para evitar que los trolls bombardeen a los lectores con comentarios tóxicos..
Una nueva tecnología de Google basada en el aprendizaje automático se esfuerza por automatizar el proceso de clasificación de millones de comentarios, lo que ayuda a identificar y marcar comentarios abusivos que socavan un intercambio civil de ideas..
En asociación con Jigsaw, Google lanzó Perspective, una tecnología de etapa inicial basada en el aprendizaje automático que puede ayudar a identificar comentarios tóxicos en la web. La API oficial de Perspective permite a los editores usar esta tecnología para sus sitios web.
Google explica cómo funciona:
Perspective revisa los comentarios y los califica en función de cuán similares son a los comentarios que la gente dijo que eran "tóxicos" o que podrían hacer que alguien dejara una conversación. Para aprender a detectar lenguaje potencialmente tóxico, Perspective examinó cientos de miles de comentarios que habían sido etiquetados por revisores humanos..
Cada vez que Perspective encuentra nuevos ejemplos de comentarios potencialmente tóxicos, o recibe correcciones de los usuarios, puede mejorar la calificación de los comentarios futuros..
Una vez que el sistema ha identificado los comentarios tóxicos, los editores pueden marcarlos para que sus propios moderadores los revisen e incluyan en una conversación. Los lectores también podrían ordenar los comentarios por toxicidad, para que surjan conversaciones importantes. El sistema incluso podría permitir a los comentaristas ver la toxicidad potencial de su comentario mientras lo escriben..
¿Crees que el trolling no es un problema tan grande??
Cosa otra vez: The New York Times tiene un equipo completo encargado de revisar un promedio de 11,000 comentarios cada día. Debido a la gran cantidad de mano de obra requerida para revisar los comentarios, el documento tiene comentarios sobre solo el diez por ciento de sus artículos.
Google y The Times han trabajado juntos para entrenar modelos de aprendizaje automático para que los moderadores puedan clasificar los comentarios más rápidamente. Cuando Perspective se lanza públicamente y muchos más editores lo aceptan, el sistema estará expuesto a más comentarios y desarrollará una mejor comprensión de lo que hace que ciertos comentarios sean tóxicos.
“Nuestro primer modelo está diseñado para detectar un lenguaje tóxico, pero durante el próximo año estamos interesados en asociarnos y ofrecer nuevos modelos que funcionen en otros idiomas además del inglés, así como modelos que puedan identificar otras perspectivas, como cuando los comentarios no son sustanciales o fuera de tema ", dijo Google.
Según DataSociety, el 72 por ciento de los usuarios de Internet estadounidenses han presenciado acoso en línea y casi la mitad lo ha experimentado personalmente. Casi un tercio de los encuestados dijeron que autocensuran lo que publican en línea por temor a represalias. Se estima que el acoso en línea ha afectado las vidas de aproximadamente 140 millones de personas en los EE. UU., Y muchos más en otros lugares.
Fuente: Google