Utilizamos cookies propias y de terceros para mejorar nuestros servicios, analizar y personalizar tu navegación, mostrar publicidad y facilitarte publicidad relacionada con tus preferencias. Si sigues navegando por nuestra web, consideramos que aceptas su uso. Puedes cambiar la configuración u obtener más información aquí.

YouTube refuerza su red de alianzas para la revisión de contenidos violentos y de odio en su plataforma

El terrorismo es uno de los aspectos que más amenazan a la plataforma de vídeo YouTube. Con motivo del Foro Global de Internet, celebrado en San Francisco (Estados Unidos), la compañía propiedad de Google ha reivindicado su labor para evitar la publicación de este tipo de vídeos, anunciando novedades como la incorporación de 15 nuevas asociaciones para revisar el contenido audiovisual denunciado por discurso de odio.
Hace poco menos de un mes, la compañía había anunciado cuatro nuevos pasos para combatir el contenido terrorista en su plataforma: el uso de 'machine learning' para detectar y eliminar vídeos; utilizar más expertos en los procesos de revisión; estándares más estrictos para vídeos controvertidos pero que no violan sus políticas; y otras inciativas generales contra el terrorismo.
Los procedimientos de 'machine learning', que ya se encontraban presentes en YouTube, se han visto mejorados mediante la implementación de nuevas tecnologías. Estos sistemas son más rápidos y efectivos, ya que más del 75% de los vídeos retirados por violencia extrema en el último mes fueron eliminados antes de recibir una denuncia, según ha explicado YouTube en un comunicado.
La plataforma también ha reivindicado una mayor precisión de los mecanismos de 'machine learning' a pesar de que se suben 400 horas de vídeo a YouTube por minuto, ya que se ha duplicado tanto el número de vídeos eliminados como la frecuencia de estas acciones.
Además de herramientas informáticas, YouTube también había incorporado más expertos a su plataforma, a los que en las últimas semanas se han sumado más de 15 organizaciones adicionales que revisan las denuncias. Entre ellas se incluyen algunas como la Anti-Defamation League, el movimiento No Hate Speech y el Institute for Strategic Dialogue, especializadas en temas complejos como discurso del odio, radicalización y terrorismo.
VÍDEOS EN EL LIMBO Y REDIRECCIONES
En cuanto a la retirada de los vídeos denunciados por violencia extrema que no vulneran las políticas de YouTube pero que contienen aspectos controvertidos, la plataforma ha especificado que estos vídeos permanecerán en un 'limbo'. De esta manera, no serán recomendados, no podrán monetizarse y tampoco tendrán funcionalidades como comentarios, vídeos sugeridos o 'likes'.
Por lo pronto, aunque la compañía aún no ha comenzado a introducir cambios en esta materia, ha asegurado que comenzará a aplicarlos en la versión de escritorio de YouTube "en las próximas semanas", y que luego estos cambios llegarían a la 'app' para móviles, en un proceso que, reconocen, "llevará tiempo".
Además de estas iniciativas, YouTube también ha llamado la atención sobre la introducción de la funcionalidad Jigsaw's Redirect Method que redirige a una 'playlist' de vídeos contra la violencia a quienes buscan términos relacionados con el extremismo.
Junto a sus cambios internos, la plataforma de vídeo también promueve iniciativas en el mundo real como la del programa YouTube Creators for Change. Su último capítulo, Internet Citizens, reunió a niños de entre 13 y 18 años en un taller de dos días, y el programa aspira a alcanzar a 20.000 adolescentes en todo Reino Unido. YouTube también ha realizado un taller en Indonesia junto con el Instituto Maarif sobre la diversidad, el pluralismo y la tolerancia.