Fatos sobre o combate à desinformação no YouTube
O YouTube tem políticas claras que determinam qual conteúdo é permitido em nossas plataformas.
Quando identificamos uma violação de nossas políticas, agimos imediatamente. No primeiro semestre de 2020, mais de 17 milhões de vídeos foram removidos em todo o mundo - só no Brasil, foram mais de 1,4 milhão de vídeos no mesmo período.
No YouTube, trabalhamos duro para manter uma comunidade segura e vibrante. Temos Diretrizes da Comunidade que definem as regras de uso para o que não permitimos no YouTube. Por exemplo, não permitimos pornografia, incitação à violência, assédio ou discurso de ódio. Contamos com uma combinação de pessoas e tecnologia para sinalizar conteúdo impróprio e aplicar essas diretrizes. As sinalizações podem vir de nossos sistemas automatizados, de membros do Programa de Revisor Confiável (ONGs, agências governamentais e indivíduos) ou de usuários da comunidade mais ampla do YouTube. Nosso relatório de transparência fornece dados sobre as sinalizações que o YouTube recebe e como aplicamos nossas políticas.
Quando o YouTube remove conteúdo, o usuário é notificado e tem até 30 dias para contestar a decisão da plataforma. De todos os vídeos removidos no primeiro semestre de 2020, 2,8% foram contestados - e, desses, pouco menos da metade retornou ao YouTube.
O YouTube tem políticas claras sobre o tipo de conteúdo que pode permanecer na plataforma e publica um Relatório de Transparência com dados sobre a aplicação das diretrizes da comunidade trimestralmente.
O principal motivo para a remoção de conteúdo do YouTube é a violação das políticas de comunidade da plataforma. Também removemos conteúdo com base nas leis locais por solicitações governamentais, o que representa menos de 0,1% dos casos.
No Google, estamos sempre trabalhando para dar mais eficiência e escala para nossos sistemas de identificação de conteúdo que viola nossas políticas. Por meio de um trabalho que combina trabalho automatizado de máquinas e denúncias feitas por humanos, foram identificados e removidos 14,6 milhões de vídeos e 5,4 milhões de canais no YouTube, entre julho e dezembro de 2019.
Pedidos de remoção de conteúdo por órgãos governamentais somaram cerca de 13 mil no mundo todo em 2019. Entre os motivos mais citados, estão direitos autorais, segurança nacional e difamação. Todas essas informações estão acessíveis por meio dos nossos relatórios de transparência.
Tratamos de desinformação em nossa plataforma com diversas ferramentas: removemos conteúdo que viola nossas políticas, destacamos fontes confiáveis de notícias e informações e reduzimos recomendações de conteúdo duvidoso e desinformação nociva.
Várias políticas presentes nas diretrizes da comunidade são diretamente aplicáveis à desinformação. Nossas diretrizes contra práticas enganosas incluem políticas rígidas contra usuários que fazem declarações falsas ou que se envolvem em outras práticas enganosas. Isso inclui uso enganoso de mídias manipuladas (por exemplo, “deep fakes”), que podem apresentar sérios riscos de danos. Também trabalhamos para proteger eleições de ataques e interferências, dando ênfase no combate a operações de influência política.
Em relação a COVID-19, o YouTube não permite conteúdo que divulgue informações médicas erradas que contradigam a Organização Mundial da Saúde (OMS) ou as informações das autoridades de saúde locais sobre a doença. Temos políticas claras que proíbem vídeos que promovam métodos não comprovados para prevenir o coronavírus em vez da busca por tratamento médico, e removemos rapidamente o conteúdo que viola essas políticas quando sinalizado.
Também temos uma política contra falsificação de identidade. As contas que buscam disseminar desinformação ao fazer declarações falsas por meio da falsificação de identidade estão claramente contra as políticas e são removidas.
Por fim, nossa política contra discurso de ódio proíbe conteúdo que negue a existência de importantes eventos violentos e bem documentados.
Não. Reduzimos as recomendações de conteúdo duvidoso que possa desinformar o usuário de maneira maliciosa - como vídeos promovendo curas milagrosas a doenças graves, afirmando que a Terra é plana ou fazendo afirmações flagrantemente falsas sobre eventos históricos.
Atualmente, menos de 1% dos vídeos recomendados assistidos no YouTube tem conteúdo que pode ser considerado duvidoso e continuamos trabalhando para reduzir esse número ainda mais.
Para o YouTube, mesmo a fração de um por cento é demais quando se lida com conteúdo que pode ser potencialmente prejudicial. Em 2019, anunciamos que começaríamos a reduzir as recomendações de conteúdo duvidoso, ou seja, que quase viola as diretrizes da comunidade, mas não ultrapassa os limites. Este é um esforço contínuo que já funciona em vários países do mundo, inclusive no Brasil.
Então, como isso realmente funciona? Determinar o que é desinformação prejudicial ou conteúdo duvidoso é algo complexo, especialmente diante da grande variedade de vídeos que estão no YouTube. Contamos com avaliadores externos de diversos lugares do mundo para fornecer informações críticas sobre a qualidade de um vídeo. E esses avaliadores usam diretrizes públicas para orientar seu trabalho. Cada vídeo avaliado recebe até 9 opiniões diferentes e algumas áreas críticas requerem especialistas certificados. Por exemplo, médicos fornecem orientações sobre a validade de vídeos sobre tratamentos médicos específicos para limitar a disseminação de informações médicas falsas.
Com base na opinião comum dos avaliadores, usamos sistemas de aprendizado de máquina testados para construir modelos. Esses modelos ajudam a revisar centenas de milhares de horas de vídeos todos os dias a fim de encontrar e limitar a disseminação de conteúdo duvidoso. Assim a precisão desses sistemas continuará a melhorar. Você pode encontrar mais informações aqui.