O conselho de supervisão de conteúdo do Facebook escolheu na terça-feira sua primeira lista de casos para revisão, selecionando seis entre mais de 20.000 apresentados ao órgão independente desde que abriu suas portas no final de outubro.

 

 

Três dos casos envolvem discurso de ódio, que a rede social restringe como parte das diretrizes da comunidade. Cinco das ações foram movidas por usuários e uma foi movida pela própria empresa.

Os casos incluem tweets repostados por um ex-primeiro-ministro da Malásia que podem ser interpretados como sugerindo violência contra os franceses, um protesto contra o tratamento da China aos muçulmanos uigures e uma postagem sobre câncer de mama que incluía imagens que a rede social considerou explícita. O caso apresentado pelo Facebook envolve o uso de hidroxicloroquina, um tratamento não comprovado para COVID-19.

“Estamos priorizando casos que têm o potencial de afetar muitos usuários ao redor do mundo, são de importância crítica para o discurso público ou levantam questões importantes sobre as políticas do Facebook”, disse o conselho em um comunicado. Cada caso está aberto para comentários públicos até 8 de dezembro.

A seleção dos casos é um marco para o conselho de supervisão, que levou dois anos para ser feito. O conselho pode apoiar ou anular as decisões do Facebook, e a rede social será limitada por suas decisões. A empresa construiu um novo sistema, denominado ferramenta de gerenciamento de caso, que permite aos membros do conselho, localizados em todo o mundo, rastrear recursos enquanto preserva a segurança das informações de identificação pessoal do usuário. O conselho de 20 membros, formado por ex-juízes, advogados e jornalistas, tem até 90 dias para se pronunciar sobre a maioria dos casos. Os casos acelerados serão concluídos em 30 dias.

O lançamento foi um processo demorado. O CEO do Facebook, Mark Zuckerberg, sugeriu publicamente o conceito pela primeira vez em novembro de 2018. Os membros foram nomeados um ano e meio depois.

 

 

Os críticos do Facebook, que foi usado pela Rússia em uma campanha de influência durante a eleição presidencial de 2016, dizem que não está levando sua responsabilidade a sério o suficiente. Empresas de mídia social, incluindo o Facebook, já foram investigadas por interferir na disseminação de algumas informações, mais recentemente uma história não verificada do New York Post sobre o filho do presidente eleito Joe Biden.

Um grupo de críticos vocais, que se autodenomina o Real Facebook Oversight Board, começou a examinar as decisões e políticas de moderação de conteúdo da rede social. O conselho de supervisão sombra conduz suas sessões em público para que todos possam assistir. A plataforma: Facebook Live.