O Facebook decidiu
ser mais transparente sobre como lida com "questões complexas". Textos
serão publicados para esclarecer aos usuários como a rede social age e
se posiciona diante de temas complicados. O terrorismo é o assunto do
primeiro post no blog da plataforma (br.newsroom.fb.com/news)
e a Inteligência Artificial (IA) é uma das ferramentas usadas para
combatê-lo. O Facebook afirma que as mídias sociais não podem dar voz a
terroristas e, para isso, também conta com pessoas trabalhando na revisão dos conteúdos compartilhados na comunidade e parcerias externas.
De acordo com Monika Bickert, diretora global de Políticas de Conteúdo,
e Brian Fishman, gerente de Políticas Contra Terrorismo, a posição do
Facebook é simples e direta: ''não há espaço para terrorismo. Nós
removemos terroristas e posts que apoiam o terrorismo assim que ficamos
cientes deles. Quando recebemos denúncias de potenciais posts sobre
terrorismo, nós os revisamos com urgência. E nos raros casos em que
identificamos evidências de uma eminente ameaça, nós informamos as
autoridades na mesma hora''.
Inteligência Artificial no combate ao terrorismo
Segundo os porta-vozes, o Facebook usa Inteligência Artificial para
interromper o compartilhamento de publicações com conteúdo terrorista.
Embora o uso da tecnologia seja recente, o recurso está mudando a forma
como são eliminadas as propagandas e os perfis com esse caráter na rede
social. Alguns esforços tecnológicos têm foco em organizações como o
ISIS e a Al Qaeda: o Facebook usa identificação de imagens,
interpretação de textos, remoção de conteúdo a partir da análise de
comportamento, reincidência e colaboração multi-plataformas. Entenda
melhor cada tópico:
Identificação de imagens
Quando o usuário tenta fazer um post com uma imagem ou vídeo, o sistema
os compara com outras mídias previamente bloqueadas na rede social por
abrangerem conteúdo vinculado a atividade terrorista. Se a plataforma já
apagou um vídeo sobre a Al Qaeda, é possível impedir que essa mídia
seja publicada novamente.
Interpretação de textos
No caso de interpretação de textos, também são usados posts previamente
removidos por promover ou apoiar organizações como a Al Qaeda. O
algoritmo, que está em fase inicial de aprendizagem, é capaz de detectar
os sinais de uma mensagem terrorista.
Remoção por comportamento
De acordo com estudos do Facebook, terroristas tendem ao radicalismo e à
ação em grupos. Esse comportamento costuma ser refletido no mundo
virtual. Dessa forma, quando são identificadas páginas, grupos, posts ou
perfis com conteúdo suspeito, algoritmos são usados para identificar
material relacionado. Ou seja, se uma conta pessoal tem muitos amigos
cujos perfis foram desativados por terrorismo, há uma grande chance de o
dono do perfil estar ligado a esse tipo de atividade.
Reincidência
Com o uso da Inteligência Artificial, o processo para identificar
contas falsas reincidentes ficou muito mais ágil. Com isso, é reduzido
cada vez mais o período de tempo em que o perfil pessoal de um
terrorista fica ativo.
Colaboração multi-plataformas
Expertise humana e parcerias
A rede social, porém, não dispensa a inteligência humana nesse combate.
Segundo a plataforma, a Inteligência Artificial e os algoritmos ainda
não superam a capacidade de pessoas na hora de compreender um contexto. O
Facebook conta com as denúcias desses conteúdos feitas por usuários e
com uma equipe de três mil revisores para avaliar esses posts. Além de
um time de mais de 150 especialistas, como ex-procuradores e ex-agentes
policiais, focados apenas nessa questão.
Para manter o terrorismo fora, não somente do Facebook, mas também de
outras plataformas, foram feitas parcerias com diferentes empresas (como
Microsoft, Twitter e YouTube), pesquisadores e governos.
Do TechTudo - Via Facebook Newsroom
0 Comentários