Graças à tecnologia, a polícia tem um futuro brilhante - e não apenas porque pode pesquisar sobre suspeitos no Google. Duas outras tendências menos visíveis estão se desenvolvendo para tornar seu trabalho mais fácil e mais efetivo, mas despertam questões complicadas sobre privacidade e liberdades civis.
Primeiro, o policiamento - como todas as demais atividades - está sendo reimaginado na era das montanhas de dados, sob a expectativa de que análise mais ampla e profunda sobre passados crimes, combinada a algoritmos sofisticados, possa ajudar a prever futuros delitos. Trata-se de uma prática conhecida como "policiamento preditivo" e, ainda que exista há apenas alguns anos, muitos especialistas a veem como uma revolução na forma pela qual o trabalho policial é realizado.
Um exemplo é o departamento de polícia de Los Angeles - o notório LAPD, bem conhecido via filmes de Hollywood -, que está usando um software chamado PredPol. O software começa pela análise de anos de estatísticas criminais disponíveis, e depois divide o mapa de patrulha em zonas (de cerca de 45 metros quadrados) e calcula a distribuição e frequência de crimes em cada uma delas. Por fim, informa aos policiais sobre as probabilidades de local e horário de crimes, o que permite que eles policiem de maneira mais intensa as áreas sob ameaça.
A atraente ideia que embasa o policiamento preditivo é a de que é muito melhor prevenir um crime antes que aconteça do que chegar depois e investigá-lo. Assim, mesmo que os policiais em patrulha não apanhem o bandido em flagrante, sua presença no lugar certo e na hora certa pode exercer efeito dissuasório.
A lógica parece sólida. Em Los Angeles, cinco divisões do LAPD que utilizam o software para patrulhar áreas habitadas por cerca de 1,3 milhão de pessoas viram um declínio de 13% na criminalidade. A cidade de Santa Cruz, também usuária do PredPol, viu queda de 30% no número de furtos. Estatísticas positivas semelhantes podem ser obtidas junto a departamentos policiais de todo o país, e os oficiais que comandam o processo em Los Angeles têm viajado a outros municípios para divulgar os méritos do sistema.
Se essa "previsão" parece familiar, é porque seus métodos foram inspirados pelas companhias de Internet. Em artigo para a revista "Police Chief", em 2009, um importante comandante da polícia de Los Angeles elogiou a capacidade da Amazon de entender "os grupos únicos em sua base de consumidores, e caracterizar seus padrões de comportamento", o que permite que a empresa "não apenas antecipe mas também promova ou direcione o comportamento futuro". Assim, da mesma forma que os algoritmos da Amazon tornam possível prever que livros alguém comprará no futuro, algoritmos semelhantes poderiam dizer à polícia com que frequência --e em que locais e horários-- certos crimes podem ocorrer.
Perceba que não temos como examinar os algoritmos da Amazon; eles são completamente opacos e não estão sujeitos a escrutínio externo. A Amazon alega que o sigilo permite que se mantenha competitiva, e pode ser que tenha razão. Mas a mesma lógica não pode ser aplicada ao policiamento: se ninguém puder examinar os algoritmos --o que parece provável porque o software preditivo costuma ser desenvolvido por empresas privadas -, não teremos como saber que distorções e práticas discriminatórias eles incorporam.
Por exemplos, crimes tendem a acontecer em áreas pobres e racialmente diversificadas. Será que os algoritmos --com sua suposta objetividade-- seriam capazes de causar discriminação racial ainda mais intensa no combate ao crime? Na maioria dos regimes democráticos, hoje, a polícia precisa de causa provável - alguma forma de prova, e não apenas um palpite - para deter e revistar alguém na rua. Mas armada do software de previsão, a polícia não poderia simplesmente afirmar que está agindo como os algoritmos ordenam? E, se for esse o caso, como os algoritmos poderiam depor em um tribunal?
Também há o problema dos crimes que passam sem denúncia. Embora a maioria dos homicídios seja reportada, muitos estupros e furtos residenciais não são. Mesmo na ausência desse tipo de denúncia, a polícia continua a desenvolver métodos de descobrir quando algo de estranho acontece em um bairro. O policiamento preditivo, por outro lado, poderia substituir esse conhecimento tácito por uma crença ingênua no poder abrangente das estatísticas. Se apenas dados sobre crimes que foram registrados em queixas formais forem usados para prever futuros crimes e orientar o trabalho policial, algumas formas de crime podem passar sem registro - e com isso sem qualquer repressão.
Mas existe ainda outra tendência que tornará o trabalho policial ainda mais fácil e, se combinada ao policiamento preditivo, potencialmente muito mais controverso. Empresas como o Facebook cada vez mais utilizam algoritmos e o grande volume de dados acumulados em seus servidores para prever quais dentre seus usuários poderiam cometer crimes. Eis como o sistema funciona: estudando determinadas indicações comportamentais - por exemplo, o usuário só escreve mensagens para menores de idade? A maioria de seus contatos são mulheres? Ele usa palavras como "sexo" ou "encontro" em suas conversas? - os sistemas preditivos do Facebook podem identificar certos usuários como suspeitos. Os funcionários da empresa então examinam cada caso e encaminham informações à polícia caso necessário.
A Reuters reportou recentemente sobre como os algoritmos preditivos ajudaram o Facebook a apanhar um homem de meia-idade que conversava sobre sexo com uma menina de 13 anos, com a qual estava marcando um encontro para o dia seguinte. A polícia entrou em contato com a menina, apreendeu seu computador e apanhou o sujeito. Mas nem tudo são algoritmos: o Facebook reconhece que está usando arquivos de chats reais que precederam agressões sexuais para ajudar nesse trabalho, da mesma forma que departamentos policiais usam dados não estatísticos.
É difícil questionar a aplicação desses métodos à captura de predadores sexuais que tomam crianças por alvo. Mas perceba que o Facebook pode estar realizando toda espécie de trabalho policial parecido: detectando potenciais traficantes de drogas, potenciais violadores de direitos atuais (a empresa já proíbe seus usuários de usarem links para muitos sites de troca de arquivos) e, especialmente depois dos tumultos no Reino Unido no ano passado, prevendo quem será a próxima geração de arruaceiros.
É claro que a polícia já estuda as redes sociais em busca de sinais de inquietação. Mas, ao contrário do Facebook, não vê o quadro todo --as comunicações privadas e as ações silenciosas, como os links que estão sendo clicados e as páginas que estão sendo abertas. Mas o Facebook, como a Amazon quanto aos livros, certamente sabe tudo sobre isso-- e portanto seu poder preditivo é muito superior ao da polícia.
Além disso, enquanto a polícia precisa de mandados para investigar os dados privados de um usuário, o Facebook pode estudar os dados de seus usuários sempre que assim desejar. Da perspectiva da polícia, poderia ser vantajoso transferir todo o trabalho sujo ao Facebook, porque as investigações internas da empresa não precisam passar pelos tribunais.
Com dados suficientes e os algoritmos corretos, todos nós pareceremos suspeitos. O que acontece, portanto, quando o Facebook nos denunciar à polícia --antes que tenhamos cometido qualquer crime? Será que, como personagens em um romance de Kafka, teríamos dificuldade para compreender qual foi o nosso verdadeiro crime, e passaríamos o resto da vida lutando para reabilitar nossas reputações? E se os algoritmos estiverem errados?
As recompensas do policiamento preditivo podem ser reais, mas seus perigos também o são. A polícia precisa sujeitar seus algoritmos a escrutínio externo e enfrentar a questão das distorções implícitas que carreguem. Os sites de redes sociais precisam estabelecer padrões claros sobre as medidas de autopoliciamento preditivo que adotarão, e sobre as dimensões de suas investigações sobre os usuários.
Embora o Facebook possa ser mais efetivo que a polícia na previsão de crimes, não deveria ser autorizado a exercer essas funções de policiamento sem que respeite as normas e regulamentos que definem o que a polícia pode e não pode fazer em uma democracia. Não podemos contornar os procedimentos legais e subverter as normas democráticas em nome da eficiência.
Fonte: UOL - Por: Evgeny Morozov - Tradução de PAULO MIGLIACCI
Evgeny Morozov é pesquisador-visitante da Universidade Stanford e analista da New America Foundation. É autor de "The Net Delusion: The Dark Side of Internet Freedom" (a ilusão da rede: o lado sombrio da liberdade na internet). Tem artigos publicados em jornais e revistas como "The New York Times", "The Wall Street Journal", " Financial Times" e "The Economist". Lançará em 2012 o livro "Silicon Democracy" (a democracia do silício). Escreve às segundas-feiras, a cada quatro semanas, no site da Folha.
Primeiro, o policiamento - como todas as demais atividades - está sendo reimaginado na era das montanhas de dados, sob a expectativa de que análise mais ampla e profunda sobre passados crimes, combinada a algoritmos sofisticados, possa ajudar a prever futuros delitos. Trata-se de uma prática conhecida como "policiamento preditivo" e, ainda que exista há apenas alguns anos, muitos especialistas a veem como uma revolução na forma pela qual o trabalho policial é realizado.
Um exemplo é o departamento de polícia de Los Angeles - o notório LAPD, bem conhecido via filmes de Hollywood -, que está usando um software chamado PredPol. O software começa pela análise de anos de estatísticas criminais disponíveis, e depois divide o mapa de patrulha em zonas (de cerca de 45 metros quadrados) e calcula a distribuição e frequência de crimes em cada uma delas. Por fim, informa aos policiais sobre as probabilidades de local e horário de crimes, o que permite que eles policiem de maneira mais intensa as áreas sob ameaça.
A atraente ideia que embasa o policiamento preditivo é a de que é muito melhor prevenir um crime antes que aconteça do que chegar depois e investigá-lo. Assim, mesmo que os policiais em patrulha não apanhem o bandido em flagrante, sua presença no lugar certo e na hora certa pode exercer efeito dissuasório.
A lógica parece sólida. Em Los Angeles, cinco divisões do LAPD que utilizam o software para patrulhar áreas habitadas por cerca de 1,3 milhão de pessoas viram um declínio de 13% na criminalidade. A cidade de Santa Cruz, também usuária do PredPol, viu queda de 30% no número de furtos. Estatísticas positivas semelhantes podem ser obtidas junto a departamentos policiais de todo o país, e os oficiais que comandam o processo em Los Angeles têm viajado a outros municípios para divulgar os méritos do sistema.
Se essa "previsão" parece familiar, é porque seus métodos foram inspirados pelas companhias de Internet. Em artigo para a revista "Police Chief", em 2009, um importante comandante da polícia de Los Angeles elogiou a capacidade da Amazon de entender "os grupos únicos em sua base de consumidores, e caracterizar seus padrões de comportamento", o que permite que a empresa "não apenas antecipe mas também promova ou direcione o comportamento futuro". Assim, da mesma forma que os algoritmos da Amazon tornam possível prever que livros alguém comprará no futuro, algoritmos semelhantes poderiam dizer à polícia com que frequência --e em que locais e horários-- certos crimes podem ocorrer.
Perceba que não temos como examinar os algoritmos da Amazon; eles são completamente opacos e não estão sujeitos a escrutínio externo. A Amazon alega que o sigilo permite que se mantenha competitiva, e pode ser que tenha razão. Mas a mesma lógica não pode ser aplicada ao policiamento: se ninguém puder examinar os algoritmos --o que parece provável porque o software preditivo costuma ser desenvolvido por empresas privadas -, não teremos como saber que distorções e práticas discriminatórias eles incorporam.
Por exemplos, crimes tendem a acontecer em áreas pobres e racialmente diversificadas. Será que os algoritmos --com sua suposta objetividade-- seriam capazes de causar discriminação racial ainda mais intensa no combate ao crime? Na maioria dos regimes democráticos, hoje, a polícia precisa de causa provável - alguma forma de prova, e não apenas um palpite - para deter e revistar alguém na rua. Mas armada do software de previsão, a polícia não poderia simplesmente afirmar que está agindo como os algoritmos ordenam? E, se for esse o caso, como os algoritmos poderiam depor em um tribunal?
Também há o problema dos crimes que passam sem denúncia. Embora a maioria dos homicídios seja reportada, muitos estupros e furtos residenciais não são. Mesmo na ausência desse tipo de denúncia, a polícia continua a desenvolver métodos de descobrir quando algo de estranho acontece em um bairro. O policiamento preditivo, por outro lado, poderia substituir esse conhecimento tácito por uma crença ingênua no poder abrangente das estatísticas. Se apenas dados sobre crimes que foram registrados em queixas formais forem usados para prever futuros crimes e orientar o trabalho policial, algumas formas de crime podem passar sem registro - e com isso sem qualquer repressão.
Mas existe ainda outra tendência que tornará o trabalho policial ainda mais fácil e, se combinada ao policiamento preditivo, potencialmente muito mais controverso. Empresas como o Facebook cada vez mais utilizam algoritmos e o grande volume de dados acumulados em seus servidores para prever quais dentre seus usuários poderiam cometer crimes. Eis como o sistema funciona: estudando determinadas indicações comportamentais - por exemplo, o usuário só escreve mensagens para menores de idade? A maioria de seus contatos são mulheres? Ele usa palavras como "sexo" ou "encontro" em suas conversas? - os sistemas preditivos do Facebook podem identificar certos usuários como suspeitos. Os funcionários da empresa então examinam cada caso e encaminham informações à polícia caso necessário.
A Reuters reportou recentemente sobre como os algoritmos preditivos ajudaram o Facebook a apanhar um homem de meia-idade que conversava sobre sexo com uma menina de 13 anos, com a qual estava marcando um encontro para o dia seguinte. A polícia entrou em contato com a menina, apreendeu seu computador e apanhou o sujeito. Mas nem tudo são algoritmos: o Facebook reconhece que está usando arquivos de chats reais que precederam agressões sexuais para ajudar nesse trabalho, da mesma forma que departamentos policiais usam dados não estatísticos.
É difícil questionar a aplicação desses métodos à captura de predadores sexuais que tomam crianças por alvo. Mas perceba que o Facebook pode estar realizando toda espécie de trabalho policial parecido: detectando potenciais traficantes de drogas, potenciais violadores de direitos atuais (a empresa já proíbe seus usuários de usarem links para muitos sites de troca de arquivos) e, especialmente depois dos tumultos no Reino Unido no ano passado, prevendo quem será a próxima geração de arruaceiros.
É claro que a polícia já estuda as redes sociais em busca de sinais de inquietação. Mas, ao contrário do Facebook, não vê o quadro todo --as comunicações privadas e as ações silenciosas, como os links que estão sendo clicados e as páginas que estão sendo abertas. Mas o Facebook, como a Amazon quanto aos livros, certamente sabe tudo sobre isso-- e portanto seu poder preditivo é muito superior ao da polícia.
Além disso, enquanto a polícia precisa de mandados para investigar os dados privados de um usuário, o Facebook pode estudar os dados de seus usuários sempre que assim desejar. Da perspectiva da polícia, poderia ser vantajoso transferir todo o trabalho sujo ao Facebook, porque as investigações internas da empresa não precisam passar pelos tribunais.
Com dados suficientes e os algoritmos corretos, todos nós pareceremos suspeitos. O que acontece, portanto, quando o Facebook nos denunciar à polícia --antes que tenhamos cometido qualquer crime? Será que, como personagens em um romance de Kafka, teríamos dificuldade para compreender qual foi o nosso verdadeiro crime, e passaríamos o resto da vida lutando para reabilitar nossas reputações? E se os algoritmos estiverem errados?
As recompensas do policiamento preditivo podem ser reais, mas seus perigos também o são. A polícia precisa sujeitar seus algoritmos a escrutínio externo e enfrentar a questão das distorções implícitas que carreguem. Os sites de redes sociais precisam estabelecer padrões claros sobre as medidas de autopoliciamento preditivo que adotarão, e sobre as dimensões de suas investigações sobre os usuários.
Embora o Facebook possa ser mais efetivo que a polícia na previsão de crimes, não deveria ser autorizado a exercer essas funções de policiamento sem que respeite as normas e regulamentos que definem o que a polícia pode e não pode fazer em uma democracia. Não podemos contornar os procedimentos legais e subverter as normas democráticas em nome da eficiência.
Fonte: UOL - Por: Evgeny Morozov - Tradução de PAULO MIGLIACCI
Evgeny Morozov é pesquisador-visitante da Universidade Stanford e analista da New America Foundation. É autor de "The Net Delusion: The Dark Side of Internet Freedom" (a ilusão da rede: o lado sombrio da liberdade na internet). Tem artigos publicados em jornais e revistas como "The New York Times", "The Wall Street Journal", " Financial Times" e "The Economist". Lançará em 2012 o livro "Silicon Democracy" (a democracia do silício). Escreve às segundas-feiras, a cada quatro semanas, no site da Folha.
0 Comentários