Um projeto piloto desenvolvido pelo governo do Reino Unido tem provocado intensos debates sobre os limites da tecnologia na segurança pública. A proposta busca utilizar inteligência artificial para identificar cidadãos com potencial de envolvimento em homicídios, antes mesmo que os crimes ocorram.
Apesar de ser apresentado como um recurso para aprimorar estratégias de prevenção, o sistema levanta sérias preocupações entre pesquisadores, juristas e organizações de direitos civis. Documentos revelados pelo grupo de vigilância Statewatch mostram que a base de dados usada no programa inclui informações de alta sensibilidade — como registros de saúde mental, histórico de abuso de substâncias, episódios de automutilação e vulnerabilidades sociais.
A iniciativa, que já foi apelidada por críticos como “sistema de previsão de assassinatos”, teve seu nome alterado para “compartilhamento de dados para melhorar a avaliação de risco”, em uma tentativa de reduzir a repercussão negativa. O Ministério da Justiça, no entanto, defende o projeto como uma ferramenta de pesquisa, sem aplicação prática no momento.
Ainda assim, documentos apontam que o sistema está sendo alimentado por registros de diversas fontes — incluindo arquivos da polícia da Grande Manchester, relatórios de liberdade condicional e interações com serviços públicos — inclusive de pessoas que nunca foram condenadas por crimes.
Para a pesquisadora Sofia Lyall, da organização Statewatch, a proposta é “altamente preocupante” e pode aprofundar desigualdades já existentes. Segundo ela, “essas ferramentas reproduzem os mesmos preconceitos das instituições de onde extraem os dados, atingindo especialmente grupos racializados e comunidades em situação de vulnerabilidade”.
++ Arroz: saiba qual inseto pode estar escondido no alimento e você não sabe
O governo britânico afirma que os testes estão em fase preliminar e que os resultados serão divulgados futuramente. Porém, especialistas alertam que, mesmo com uso restrito, esse tipo de sistema pode abrir caminho para formas invasivas de controle social, onde cidadãos são tratados como suspeitos com base em estatísticas e algoritmos, e não em ações concretas.