quarta-feira, 29 outubro, 2025

Paulo Henrique Matos de Jesus, especial para Os Analistas*

 

A Prefeitura de São Luís anunciou a operação o de um sistema de videomonitoramento com reconhecimento facial — a chamada “muralha digital” — como reforço às ações da Guarda Municipal. O anúncio, feito nas redes, apresenta a tecnologia como capaz de cruzar imagens em vias públicas com bases de procurados e apoiar abordagens em tempo real. Em 24 de outubro de 2025, perfis oficiais e repercussões locais registraram a entrada em funcionamento do sistema, depois de promessa feita no fim de agosto.

Esse lançamento ocorreu em meio a uma escalada de violência associada à disputa territorial entre grupos faccionados na Grande Ilha, com registros de mortos e feridos, fechamento pontual de escolas e reforço policial em áreas conflagradas. No mesmo período, circularam, em larga escala, áudios e vídeos — muitos posteriormente apontados como falsos — que intensificaram o clima de pânico e a sensação de insegurança. Autoridades estaduais relacionaram a propagação desses conteúdos ao aumento do medo e informaram prisões vinculadas aos ataques. Esse é o pano de fundo no qual a novidade tecnológica foi comunicada: no olho do furacão, sob um regime de comoção pública alimentado por desinformação.

Sob a lente sociológica, o reconhecimento facial muda a forma como a cidade é governada: sai-se do inquérito pontual para um regime de visibilidade permanente. A circulação ordinária — pegar ônibus, entrar num terminal, atravessar uma praça — passa a ser filtrada por um algoritmo que propõe “semelhanças” entre rostos ao vivo e imagens de referência. Em contextos de medo e rumor, esse tipo de triagem tende a produzir autocensura espacial: pessoas evitam lugares, horários e eventos por receio de abordagens injustificadas. O efeito é sutil, mas real: a tecnologia reordena os usos do espaço urbano.

Entidades de direitos humanos vêm documentando riscos de prisões indevidas e constrangimentos com recorte racial e de gênero, sobretudo quando não há regras claras de uso e controle externo independente. Em outras palavras: a desigualdade que já existe na rua não desaparece no código; pode, ao contrário, ser reforçada por ele.

A literatura técnica corrobora essa preocupação. Avaliações do National Institute of Standards and Technology (NIST) — referência internacional em testes comparativos — mostram que as taxas de falso positivo variam entre grupos demográficos. Em cenários de busca “um-para-muitos”, nos quais a polícia consulta grandes bases para encontrar possíveis correspondências, o risco de apontar a pessoa errada é maior para determinados públicos, com destaque para mulheres negras. Em operações do mundo real, um “acerto” da máquina que na verdade é erro pode se traduzir em abordagem, constrangimento e até detenção. Por isso, qualquer implantação responsável precisa partir da premissa de que esses diferenciais existem e devem ser medidos, mitigados e controlados de forma pública.

Isso nos leva ao desenho institucional — o que de fato protege a cidadania sem paralisar a ação estatal. Regra de ouro: ninguém deve ser detido com base apenas no “match” algorítmico; é indispensável verificação humana qualificada antes de qualquer medida. Em paralelo, a prefeitura deve publicar, de forma periódica, as taxas de erro por raça/cor, gênero e idade; explicar quais bancos de dados alimentam o sistema; documentar os limiares de similaridade que disparam alertas; e manter trilhas de auditoria acessíveis a órgãos de controle e à defesa. Por fim, é necessária uma avaliação de impacto em direitos — feita antes e reeditada durante a operação — com participação de universidades, OAB, Defensoria e movimentos sociais, para ajustar rotas sempre que os dados mostrarem danos desproporcionais. Esse conjunto não é burocracia; é o mínimo para que a tecnologia não reitere vieses e injustiças.

Há, ainda, a questão da prioridade tecnológica. O acúmulo de evidências no Brasil é mais sólido para câmeras corporais do que para reconhecimento facial em larga escala. Estudos do Fórum Brasileiro de Segurança Pública e parceiros apontam quedas expressivas de letalidade policial e de vitimização de agentes quando as câmeras corporais operam sob protocolos claros e supervisão efetiva; em contrapartida, a ausência de regras e transparência reduz ou anula esses ganhos. Em termos de custo social e benefício esperado, políticas de câmeras corporais bem regradas tendem a oferecer resultados mais robustos do que sistemas de identificação automatizada sem salvaguardas.

Também não se pode ignorar o histórico de erros e arbitrariedades documentados em experiências de reconhecimento facial no país, sobretudo quando faltam protocolos: detenções injustas e abordagens baseadas em “suspeição algorítmica” aparecem com recorrência nas investigações jornalísticas e em relatórios de entidades, reforçando a necessidade de limites normativos estritos.

Para São Luís, uma agenda mínima de integridade democrática deveria contemplar: (1) publicação do estudo que justifica o uso do reconhecimento facial e das alternativas consideradas; (2) relatório metodológico com base legal, bancos de dados, thresholds, taxas de falso positivo/negativo e procedimentos de revisão humana; (3) vedação expressa ao uso do “match” como fundamento único de abordagem ou prisão, com responsabilização por descumprimento; (4) comitê externo de monitoramento — com universidades, OAB, Defensoria, movimentos negros e especialistas em IA —, dotado de acesso a dados para auditoria independente; (5) avaliação de impacto em direitos com recortes de raça e gênero, renovada periodicamente; e (6) prioridade orçamentária a tecnologias com evidência de redução de dano, como câmeras corporais com regras públicas de acionamento, guarda e acesso às imagens.

Em suma, tecnologia e direitos não são antípodas. O que está em jogo é desenho institucional sob condições de crise informacional: anunciar um recurso de alto potencial intrusivo, no auge de uma disputa faccionada que já mobiliza medo por meio de boatos digitais, exige governança redobrada. Sem métricas abertas, supervisão e correções de rota baseadas em evidências, a “muralha digital” corre o risco de cristalizar suspeições seletivas e ampliar assimetrias. Com transparência e controles, pode integrar — e não substituir — um ecossistema de políticas de segurança mais eficazes e menos danosas.

  • Paulo Henrique Matos de Jesus; Doutor em História; pesquisador em História Social do Crime, Aparatos de Policiamento e Segurança Pública; Analista Técnico do Observatório da Criminalidade da Associação dos Delegados do Estado do Maranhão (ADEPOL-MA)
Deixe uma resposta