Cidades inteligentes: como funciona sistema de videomonitoramento nas ruas
Um morador de São Paulo tem vivido sob constante vigilância e suspeita devido a uma inconsistência em bancos de dados criminais.
Nos últimos sete meses, o cidadão foi conduzido quatro vezes à delegacia após ser identificado pelas câmeras do programa Smart Sampa, da Prefeitura de São Paulo. O motivo: a semelhança de seu nome com o de um foragido do Mato Grosso.
Apesar de evidências de que se trata de outra pessoa — como diferenças na idade, filiação e até na grafia do sobrenome —, os alertas de reconhecimento facial se repetiram.
Em nota à CNN, a SSP (Secretaria de Segurança Pública) afirmou que o nome do paulistano já foi removido do BNMP (Banco Nacional de Mandados de Prisão) e as fotos retiradas da base estadual para evitar novas abordagens indevidas.
Responsabilidade e funcionamento
Por outro lado, a SMSU (Secretaria Municipal de Segurança Urbana) defendeu a eficiência do Smart Sampa, afirmando que não houve falha no software.
De acordo com um texto enviado à CNN, a Secretaria Municipal de Segurança Urbana (SMSU) reafirmou que não houve qualquer falha no funcionamento do programa Smart Sampa no caso relacionado a uma condução para averiguação.
“A Secretaria esclarece que o programa municipal utiliza bases de dados oficiais da Justiça e de órgãos de segurança pública para o reconhecimento facial e confirmação de mandados de prisão expedidos e, portanto, não é responsável por eventuais inconsistências cadastrais. O caso citado foi comunicado pela SMSU à Secretaria de Segurança Pública de São Paulo para conhecimento e adoção das providências cabíveis. A Secretaria reitera que a atuação da GCM (Guarda Civil Metropolitana) ocorreu de forma regular, a partir de alerta emitido pelo sistema de reconhecimento facial, com posterior confirmação de mandado de prisão ativo no BNMP (Banco Nacional de Mandados de Prisão).”
O que é o Smart Sampa?
O Programa Smart Sampa chegou às ruas de São Paulo em julho de 2024, consolidando-se como o maior ecossistema de vigilância inteligente da América Latina. Com uma robusta rede de 40 mil câmeras públicas e privadas, utiliza reconhecimento facial e cruzamento de dados em tempo real para identificar foragidos, localizar desaparecidos e detectar veículos roubados.
Diferente dos modelos tradicionais de monitoramento, o Smart Sampa opera de forma integrada. Metade de suas câmeras foi instalada pela Prefeitura, enquanto a outra metade provém de parcerias com condomínios, residências e comércios. O sistema não apenas filma, mas “pensa”: as imagens captadas nas vias públicas são cruzadas instantaneamente com a base de procurados da Secretaria de Segurança Pública (SSP), o banco de desaparecidos e o sistema Córtex, do Ministério da Justiça.
Organizações criticam falhas
No entanto, a onipresença tecnológica — que remete à alegoria vigilante do “Big Brother”, de George Orwell, no clássico da literatura “1984” — traz à tona um debate crítico sobre a precisão dos algoritmos e a proteção aos direitos individuais.
Em meio à repercussão sobre o caso, a CDR (Coalizão Direitos na Rede), junto a organizações da sociedade civil que atuam na defesa dos direitos digitais e das liberdades civis, manifestou preocupação com a condução do episódio.
Segundo nota direcionada à imprensa, o caos evidencia, de forma concreta, os riscos já apontados por especialistas e organizações sociais quanto ao uso de tecnologias de vigilância biométrica sem transparência, regulação adequada e mecanismos eficazes de responsabilização estatal.
“Os erros de identificação acumulados reforçam preocupações já documentadas em análise técnica publicada pela Coalizão Direitos na Rede e organizações parceiras, que aponta falhas estruturais no uso do reconhecimento facial no Brasil, incluindo elevada incidência de falsos positivos, impacto desproporcional sobre pessoas negras, ausência de avaliações independentes, contratos pouco transparentes e potenciais violações à Constituição Federal, à LGPD (Lei Geral de Proteção de Dados) e a princípios fundamentais do Estado Democrático de Direito. Casos como o agora divulgado não são exceções, mas sintomas previsíveis de sistemas que submetem toda a população à vigilância permanente e à presunção tecnológica de suspeição”.
A inteligência por trás da vigilância
O caso levanta o debate sobre como algoritmos de IA (Inteligência Artificial) estão transformando a gestão urbana.
De acordo com Luis Ceciliato, Gerente Nacional da Axis Communications no Brasil, sistemas como o Smart Sampa representam uma mudança de paradigma.
“Hoje, projetos como o Smart Sampa representam uma mudança de paradigma: saímos de um modelo passivo de vigilância para um sistema ativo e inteligente, baseado em inteligência artificial. Na prática, as câmeras passam a operar como dispositivos analíticos, capazes de interpretar o que está acontecendo em tempo real”, explica Ceciliato.
O especialista ressalta que a tecnologia vai além do simples reconhecimento facial, permitindo a análise de padrões de comportamento para diferenciar atividades rotineiras de situações suspeitas.
“O que lidera essa transformação é a combinação entre algoritmos avançados, capacidade de processamento na ponta (edge) e integração com centros de comando. É isso que permite sair do monitoramento reativo e avançar para um modelo preditivo e orientado por dados”, explica o especialista.
Ganhos operacionais e gestão urbana
Além da segurança pública, a integração de IA promete otimizar o tempo de resposta das forças policiais e a própria fluidez da cidade. Ao automatizar a detecção de eventos, o sistema retira do operador humano a carga de monitoramento manual exaustivo.
“Os ganhos são claros e mensuráveis e vão muito além da segurança. Primeiro, há uma redução significativa no tempo de resposta. Segundo, há um ganho de escala. O ponto mais estratégico é outro: essa infraestrutura passa a ser um ativo da cidade. A mesma tecnologia que melhora a segurança também otimiza mobilidade urbana, gestão de fluxo, iluminação pública e resposta a emergências”, pontua o executivo da Axis.
Riscos à privacidade
Apesar dos benefícios, episódios de abordagens indevidas acendem o alerta para a necessidade de governança rigorosa e conformidade com a Lei Geral de Proteção de Dados (LGPD). A indústria tem buscado soluções de “privacidade desde o design” (privacy by design) para mitigar erros e preconceitos nos algoritmos.
“Quanto mais avançada a tecnologia, maior precisa ser a responsabilidade no seu uso. Os principais riscos estão relacionados à privacidade e ao uso indevido de dados. Tecnologia sozinha não resolve esse desafio. É fundamental que haja regras claras, supervisão e uso responsável por parte do poder público”, conclui Ceciliato.
Em meio à repercussão sobre o caso, a CDR (Coalizão Direitos na Rede), junto a organizações da sociedade civil que atuam na defesa dos direitos digitais e das liberdades civis, manifestou preocupação com a condução do episódio.
Segundo nota direcionada à imprensa, o caos evidencia, de forma concreta, os riscos já apontados por especialistas e organizações sociais quanto ao uso de tecnologias de vigilância biométrica sem transparência, regulação adequada e mecanismos eficazes de responsabilização estatal.
“Os erros de identificação acumulados reforçam preocupações já documentadas em análise técnica publicada pela Coalizão Direitos na Rede e organizações parceiras, que aponta falhas estruturais no uso do reconhecimento facial no Brasil, incluindo elevada incidência de falsos positivos, impacto desproporcional sobre pessoas negras, ausência de avaliações independentes, contratos pouco transparentes e potenciais violações à Constituição Federal, à LGPD (Lei Geral de Proteção de Dados) e a princípios fundamentais do Estado Democrático de Direito. Casos como o agora divulgado não são exceções, mas sintomas previsíveis de sistemas que submetem toda a população à vigilância permanente e à presunção tecnológica de suspeição”.
Cibersegurança: veja dicas para identificar apps espiões no celular




COMENTÁRIOS