Surpreendentemente, Londres tem mais câmeras de vigilância do que Pequim

Londres é a cidade mais bem avaliada no IESE Cities in Motion, índice de avaliação de cidades da Universidade de Navarra (IESE), Espanha. Prestigiado internacionalmente, o índice é composto de 96 indicadores, cobrindo 174 cidades de 80 países (79 capitais).

Londres, contudo, é igualmente a terceira cidade mais vigiada do mundo: dentre as Top 10, 9 são chinesas, sendo que Pequim ocupa a 5º posição. A capital da China, país do sistema de “Crédito Social”, tem menos câmaras de vigilância, em proporção à população, do que a cidade europeia: são 1,15 milhão de câmeras para uma população de 20 milhões em Pequim (56,20 câmaras/1.000 habitantes), contra 627.727 câmeras para uma população de 9,3 milhões em Londres (67,47 câmaras/1.000 habitantes).

O londrino médio é filmado 300 vezes por dia, o que atribui à cidade o título de “Capital Mundial da CCTV” (closed-circuit television). O Estado controla uma parte menor do sistema de vigilância: estudo da Bristish Security Association indicou uma proporção entre câmeras privadas e públicas de 70 para 1.

Os números tendem a ser maiores porque as câmeras domésticas não precisam de registro, só as câmeras de empresas precisam de registro no ICO (Information Commissioner’s Office). Em média, as gravações são armazenadas por duas semanas.

Ampliando ainda mais a vigilância, apesar das falhas identificadas em anos de testes, em janeiro de 2020, o Departamento de Polícia de Londres anunciou a incorporação de tecnologias de reconhecimento facial em suas câmeras de vigilância.

Embora o objetivo seja localizar suspeitos de terem cometido crimes graves, a medida provocou forte reação de grupos contrários à expansão do “estado de vigilância”, como o Big Brother Watch; o foco dos protestos é a ausência de debate público e de regulamentação apropriada.

No entanto, moradores de cidades com histórico de ataques terroristas, como Londres, tendem a ser mais benevolentes ao dilema proteção e segurança versus liberdades civis, tema de grande visibilidade atualmente mundo afora.

Como amplamente denunciado no âmbito das manifestações #blackpeoplematter, em maio de 2020, tema de coluna anterior, as tecnologias de reconhecimento facial têm viés de etnia, idade e sexo. Diversos escrutínios desses sistemas, por parte de centros de pesquisa, institutos e grupos de direitos civis/humanos, encontraram evidências de falhas graves, como a que ocorreu no Rio de Janeiro: em janeiro de 2018, a polícia carioca contratou o sistema britânico “Facewatch” com o propósito de identificar 1.100 criminosos foragidos, que seriam reconhecidos ao cruzar uma das câmaras de vigilância espalhadas pela cidade. Em 2019, uma mulher foi detida em Copacabana, encaminhada a delegacia onde foi confirmado que não se tratava da criminosa procurada (que, inclusive, estava presa na ocasião).

O reconhecimento facial é uma das aplicações da técnica de aprendizado de máquina, subcampo da inteligência artificial, denominada deep learning (aprendizado profundo).

Considerada uma das áreas mais bem sucedidas da IA, serve a múltiplas tarefas: desde o simples reconhecimento de imagens em pesquisas no Google até a biometria facial substituindo as tradicionais senhas (nem sempre seguras nem fáceis de memorizar) e interpretação de tomografias.

O fundamento dessa técnica é que o algoritmo aprende com base em exemplos extraídos dos dados. Para que seus modelos atinjam desempenhos aceitáveis – altas taxas de acurácia – precisam ser treinados em extensas bases de dados, ou seja, a precisão do resultado é proporcional ao número de exemplos contemplados no modelo (exemplos contidos nos dados). Seus algoritmos são capazes de lidar com dimensões de ordem de grandeza de milhões, por exemplo, milhões de pixels numa imagem/foto.

Embora denominadas “redes neurais” pela inspiração no funcionamento do cérebro, o sistema visual humano transcende em muito o simples reconhecimento do objeto. Nosso sistema visual é capaz, por exemplo, de compreender cenas inteiras, ou seja, captar múltiplos objetos de uma cena e a relação entre esses objetos, e processar informações em 3-D.

A resistência ao uso dos sistemas de reconhecimento facial para vigilância decorre, fundamentalmente, de duas limitações intrínsecas à técnica: o viés e a opacidade (não-explicabilidade). O viés tem relação direta com a base de dados utilizada no treinamento do modelo, que pode:

A) ser tendenciosa ao não refletir a diversidade do universo considerado: se a base de dados for predominantemente de homens brancos, o sistema terá dificuldade de reconhecer com precisão, por exemplo, mulheres negras. Um exemplo mais simples: um veículo autônomo treinado com dados de uma cidade americana não apresentaria o mesmo desempenho nas ruas de uma cidade inglesa onde a direção é no lado esquerdo; ou

B) ser enviesada por refletir os preconceitos dos humanos contidos nos dados. Nem todo viés tem o mesmo grau de problematização: o dano de uma recomendação equivocada de um filme na Netflix é significativamente distinto de uma recomendação equivocada no contexto de saúde ou de vigilância.

A opacidade decorre do desconhecimento de como os chamados “dados de entrada” (inputs) geram o dado de saída (output), ou seja, como o sistema correlaciona os exemplos (variáveis) contidos nos dados. Com maiores recursos computacionais e muitos terabytes de dados, o número de recursos possíveis para incluir em um sistema de reconhecimento facial ultrapassa o nível de compreensão de um humano racional (incompatibilidade entre o processo matemático do aprendizado de máquina com o raciocínio em escala humana).

Existem meios de mitigar as limitações da técnica, o que, por um lado, requer um empenho dos desenvolvedores desses sistemas e, por outro, uma maior familiaridade dos usuários para criticar, checar, ponderar sobre os resultados.

Escrito por Dora Kaufman, professora do TIDD PUC – SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral

Notícias Relacionadas

Destaque

23ª edição da EXPOSEC é adiada para 2022

Maior feira de segurança na América Latina, antes programada para junho deste ano, foi transferida para o período de 7…

Destaque

Homem processa polícia após ser preso por engano por falha em reconhecimento facial

Um homem entrou com um processo contra a polícia de Detroit, nos Estados Unidos, após ser preso por engano por…

Cibersegurança

Cyber Security Summit Brasil 2021 abre inscrições para a quinta edição

A mais importante conferência internacional de cibersegurança, a Cyber Security Summit Brasil (CSSB), abriu as inscrições para a sua quinta…