Esse vídeo faz parte da mesa redonda que debateu o boletim online "Monitorando a cidade inteligente: câmeras de vigilância, monitoramento inteligente e racismo tecnológico".
Divulgação
13/06/2022 21:06
Este vídeo do canal do YouTube do Instituto Lula faz parte da mesa redonda que debateu o boletim online "Monitorando a cidade inteligente: câmeras de vigilância, monitoramento inteligente e racismo tecnológico". O boletim é parte do trabalho desenvolvido pelo grupo de pesquisa fronteira digital, o front-D. Você pode assistir o vídeo completo e ler o boletim aqui.
A tecnologia de reconhecimento facial está por toda a parte: nos aeroportos, nas entradas de lojas e escritórios e nos grandes eventos. Agora, começa a crescer o uso de reconhecimento facial como política de segurança pública. Neste vídeo, a pesquisadora Aline Miglioli, a advogada, consultora, professora e pesquisadora em Direito e Tecnologia Bianca Kremer, e o cientista social Pablo Nunes, falam como funciona essa tecnologia e quais as ameaças que ela pode representar para a vida das pessoas. Assista ao vídeo abaixo:
Câmeras de vigilância no Brasil
A advogada Bianca Kremer explicou que a grande mudança na relação do Brasil com as câmeras de segurança veio por decorrência dos eventos esportivos realizados no país entre 2014 e 2016, a Copa do Mundo e os Jogos Olímpicos, respectivamente. “A gente tem visto um movimento de estruturação das novas tecnologias nas cidades. O reconhecimento facial é uma delas”, disse.
A câmera de vigilância não é exclusiva às cidades inteligentes. Já na década de 1990, era possível encontrar câmeras de vigilância, tais como aquelas que se espalharam pelos shoppings centers, prédios, lojas e pelas ruas das cidades. Mas esse instrumento ainda rudimentar — tendo em vista o salto tecnológico com que ele foi incrementado duas décadas depois — tinha como única função visualizar em tempo real outros espaços e, quando muito, gravar os eventos para que alguém posteriormente pudesse revê-los. As câmeras de monitoramento que são utilizadas nas cidades inteligentes, por sua vez, têm uma tecnologia integrada que permite automatizar o controle e o monitoramento das cidades, analisando ações e posturas e enviando alertas para as instituições adequadas em cada situação de atenção.
Em 2019, foi implementado um projeto piloto para o uso de um software que consegue, através dessas câmeras, reconhecer e identificar pessoas, utilizando o reconhecimento facial. Além do aumento quantitativo do volume de câmeras, houve uma mudança na forma de utilizar essas câmeras e a tecnologia embutida nelas. De maneira simplificada, as câmeras de vigilância utilizadas desde os anos 1980 e que continuam a ser empregadas nos domicílios, portarias prediais etc. têm como único recurso a transmissão e gravação dos conteúdos captados. Dessa forma, ela necessita de olhos humanos monitorando aquele conteúdo para identificar situações de risco ou fora da normalidade esperada.
Por outro lado, o conteúdo gravado por ela permite, por exemplo, a incriminação de suspeitos em um crime, ou seja, seu conteúdo pode ser analisado e utilizado após o fenômeno observado.
“O que compõe os bancos de dados, que compõe o reconhecimento facial? Qual é a qualidade desse banco de dados? Há pouca transparência”, comenta Kremer
Padrões racistas
O cientista social Pablo Nunes analisa que há muitos problemas nos bancos de dados, algoritmos e inteligência artificial utilizadas no sistema de reconhecimento facial. “Os bancos de dados são baseados em um padrão de rosto humano. O padrão do rosto branco”, disse. “Tudo aquilo que vai contra esse padrão pode não identificar como ser humano. Em tecnologia que tira o fundo e altera a paisagem, por exemplo, há casos que rostos negros foram apagados ou classificados como rosto de primatas”, disse.
Os perigos do reconhecimento facial
“Nós vemos casos de pessoas que ficaram presas por 5, 12 anos por conta do erro de reconhecimento de pessoas e reconhecimento fotográfico. Eu não tenho dúvidas que daqui a 5 anos vamos encontrar pessoas presas de forma equivocada em decorrência de erro na tecnologia”, disse Nunes. “Falta regulação e padrões de uso no sistema. Quais tipos de especificação técnica? O match precisa ser de 98%? Já temos casos de erros no Rio de Janeiro, na Bahia e Distrito Federal. A gente precisa falar sobre essas histórias”, analisa.
Leia mais
Boletim aponta que IA encarcera negros