O reconhecimento facial
alastra-se. Todos os seus trajetos serão rastreáveis. Câmeras revelam emoções.
Imagens pessoais são armazenadas e catalogadas, sem consentimento. Porém, as
sociedades resistem — e alcançam vitórias
Um estudo do AI Now
Institute* | Imagem: Natalie Matthews-Ramo | Tradução: Simone
Paz e Gabriela Leite
Em 2 de outubro de 2019, o
AI Now Institute da
Universidade de Nova York (NYU) sediou o seu 4º Simpósio Anual de Inteligência
Artificial com casa cheia. O Simpósio teve como foco a crescente reação a
formas prejudiciais de IA (inteligência artificial), e convidou organizadores,
acadêmicos e advogados para apresentar e discutir seu trabalho no palco. O
primeiro painel examinou o uso da IA no policiamento e controle de fronteiras;
o segundo, falou com grupos de locatários do Brooklyn que se opõem ao uso de
reconhecimento facial em edifícios, por parte de proprietários; o terceiro,
centrou-se no advogado de direitos civis que processava o estado
norte-americano de Michigan pelo uso de algoritmos quebrados e tendenciosos, e
o painel final focou nos trabalhadores da tecnologia de ponta, desde os que
trabalham nos armazéns da Amazon até os motoristas de aplicativos, para falar
sobre suas vitórias organizacionais e significativas ao longo do ano passado.
Você pode assistir ao
evento
completo aqui.
As co-fundadoras da AI Now,
Kate Crawford e Meredith Whittaker, abriram o simpósio com uma breve palestra
resumindo alguns momentos-chave da problemática enfrentada ao longo do ano, com
destaque para cinco temas: (1) reconhecimento facial e de reações; (2) o
movimento desde o “âmbito da IA” para a justiça; (3) cidades, vigilância,
fronteiras; (4) mão-de-obra, organização dos trabalhadores e IA, e; (5) o
impacto climático da IA. A seguir, apresentamos um trecho da conversa:
1. Reconhecimento facial e de
emoções
Também houve um uso mais amplo do
reconhecimento de emoções, uma derivação do reconhecimento facial, que afirma
“ler” nossas emoções internas, interpretando as micro-expressões em nosso
rosto. Como a psicóloga Lisa Feldman Barret mostrou em
uma
extensa pesquisa, esse tipo de frenologia da IA não tem fundamento
científico confiável. Mas já está sendo usado em salas de aula e em entrevistas
de emprego — geralmente, sem que as pessoas saibam.
Por exemplo, documentos obtidos
pelo Centro de Privacidade e Tecnologia de Georgetown revelaram que o FBI e o
ICE [serviço de imigração norte-americano]
têm
acessado silenciosamente os bancos de dados das carteiras de
motorista, para realizar pesquisas de reconhecimento facial em milhões de fotos
sem o consentimento dos indivíduos envolvidos nem a autorização de legisladores
estaduais ou federais.
Mas, este ano, após muitos
pedidos consecutivos de acadêmicos e organizadores — como Kade Crockford, da
ACLU; Evan Selinger, do Rochester Institute of Technology; e Woodrow Hertzog,
da Northeastern University — para que se limitasse fortemente o uso do
reconhecimento facial, o público e os legisladores começaram a fazer algo a
respeito. Nos EUA, o Tribunal de Apelações do Nono Circuito determinou
recentemente que o
Facebook
poderia ser processado por aplicar o reconhecimento facial às fotos
dos usuários sem consentimento, chamando-o de invasão de privacidade.
A cidade de São Francisco
assinou a
primeira proibição de reconhecimento facial em maio deste ano, graças a uma
campanha liderada por grupos como o Media Justice.
Mais
duas cidades norte-americanas adotaram a mesma medida. E, agora, temos
um
candidato
à presidência dos EUA, Bernie Sanders, que promete a proibição em todo
o país,
músicos exigem
o fim do reconhecimento facial em festivais de música, e há um projeto de lei
federal chamado
Lei
Sem Barreiras Biométricas à Habitação, focado no reconhecimento facial na
habitação pública.
A pressão também ocorre na
Europa: um
comitê
parlamentar no Reino Unido pediu que os julgamentos de reconhecimento
facial sejam interrompidos até que um marco legal se estabeleça, e um teste
dessas ferramentas feito pela polícia em Bruxelas foi
considerado
ilegal, recentemente.
É claro que essas mudanças
requerem muito trabalho. Temos a honra de contar com organizadores como Tranae
Moran e Fabian Rogers, do bairro de Ocean Hill Brownsville, conosco esta noite.
Eles são os líderes de suas associações de locatários e trabalharam em conjunto
com Mona Patel, da Assistência Judiciária do Brooklyn, para se opor à tentativa
do proprietário de instalar um sistema de acesso por reconhecimento facial. Seu
trabalho está servindo com informações para a nova legislação federal.
Sejamos claros, a questão não é
sobre aperfeiçoar o lado técnico ou de eliminar alguma polarização ou viés.
Mesmo o reconhecimento facial mais preciso produzirá danos díspares, dadas as
disparidades raciais e baseadas na renda de quem é vigiado, rastreado e preso.
Como
Kate
Crawford escreveu recentemente na Nature – não se trata de
“des-enviesar” esses sistemas, pois eles são “perigosos quando falham e prejudiciais
quando acertam”.