Nos espaços vigiados por
Reconhecimento Facial, grupos sociais e étnicos poderão ser enquadrado nos
“perfis perigosos” — ao menos, para Estado e corporações. O debate é urgente:
temos o direito de proteger nossa identidade e localização?
Sally Applin | Outras Palavras | Tradução: Gabriela
Leite
Em voto unânime, no último dia
6/5, um cometê governamental de São Francisco, nos EUA, deu um passo no sentido
de instituir um banimento
completo do uso de tecnologias de reconhecimento facial pelo governo.
Seria a primeira cidade do país a fazê-lo: enquanto a política, as agências
governamentais e o mercado gravitam em torno dessa tecnologia, não há nem leis
federais nem regras locais fortes que regulem seu uso. Muitos de nós ficamos
cautelosos com sistemas de vigilância projetados para, em público, identificar
ou criar perfis automaticamente com nossos dados, mas isso não parece afetá-los
muito, e essa é a parte mais preocupante.
“Há uma falha fundamental em
nossa justificativa para essas tecnologias” escreveu o líder responsável por
Inteligência Artificial da Accenture (empresa de consultoria para tecnologia da
informação) em seu twitter, em abril, referindo-se à proposta de São Francisco.
“Vivemos em um estado tão perigoso que precisamos disso? Será mesmo que a
vigilância punitiva é o caminho para alcançarmos uma sociedade saudável e
segura?”
Minha dúvida acerca de qualquer
tecnologia que esteja sendo rapidamente adotada — AR, VR, big data, machine
learning, o que quer que seja — é sempre “por quê?”. Qual a razão de empresas e
governos quererem usar o reconhecimento facial? “‘Nós’ não estamos dando
justificativas para essas tecnologias”, respondi. “Os que estão no poder e
aqueles que vão lucrar com isso dão. Tanto na compra e venda de equipamento
quanto utilizando a tecnologia para reduzir o número de funcionários,
substituindo as pessoas. Não se trata da sociedade ou da civilização, mas de dinheiro
e poder.”
Mas dinheiro e poder não
são as únicas razões por trás da pressão pela adesão ao reconhecimento facial.
A cooperação é a maneira com a qual os seres humanos foram capazes de
sobreviver desde que existimos, e a necessidade de categorizar algumas pessoas
como “os outros” acontece desde que haja humanos. Infelizmente, equívocos e
especulações sobre quem são alguns de nós e como devemos nos comportar
contribuíram para o medo e a insegurança entre os cidadãos, governos e na
aplicação de leis. Hoje, essas ideias temerosas, em combinação com uma população
maior, mais móvel e mais diversa, criaram condições que permite que saibamos
que os outros existem, mas não conhecemos uns aos outros, nem nos engajamos com
frequência com os “outros”, a não ser quando absolutamente necessário. Nossos
medos tornam-se outra razão para investimentos em mais “segurança”, apesar de
que se reservássemos algum tempo para sermos sociais, abertos e cooperativos em
nossas comunidades, haveria menos medo e mais segurança, pois cuidaríamos uns
dos outros para o bem estar de cada um.
Experimentando com a vigilância
uns dos outros
Ao invés de tomarmos esse rumo,
temos preferido monitorar uns aos outros. Começamos a aumentar nossa capacidade
de identificar o “outro” através de câmeras de vigilância. A medida que a
vigilância por vídeo tornou-se mais acessível, muitos tipos de negócios
aumentaram sua capacidade de vigilância ao inserir câmeras em seus locais
físicos para desencorajar o roubo e a violência. Guardas monitoram vídeo de
câmeras de segurança assim como (ou ao invés de) vigiar pessoas, mas, ao longo
do tempo, as câmeras tomaram o lugar de seres humanos. Dessa maneira, a ideia
de vigilância por vídeo tornou-se um instrumento de dissuasão psicológica,
assim como um esforço de policiamento: sim, estamos sendo filmados, mas não sabíamos
se alguém estava assistindo às gravações, nem se eles fariam algo a respeito do
que tinham visto.
À medida que as câmeras se
tornaram menores (e mais baratas), foram incluídas em mais produtos destinados
ao consumidor, oferecendo às pessoas a oportunidade de incorporá-las em suas
vidas diárias. As câmeras dos celulares, câmeras nas campainhas e mini câmeras
de segurança escondidas em casas
do Airbnb (e em muitos outros lugares na sociedade) tornaram-se
normais. A vigilância já se espalha entre governos, corporações e cada um de
nós que carrega um smartfone ou uma câmera de vídeo.
Comparada à vigilância mais
generalizada, as câmeras nas casas têm uma vantagem de defender contra a ameaça
do “outro”. Um lar é um ambiente relativamente controlado e quaisquer anomalias
podem ser facilmente identificadas e relatadas pelo proprietário ou pelo seu
software em tempo real. Os donos das casas estão vigilantes em suas
propriedades e podem usar aplicativos que
os deixem a par de notícias de crimes locais e, em muitos casos, também contratam
segurança terceirizada, para uma “vigilância extra”. Há menos dados para serem
processados no ambiente doméstico, é verdade, assim como vizinhos que ficam de
olho em práticas não usuais, adicionando mais uma camada de “conhecimento”
comunitário para o processo de vigilância.
Mas há ainda uma grande falha no
uso de tecnologias de vigilância na sociedade de modo geral: a profusão de
câmeras gera uma abundância de gravações e cria um problema de processamento.
Há uma quantidade enorme de gravações atrás de cada câmera que você vê — e
muitas que você não vê — mas, simplesmente, não há pessoas ou recursos o
suficiente para processar e compreender todas essas imagens. Mesmo quando um
crime é identificado, seu autor provavelmente conseguiu escapar horas ou dias
antes da filmagem ser assistida — se é que alguma vez será vista. Esse déficit
de monitoramento faz com que a tecnologia seja facilmente contornada. O déficit
de monitoramento encorajou algumas pessoas a inovar nos contornos (um processo
chamado de “agência da dissimulação”).
Mesmo assumindo que há uma
maneira de vasculhar os dados de vigilância para encontrar material suficiente
para identificar alguém ou seu veículo, os recursos que poderiam reforçar o
crime registrado muitas vezes não existem. O sistema de vigilância, muitas
vezes interrelacionado e complexo, encontrado fora de nossas casas, só funciona
quando muitos de nós acreditamos que algo pode ser feito com os dados que são
gerados.
Quando uma tecnologia não
funciona, podemos introduzir inovações interativas para melhorá-la — e é isso
que deve estar acontecendo com as câmeras de vigilância. Por exemplo,
municípios rapidamente começam a adotar câmeras introjetadas nas fardas de
policiais. Um bom argumento para essas câmeras de corpo é que podem fazer com
que cidadãos (assim como policiais) andem na linha; outra alegação é a de que
podem ajudar em investigações e, talvez em breve, vigilância em tempo real. No
entanto, esse uso não acontece sem falhas,
há muito poucos recursos de policiamento nesse sentido, e os custos de
armazenamento e gestão desses vídeos têm sido imensos para os departamentos de
polícia. Enquanto isso, muitos argumentam que poderia ser feito muito mais para
melhorar o policiamento através de práticas e treinamento melhores, além da
interação com a comunidade, ao invés de usar mais ou “melhores” tecnologias.
Inovando na próxima tecnologia de
vigilância
O resultado prático dessas
abordagens é que agora temos câmeras de segurança que podem ser inefetivas por
múltiplas razões, e ainda assim tornaram-se parte integral do sistema de
vigilância na esfera pública e em grande parte da esfera privada de empresas,
lojas e assim por diante. Em uma situação que é complexa, e que requer
engajamento humano, há frequentes desejos de uma solução rápida e barata, que
seja construída sobre o que já havia antes, sem levar em conta como uma função
adicional pode mudar os resultados. É assim que o reconhecimento facial começa
a ser considerado uma panaceia, como um “adicional” ao aparato de vigilância já
estabelecido.
A mídia de massas contribuiu com
essa ideia. Na ficção científica, as tecnologias de reconhecimento facial
funcionam. Filmes glorificam detetives e policiais que salvam a humanidade
usando tal tecnologia para capturar vilões. Isso é irrealista, afinal a ficção
científica é roteirizada, e seus enredos e personagens não funcionam em uma
sociedade interdependente, com experiências, crenças e questões múltiplas e
multiplexadas. O glamour das ficções científicas de alto orçamento e a sensação
“cool” que há nas tecnologias em que elas estão presentes são uma armadilha
tanto para criadores de tecnologia, que usam a ficção como modelo para a
tecnologia que querem construir, quanto para autoridades municipais que lutam
contra déficit de orçamento e podem ter uma predileção para essas tecnologias
“melhores e mais recentes” como um troféu de status e sucesso. Desenvolvedores
tecnológicos podem não se preocupar nem estar familiarizados com a maneira como
o que constroem pode afetar a sociedade. Algumas prefeituras, por outro lado,
parecem encobrir possíveis resultados e impactos de novas tecnologias, em favor
de oferecer espaços de cobaia para empresas de tecnologia, ou então não
entender bem o que vai acontecer em suas cidades.
Em essência, o reconhecimento
facial oferece promessas cintilantes de facilmente identificar e prender
bandidos, como nos filmes, sem ter que fazer o trabalho duro de transformar as
relações humanas e conhecer as pessoas em uma comunidade. É muito mais seguro à
polícia usar um software do que interagir com criminosos potencialmente
perigosos — ou arriscar se relacionar com as pessoas, para então perceber que
elas não são nada criminosas, afinal de contas. Dessa maneira, os remendos
sócio-tecnológicos construídos sobre as câmeras de segurança, que agora podem
incluir reconhecimento facial, começam a ser usado como procuradoras para o
conhecimento sobre a sociedade e seu comportamento.
Mas esses dados não são um
substituto preciso ao conhecimento comunitário porque podem ser mal
interpretados e mal aplicados. A tecnologia não funciona bem para todos de
maneira igualitária e justa, especialmente para
aqueles não-brancos e não-cisgêneros: como diz um estudo
do MIT do ano passado, amplamente citado, três sistemas comuns de
análise facial obtiveram uma taxa de erro de 0,8% para homens
de pele clara, e de 34,7% para mulheres de pele negra. Para cenários de
aplicação de lei, em particular, os riscos de má identificação de pessoas podem
ser graves.
Do reconhecimento facial à
criação de perfis
O software de reconhecimento
facial é uma inovação nas câmeras de vigilância — que foram implantadas para
resolver um problema social. Mas apenas as pessoas, e não a tecnologia, podem
resolver problemas sociais. Pessoas podem ter que aplicar a tecnologia para
resolver esses problemas, entretanto, e aí está o cerne de nosso problema: qual
tecnologia é apropriada e qual não é, quais ferramentas usamos, como o Dr.
Chowdhury e outros se perguntam, para criar uma “sociedade saudável e segura”?
Respostas a essas questões estão
sendo oferecidas sem debate público suficiente. Ferramentas de reconhecimento
facial que estão amplamente disponíveis e pouco dispendiosas, e usadas sem
regulação ou transparência, são as mais preocupantes. Além disso, não se sabe
se departamentos de polícia com poucos funcionários, conscientes de seu
orçamento ou tecnologicamente inexperientes, seguirão as regras voluntárias
estabelecidas pelos fornecedores do software de reconhecimento.
Uma vez que os softwares de
reconhecimento facial de empresas como a Amazon estejam amplamente implantados
— e nós somos as cobaias desses experimentos heterogêneos — o próximo avanço
tecnológico poderá ser importado: inteligência artificial que utiliza o
reconhecimento facial para tirar conclusões sobre nós e o nosso comportamento.
É isso que está acontecendo agora na China, onde a IA e o reconhecimento facial
está sendo usado para vigiar 11
milhões de Uigures, um grupo minoritário de muçulmanos.
“As tecnologias de reconhecimento
facial, que estão integradas nas redes de segurança chinesas, estão se
expandindo rapidamente, analisam os Uigures exclusivamente baseados em sua
aparência e mantém registros de suas idas e vindas para pesquisa e revisão”,
relata o New York Times em matéria recente. “Essa prática faz da
China pioneira em aplicar a tecnologia da próxima geração para observar as
pessoas, potencialmente inaugurando uma era de racismo automatizado.”
Autoridades e empresas chinesas
estão usando a tecnologia para capturar suspeitos de crimes em eventos públicos
de larga escala e em outras situações cotidianas: identificando pessoas em
aeroportos e hotéis, constrangendo pedestres desatentos em faixas de pedestres
e para publicidade direcionada. O reconhecimento facial também está se
espalhando através dos EUA, desde o controle de fronteiras até propaganda
personalizada nos corredores de supermercados. Um grupo de propriedades de Nova
York recentemente tentou criar chaves baseadas em reconhecimento facial
obrigatórias para as unidades, em seus edifícios de apartamentos com aluguel
estabilizado.
Pode ser que estejamos chegando a
um limite no qual algumas de nossas tecnologias cheguem em casa e se empoleirem
de maneira que empurrem nossos limites e testem nossas normas sociais. Por
exemplo, uma vez que somos “conhecidos” em praticamente todos os lugares que
vamos, então, assim como acontece com outros dados que nos acossam e
reconhecem, podemos ser constantemente “perfilados”. Quando somos “perfilados”,
imagina-se que nosso comportamento pode ser previsto. Uma vez que nossos
comportamentos podem ser “previstos” por governos e mercados, então podemos
perder nossa capacidade de ação (e senso de realidade) em face dos algoritmos,
que geram mais “dados confiáveis” do que nossas explicativas ou
autoconhecimento e consciência, ou aqueles das pessoas que conhecemos.
A cooperação é alcançada quando
todas as partes cedem um pouco daquilo que desejam para criar um resultado que
seja aceitável. Embora algumas vezes as pessoas possam ter seu poder de agência
confiscados para ajudar num resultado que desejam, não é uma prática normal
fazê-lo com tanta frequência. Isso é escravidão, servitude. Não ter poder de
ação, não ter a habilidade de escolher como se é perfilado ou como vende-se
algo à pessoa, é algo que mina os fundamentos da cooperação. Os aplicativos de
IA que utilizam reconhecimento facial por “conveniência” tornam-se um passo
ainda mais perigoso na “inovação” tecnológica em torno de tecnologias de
vigilância, à medida que somos forçados a entregar mais e mais de nós mesmos.
Esforços para banir completamente
os usos desses softwares enfrentam resistência. Legisladores e empresas como a
Microsoft têm pressionado mais por uma regulação que deveria, entre outras
coisas, obrigar uma sinalização clara para alertar as pessoas quando
ferramentas de reconhecimento facial são usadas em público. No entanto, como
não há maneira de não aceitar a vigilância em um espaço público ou privado a
não ser não frequentando-o, sinalizar a vigilância não oferece nenhuma escolha
razoável às pessoas. E, sem uma maneira de poder optar por não participar de um
sistema potencialmente perigoso, os seres humanos começam a ser escravizados. É
por isso que leis sérias e executáveis que possam pôr restrições no
reconhecimento facial são cruciais, e é o motivo pelo qual essa discussão é tão
importante na atual conjuntura de nosso desenvolvimento tecnológico.
Uma vez que o reconhecimento
facial e outras inteligências artificiais tornem-se pervasivos — e na ausência
de leis regulatórias sérias que possam por estribos na tecnologia — nós
ficaremos desprotegidos e então estaremos sujeitos a qualquer propósito ao qual
o governo ou o mercado queira implementar nossas identidades e localizações. É
aí que a ganância, os lucros e o poder entram em jogo como motivadores.
Se queremos identificar quem são
os tais “outros” perigosos, talvez sejam justamente aqueles que querem que nós
entreguemos nossos rostos, nossa identidade e nossa heterogeneidade — não
apenas para que eles possam identificar nossos perfis, mas com a intenção de
fazer classificações automatizadas e controle social. É por isso que o
reconhecimento facial é uma tecnologia crítica e deve ser debatida – e por que
um número crescente de pessoas quer bani-lo de nossa sociedade.
Gostou do texto? Contribua para
manter e ampliar nosso jornalismo de profundidade: OUTROS QUINHENTOS
Sem comentários:
Enviar um comentário