Sem
consentimento dos usuários, rede testa meios de torná-los “felizes” ou
“coléricos” e desencadeia onda de temor sobre controle social e político
Robert
Booth, no The
Guardian - Outras Palavras - Tradução: Gabriela Leite
Ele
já sabe se você está solteiro ou em um relacionamento; a primeira escola onde
estudou; se ama ou odeia Justin Bieber. Mas agora o Facebook, a maior rede social do
mundo, está enfrentando uma tempestade de protestos ao se revelar que descobriu
como fazer usuários se sentirem mais tristes ou felizes, com apenas alguns
toques no teclado.
O
Facebook acaba de publicar detalhes de um amplo expermiento, no qual manipulou
informações postadas nas páginas de 689 mil usuários, e descobriu que poderia
fazê-los sentir-se mais positivos ou negativos, por meio de um processo de
“contágio emocional”.
Em
um estudo [leia o
relatório] com acadêmicos da Universidade de
Cornell e da Universidade
da Califórnia, o Facebook filtrou o feed de notícias de usuários
— a corrente de comentários, vídeos, imagens e links postados por outras
pessoas em sua rede social. Um teste reduziu a exposição de usuários ao
“conteúdo emocional positivo” de seus amigos. Em consequência, os usuários
submetidos a este conteúdo manipulado também postavam menos posts positivos.
Outro teste reduziu a exposição a “conteúdo emocional negativo”: os usuários
reagiram de maneira oposta à do primeiro grupo.
O
estudo concluiu: “Emoções expressas por amigos, via redes sociais, influenciam
nossos próprios humores, constituindo, segundo sabemos, a primeira evidência
experimental de contágio emocional em escala maciça, via redes sociais.”
Advogados, ativistas que
debatem o futuro da internet e políticos afirmaram, neste final de semana, que
o experimento de massa sobre manipulação emocional era “escandaloso”,
“assustador” e “incômodo”.
Na
noite de domingo, um membro experiente do Parlamento Britânico pediu uma
investigação parlamentar sobre como o Facebook e outras redes sociais
manipularam respostas emocionais e psicológicas de seus usuários, ao editar
informações oferecidas a eles.
Jim
Sheridan, um membro do comitê de mídia da Câmara dos Comuns britânica, disse
que o experimento era intrusivo. “Trata-se de algo extraordinariamente
poderoso, e se ainda não há uma legislação para isso, deveria haver, para
proteger as pessoas”, disse. “Estão manipulando informações da vida pessoal de
seres humanos, e me preocupa a capacidade do Facebook e de outros para
manipular os pensamentos relacionados a política ou outras áreas. Se as pessoas
estão sendo controladas dessa maneira, segundo o que pensam, é necessário que
haja uma proteção, e elas precisam ao menos ter consciência disso.”
Uma
porta-voz do Facebook disse que a pesquisa, publicada
este mês na revista de Procedimentos da Academia Nacional de Ciências dos EUA,
foi realizada para “melhorar nossos serviços e tornar o conteúdo que os
usuários veem no Facebook o mais relevante e envolvente possível”.
Ela
acrescentou: “Uma grande razão da pesquisa é entender como as pessoas respondem
a tipos diferentes de conteúdo, seja em um tom positivo ou negativo, notícias
de amigos, ou informações sobre as páginas que seguem.”
Mas
alguns outros comentaristas expressaram receio de que o processo poderia ser
usado para propósitos políticos em disputas eleitorais ou para encorajar
internautas a se manterem focados no site, alimentando-os com pensamentos
felizes, e permitindo bombar as receitas de publicidade do próprio Facebook.
Em
uma série de
posts no Twitter, Clay Johnson, o co-fundador da Blue State Digital, a
empresa que construiu e gerenciou a campanha online de Barack Obama à
presidência em 2008, disse: “O
experimento do Facebook de ‘trasmissão de raiva’ é aterrorizante.”
Ele
pergunta: “A CIA poderia iniciar uma revolução no Sudão pressionando o Facebook
a promover descontentamento? Isso seria legal? Mark Zuckerberg poderia virar o
resultado de uma eleição ao promover posts do Upworthy [um site que agrega conteúdo
viral] duas semanas antes de os cidadãos irem às urnas? Isso seria legal?”
Alega-se
também que o Facebook possa ter quebrado normas éticas e legais, ao não
informar seus usuários que estavam sendo manipulados no experimento, realizado
em 2012.
A
rede afirmou que alterar o feed de notícias foi “consistente com a política de
uso de dados do Facebook, com a qual usuários devem concordar antes de criar uma
conta no Facebook, constituindo consentimento informado para esta pesquisa”.
Mas
Susan Fiske, acadêmica de Princeton que editou o estudo, disse estar
preocupada. “As pessoas devem ser avisadas quando vão participar de estudos e
concordar com isso, além de terem a opção de discordar sem serem penalizadas.”
James
Grimmelmann, professor de Direito da Maryland University, disse que o Facebook
não obteve “consentimento informado”, segundo os padros definidos pela política
federal dos EUA para a proteção da subjetividade das pessoas. A lei demanda
explicação sobre os propósitos da pesquisa e a duração estimada de participação
do indivíduo, uma descrição de quaisquer riscos razoavelmente previsíveis e uma
confirmação de que o envolvimento é voluntário. “Este estudo é um escândalo
porque trouxe as práticas problemáticas do Facebook a um reino — a academia —
onde ainda temos como padrão tratar pessoas com dignidade e servir ao bem
comum”, disse em seu
blog.
Não
é novidade para as empresas de internet usar algorítimos que selecionam o
conteúdo que mostram aos seus usuários. Jacob Silverman, autor do livro Terms
of Service: Social Media, Surveillance, and the Price of Constant Connection (em
tradução livre, “Termos de serviço: mídias sociais, vigilância e o preço da
conexão constante”),disse à
revista Wired, no domingo, que a internet já é “uma coleção ampla de estudos de
pesquisa de mercado; nós somos os objetos”.
“O
que é perturbador sobre como o Facebook agiu sobre isso, entretanto, é que eles
essencialmente manipularam os sentimentos de centenas de milhares de usuários
sem pedir permissão”, disse. “As coisas com as quais o Facebook mais se importa
são as seguintes: envolvimento e publicidade. Se o Facebook, digamos, decide
que filtrar nossos posts negativos ajuda-o a manter as pessoas felizes e
clicando, há pouco motivo para pensar que eles não irão fazê-lo. Enquanto a
plataforma se mantiver na condição de um filtrador tão decisivo — e conservar
seus algorítimos completamente opacos — nós devemos ficar cautelosos com o
poder e confiança que delegamos a ele.”
Robert
Blackie, diretor digital da agência de marketing Ogilvy One, disse que a
maneira que as empresas de internet filtram informações que mostram a seus
usuários é fundamental para seus modelos de negócio, o que as faz relutantes
para abri-los.
“Para
garantir aceitação continuada de público, estas empresas terão que rediscutir
tal questão de maneira mais aberta no futuro”, ele disse. “Será preciso
introduzir ou críticos independentes, capazes de analisar o que elas fazem, ou
regulação governamental. Se o Facebook e similares não compreenderem isso, as
pessoas ficarão relutantes ao utilizar seus serviços, o que é potencialmente um
grande problema de negócios.”
Leia
mais em Outras
Palavras
Negri:
um caminho para reanimar as lutas europeias
Pepe Escobar
Geopolítica da Copa do Mundo
Geopolítica da Copa do Mundo
Sem comentários:
Enviar um comentário