Clipping

Assim age o controle social automágico

Viagem às entranhas dos aplicativos. Em suas múltiplas camadas, impõe-se a lógica do cognitivismo liberal. A captura do trabalho coletivo se faz em anestesia — por meio de constantes estímulos, recompensas e produção dirigida de dopamina

Por: Luís Gonçalves

Nossa ambição final é transformar
a experiência Google como um todo,
tornando-a maravilhosamente simples,
quase automágica, porque compreendemos
o que você quer e podemos
entregá-lo instantaneamente”
(Larry Page, fundador do Google)

Cada vez mais é impossível estar em sociedade e viver a própria individualidade sem usarmos alguma mercadoria ou serviço digital. Para obtermos trabalho, entretenimento, serviços públicos, educação, compras, informação etc., agora precisamos de um dispositivo, sinal de internet e contas em plataformas como o Google, a Microsoft ou o Gov.br. Curiosamente, a maioria dessas maravilhas se apresentam como gratuitas, divertidas, inteligentes e muito sedutoras. Uma rápida conferida numa notificação pode virar muitos minutos de distração, onde plataformas, comerciantes e agentes políticos lançam mão de recursos envolventes que não percebemos nem temos controle. Mas como essa automagia funciona? Por que é tão difícil resistir a ela? Qual o seu propósito?

Após mais de 30 anos de pesquisas e debates sobre essas questões em todo o mundo, as respostas começam a se estabelecer. Para compreendê-las, devemos partir de onde tudo começa para nós usuários: as telas dos nossos dispositivos e aplicativos. Ao clicarmos nelas, acessamos uma camada abaixo dessas máquinas automágicas, onde vemos que elas são continuamente produzidas por cientistas, engenheiros, designers, psicólogos, marqueteiros, advogados, administradores e investidores capitalistas. Mas o que estes desenvolvedores desenvolvem?

Clicando nessa pergunta, somos levados a uma camada seguinte. Nela, os mais de 2,5 milhões de aplicativos disponíveis em lojas virtuais1 apresentam-se como ofertas desses desenvolvedores para nossas necessidades vitais (teleconsultas), psicológicas (pertencimento, individuação etc.), sócio-produtivas (trocar mensagens, educação etc.) ou sócio-culturais (jogar games, assistir filmes etc.) – sejam elas percebidas por nós e/ou sugeridas por eles.

Clicamos nessa imensa galeria de mercadorias e, numa camada abaixo, vemos que, embora o número de aplicativos denote a crescente variedade de desejos e necessidades humanas, a sua digitalização exige que os desenvolvedores criem modos padronizados para o seu consumo – o que eles chamam de design da experiência do usuário (UX, de user experience).

Ao darmos um zoom no design de UX, encontramos um conjunto de teorias que podemos chamar de cognitivismo neoliberal. Sem explicar que a principal causa da nossa vida corrida é a necessidade capitalista de extrair cada vez mais valor do trabalho social, o cognitivismo neoliberal ensina que, com toda essa agitação, nossas atividades digitalizadas devem ser cada vez mais simplificadas e gratificantes – caso contrário, os desenvolvedores podem perder o cliente para uma oferta concorrente2.

Um clique nessas simplificações e gratificações e somos levados camada abaixo para o que a psicologia comportamental chama de satisfação instrumental3. Nela, certas recompensas – sensações, experiências e memórias de satisfação mais ou menos relacionadas à necessidade em si – são provocadas nos usuários com a finalidade de motivá-los a adotar um comportamento previamente idealizado, como comprar, se engajar ou acreditar em algo. Segundo a neurociência4, o fluxo entre certos estímulos e recompensas presentes no design de UX pode estimular a produção de dopamina (o neurotransmissor da motivação), aumentando as chances de nos engajarmos nesse comportamento – mesmo que tenhamos outras razões para não fazê-lo. Mas como o design de UX realiza essa automagia?

Um clique nessa pergunta e descemos à camada que os desenvolvedores chamam de arquitetura de escolhas5. Trata-se da hierarquização da variedade de decisões que o usuário pode tomar durante o consumo de uma mercadoria ou serviço digital. Ela é inserida na programação e no design de UX principalmente através das affordances6 – a maneira possível de se fazer algo num aplicativo, como encontrar um par deslizando imagens de pessoas no Tinder. Como os próprios desenvolvedores explicam7, as decisões e atividades que eles precisam que o usuário execute (ceder dados, fazer compras etc.) são facilitadas, estimuladas e recompensadas (a satisfação instrumental). Já as decisões alternativas podem ser dificultadas, ou mesmo a sua escolha pode impedir esse consumo – em geral, você não consegue usar um aplicativo “gratuito” sem ceder dados. Mas por que não podemos fazer escolhas livremente?

Ao clicarmos nessa pergunta, descemos à camada do paternalismo libertário8, onde o cognitivismo neoliberal diz que muitas vezes nossas escolhas não são racionais e, por isso, precisamos de nudges (um empurrãozinho) dos desenvolvedores em direção a melhores decisões para nós mesmos. E por que precisamos ser paternalizados?

Um clique aqui e chegamos na camada onde somos tratados pelos desenvolvedores como previsivelmente irracionais9. Eles afirmam que somos assim porque temos vieses cognitivos, isto é, adotamos critérios e heurísticas emocionais e não-racionais, seja por preguiça, pressa ou para poupar esforço mental10. Por isso, os manuais de design de UX ensinam que a hierarquia e a apresentação de escolhas têm que evitar nos fazer pensar – momento que eles chamam de atrito na jornada do usuário11. Isso implica que certas decisões importantes (como ceder ou não dados pessoais) devem ser apresentadas para nós de forma simpática, discreta e prática – tudo para o nosso próprio bem.

Mas há um problema com o cognitivismo neoliberal. Quando outros cientistas tentam replicar os experimentos científicos que deram origem às suas teorias, muitos deles não chegam aos mesmos resultados. Esta é a chamada crise de replicação, que fez com que a PNAS, uma das mais prestigiadas revistas científicas de psicologia dos EUA, questionasse as bases científicas para muitas das afirmações do cognitivismo neoliberal12.

Então, ao clicarmos na crise de replicação, percebemos que o cognitivismo neoliberal não “descobre” o funcionamento das nossas mentes, mas tenta produzi-lo no design de UX, por exemplo através do chamado Modelo do Gancho13. Nesse modelo, os desenvolvedores querem que o consumo de suas ofertas se torne um hábito para nós, algo que fazemos sem pensar, como se fosse um tique14. Para isso, eles começam nos cercando com uma série de gatilhos, que são estímulos relacionados a necessidades psicológicas como reconhecimento, tédio, solidão etc. – por exemplo, através das notificações do WhatsApp. Como coceiras, esses gatilhos nos provocam desconfortos, até que possam ser “coçados” pelas ofertas dos desenvolvedores – como joguinhos de celular, redes sociais, notícias falsas etc. Mas se 97% dos aplicativos digitais são gratuitos15, o que os desenvolvedores querem em troca das suas habituações e coçadas?

Ao clicarmos nessa pergunta, chegamos ao objetivo do Modelo do Gancho. Nas palavras do seu criador, o psicólogo, designer de UX e investidor do Vale do Silício Nir Eyal, ao se habituar a uma mercadoria ou serviço digital, algo estranho ao consumo tradicional passa a acontecer: “o usuário faz um pouco de trabalho”. Mas de que tipo de trabalho Eyal está falando?

Agora, ao clicarmos em mais essa pergunta, somos transferidos da interface e da experiência do usuário para dentro dos hardwaressoftwares e sensores por trás delas – e sobre os quais pouco ou nada sabemos. Segundo os desenvolvedores, as atividades que essas máquinas automágicas nos sugerem (curtir, interagir, clicar, assistir, inserir dados etc.) existem na medida e na forma em que possam acionar coordenadamente duas “engrenagens”. A primeira quer atender às nossas necessidades – sejam elas do estômago (uma pizza pelo Ifood), ou da imaginação (as coçadas nas necessidades psicossociais no Facebook). Ocorre que, por sua vez, a segunda engrenagem é acionada pela primeira, e sua tarefa é codificar em dados digitais essas ações de consumo e seus resultados (o que pode incluir até sinais vitais que ocorrem nesses momentos)16.

Um clique nesses dados e somos direcionados para os Termos de Uso das mercadorias e serviços digitais “gratuitos” (que nunca lemos17), que geralmente ficam escondidos por perto daquele sugestivo botão “concordo”, e que precisamos clicar para poder usar esses aplicativos. Parte dos segredos das máquinas automágicas está lá, onde os desenvolvedores nos lembram que Gmail, Instagram, Tiktok, ChatGPT são softwares que pertencem a eles, mas que eles deixam você usar sem gastar dinheiro, desde que você ceda para eles a propriedade dos dados digitais que a sua atividade produziu no consumo dessas ofertas18. E por que os desenvolvedores precisam que você produza esses dados para eles?

Um clique nessa pergunta nos leva a outra camada, muito distante dos nossos dispositivos, que são os grandes bancos de dados de propriedade dos desenvolvedores – o chamado big data. Lá, nossos dados são combinados com dados de outras pessoas e coisas, para que poderosos computadores e seus algoritmos busquem padrões entre essas informações, como, por exemplo, os tipos de comportamentos que determinadas pessoas e grupos adotaram sob certos estímulos19.

Clicamos nesses padrões e vemos que, a partir das crenças do cognitivismo neoliberal, os desenvolvedores buscam recriar de forma automatizada e em grande escala alguns daqueles padrões na forma de estímulos para nos fazer repetir comportamentos previamente idealizados – assistir mais um stories no Instagram, responder à mensagem do chefe em qualquer horário, ou compartilhar desinformação20. Além disso, esses novos dados e seus padrões podem indicar possibilidades e tendências de futuro, que podem se realizar ou não, e que os desenvolvedores chamam de análise preditiva21. Mas o que eles querem prever?

Um clique nessas predições e vemos que, se certos indivíduos forem correlacionados a padrões de ocorrência de certas doenças, de modalidades de consumo ou de atitudes políticas, esses dados podem ser oferecidos seja para empresas de saúde e seguradoras para evitar custos, para comerciantes em busca de mais vendas, ou para forças políticas promoverem suas agendas. A análise preditiva nem necessita ser precisa, pois se ela influenciar o comportamento de pequenos percentuais de seus alvos, isso pode significar milhões de dólares22 ou votos23 a mais para os clientes de dados. E tudo isso também pode ser muito lucrativo para os desenvolvedores. Em 2023, o faturamento das empresas de corretagem de dados (data brokers) foi avaliado em US$ 280 bilhões24 e as sete maiores big techs do mundo valiam juntas US$ 10,6 trilhões25.

Um último clique nesses mercados trilionários e somos levados de volta ao nosso ponto de partida, as divertidas interfaces dos nossos dispositivos digitais. Agora, compreendemos que a aplicação contínua de gatilhos, coçadas e nudges algoritmicamente selecionados tem mais a ver com a busca por padrões que reduzam riscos, custos e tempos de acumulação de capitais do que a satisfação de nossas necessidades ou as melhores escolhas para o nosso próprio bem. Hoje, um grande acúmulo de pesquisas demonstra que esses recursos de satisfação instrumental, ao nos pôr a fazer o que não faríamos de outra forma, podem ser relacionados a exposição excessiva na internet26, a sofrimentos como ansiedade e solidão27, ao extremismo político28 e à infodemia29.

É por tudo isso que regulações como Marco Civil da Internet, Lei Geral de Proteção de Dados, certas propostas em torno da PL 2630/2020 (Lei das Fake News) e da regulação da Inteligência Artificial são importantes – apesar dos seus limites –, assim como a adoção de políticas públicas de educação midiática crítica. Nada disso, porém, virá como uma dádiva ou concessão de governos e empresas, mas sim pela conquista da ação coletiva organizada.

 

Veja em: https://outraspalavras.net/tecnologiaemdisputa/assim-age-controle-social-automagico/

Comente aqui