Mesmo quando não seguir o político A ou B é possível que o usuário seja exposto a esses conteúdos em sua linha do tempo. É inclusive algo coerente com as denúncias feitas pela ex-funcionária do Facebook, Frances Haugen, ainda em 2021, que revelou como a rede social estava ciente dos efeitos deletérios de mudanças em seus algoritmos de distribuição de conteúdos e optou por não fazer nada para não prejudicar os lucros. Em 2018, o Facebook implementou um algoritmo a partir do conceito de “Interações Sociais Significativas” (do inglês, Meaningful Social Interactions (MSI)).
O objetivo declarado dessa mudança era priorizar conteúdos que fomentassem interações mais profundas entre amigos e familiares. Para isso, o algoritmo passou a valorizar mais as postagens que geravam comentários, compartilhamentos e reações, o engajamento ativo. Conteúdos de meios de comunicação tiveram sua visibilidade reduzida. A própria equipe do Facebook alertou que isso levou ao aumento da disseminação de conteúdos polarizadores, já que o engajamento foi usado como critério principal. A empresa optou por engavetar o problema. (The Facebook […], 2021).
Máquina de radicalização política
O WhatsApp não será afetado diretamente pelas mudanças, mas as plataformas de redes sociais precisam ser analisadas como um ecossistema complexo, em que os efeitos das novas regras se espalham e contaminam os diferentes ambientes. Em pesquisa que realizei durante as eleições de 2018, com Fernanda Bruno (Evangelista; Bruno, 2019), discutimos o papel do WhatsApp na eleição de Bolsonaro. Ali, mostramos como a função dos grupos do WhatsApp foi utilizada como estratégia de marketing eleitoral. Milhares de grupos de discussão, com diferentes nomes – muitos dos quais, em tese, serviriam para discutir assuntos não eleitorais ou mesmo não políticos –, se tornaram uma rede social paralela. Pessoas ligadas à então campanha de Jair Bolsonaro acompanhavam e controlavam o conteúdo desses grupos, os quais são fechados, portanto de difícil visualização e estudo por jornalistas e pesquisadores. Não à toa surgiram, à época, iniciativas como o Monitor do WhatsApp da UnB (Melo et al., 2019), buscando trazer à luz pelo menos parte desses conteúdos compartilhados. Ao estarem presentes em diversos desses grupos, os marqueteiros bolsonaristas formaram uma rede paralela e invisível de vigilância sobre a comunicação dos membros dos grupos.
Porém, ao circular nesses ambientes, os conteúdos ganham tração e acabam sendo impulsionados em outras redes sociais. Os algoritmos dessas outras plataformas identificam que determinado conteúdo está tendo um acesso considerável e o impulsionam ainda mais. Para as redes sociais do Vale do Silício, não importa se aquele material é desinformação ou não, se é discurso de ódio ou não, o que vale é acelerar aquilo que demonstra alto potencial de viralização.
A dissertação de Jane Mesquita, intitulada A máquina política e a política da máquina: um olhar sobre a direita no YouTube (2024), mostra como produtores de conteúdos em vídeo para o YouTube identificam o discurso da extrema-direita e a rede de compartilhamento bolsonarista como uma oportunidade de negócio. Canais do YouTube se alinham a certos temas da política para obter mais visualizações. Trata-se de uma sinergia entre o modelo de negócios desregulamentado das plataformas e os temas emocionais e sensacionalistas da extrema-direita. As já frágeis regras de moderação, aplicadas tibiamente, são propositalmente lentas e ineficazes na derrubada de conteúdos nocivos. As mudanças nas regras da Meta vão piorar a situação no Facebook, no Threads e no Instagram, mas devem afetar todo o ecossistema informacional.
Modelo de negócios une atenção, vigilância informacional e lucros
Os achados de Mesquita (2024) ilustram bem o modo que as principais empresas de tecnologia arrumaram para conseguir lucros, sendo esse modo um elemento essencial para a epidemia da desinformação. Os dados de campo da pesquisadora atravessam o período da pandemia, no qual a desinformação, o discurso antivacinas – por meio do negacionismo – e a promoção de falsas soluções mágicas, associados ao oportunismo político, produziram consequências trágicas. Explorar algoritmicamente o sensacionalismo favorece os lucros das empresas, sem que elas sejam responsabilizadas, pública e civilmente, pela autoria dos conteúdos. Mas as Big Techs não são intermediárias neutras: elas são as responsáveis pelos estímulos econômicos que também sustentam a produção desses conteúdos, além de comandarem os algoritmos que valorizam as visualizações a qualquer custo em detrimento da qualidade.
A atenção sempre esteve no cerne do modelo de negócio ligado à indústria da comunicação em geral. Atrair o olhar ou escutar o público é historicamente estratégico para as empresas de mídia, seja o jornal impresso com seus anúncios, sejam a TV e o rádio com seus intervalos comerciais. Para que esse processo não seja um vale-tudo, surgiram tanto medidas regulatórias por parte do Estado quanto regras da própria indústria, por meio das sociedades de classe (Evangelista, 2023). Regras semelhantes às que o Vale do Silício vem combatendo via lobby legislativo, sempre se escorando na ideia de liberdade de expressão acima de tudo.
Tal defesa de ideais na verdade se conjuga muito à sustentação de um modelo de negócio. A economia da atenção e o capitalismo de vigilância não apenas compartilham suas lógicas, mas estão estruturalmente interligados (Bentes, 2021). O modelo de negócios das grandes plataformas digitais, como os produtos da Meta (Facebook e Instagram, em especial) e do Google, não se limita à venda de publicidade baseada na atenção dos usuários, mas, sim, à extração em massa de dados comportamentais, os quais são processados por algoritmos em busca da predição e modificação de ações humanas futuras.
A atenção dos indivíduos funciona como um elemento fundamental envolvido na extração e monetização dos dados, dando sustentação à capacidade das empresas de não apenas prever, mas também influenciar escolhas e comportamentos. Como aponta Shoshana Zuboff (2021), o capitalismo de vigilância prospera ao criar mercados preditivos, nos quais o conhecimento antecipado das ações dos usuários e a possibilidade de influenciá-las se tornam ativos valiosos para empresas e anunciantes. Assim, a lógica da captação da atenção se desdobra em mecanismos de controle e gestão da conduta, configurando uma economia na qual a vigilância não é um efeito colateral, mas sim um pilar essencial da acumulação de capital.
Ideologia californiana e o poder instrumentário
Zuboff, que desenvolveu a ideia da vigilância como elemento fundamental do modelo de negócio das redes sociais, é autora de A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder (2019). O livro, no entanto, vai além da historicização de como as empresas aprenderam a ganhar dinheiro de verdade com a internet – o que nenhuma delas vinha conseguindo até então – e foi essa descoberta que levou à emergência das Big Techs. Quando discute o que chama de poder instrumentário, Zuboff mergulha nas distopias do Vale do Silício, o que nos dá pistas para entender os efeitos sociais profundos, de impacto global, e o motivo de as Big Techs estarem tão próximas ao governo Trump. Nos últimos anos, têm surgido barreiras regulatórias para a ação dessas empresas, e estar no centro do poder é uma maneira de derrubar essas barreiras e, se for possível, de corroer o Estado por dentro também.
Os estudos sobre o Vale do Silício em seus aspectos ideológicos datam desde, pelo menos, o final do século XX. A crítica mais pungente partiu dos ingleses Richard Barbrook e Andy Cameron, que em 1995 escreveram um ensaio intitulado The Californian ideology (1996). Segundo essa perspectiva, a ideologia da Califórnia combina elementos da contracultura dos anos 1960-1970, como o idealismo hippie, com o empreendedorismo individualista dos yuppies dos anos 1980. Essa fusão gerou uma visão otimista e tecnodeterminista na qual a tecnologia digital é vista como uma força de emancipação social, ao mesmo tempo que reforça uma lógica neoliberal e de mercado. A ideologia rejeitou as versões mais à esquerda, que viam a internet como uma possibilidade de superação do capitalismo (Evangelista, 2018) e, ao contrário, consagrou-a como apoteose de um neoliberalismo digital.
Com uma abordagem mais historiográfica, Fred Turner (2006) detalha como se deu a relação entre a contracultura e a cibercultura, explorando as divisões políticas entre os hippies e a nova esquerda dos anos 1960, assim como entre os setores mais técnicos, ativistas e amadores, que passaram a explorar as possibilidades da microcomputação.
A vitória contemporânea desse neoliberalismo digital se dá pela ascensão das Big Techs, que passam a explorar os dados que trafegam na rede, e toda forma de rastros digitais que deixamos ao sermos interpelados pelos dispositivos cibernéticos, como insumo para o capitalismo. Zuboff aponta como o capitalismo de vigilância está lidando com o social tornando-o o mais previsível e influenciável possível. O poder instrumentário operaria sem necessidade de coerção explícita, modulando silenciosamente o comportamento humano em larga escala por meio de mecanismos digitais automatizados. Mas, ao mesmo tempo que é um projeto de domínio de mercado, o poder instrumentário tem uma base filosófica que, quando aplicada, segundo a autora, “refaz a natureza humana” (Zuboff, 2019, p. 352).
Nesse contexto, a subjetividade e a reflexão humana são progressivamente diminuídas em favor de um regime de previsibilidade comportamental no qual a liberdade não é diretamente suprimida, mas debilitada de maneira imperceptível para servir a uma arquitetura invisível de controle e lucro. Para entender os fundamentos dessa nova forma de poder, Zuboff recupera os escritos utópicos e filosóficos de B. F. Skinner, pai do behaviorismo radical, e de acadêmicos/empreendedores contemporâneos como Alex Pentland, autor do conceito de “mineração da realidade”, no qual dados passivos dos usuários (como localização, padrões de movimento, chamadas telefônicas e interações on-line) se transformam em modelos preditivos do comportamento humano.
Zuckerberg e Larry Page, do Google, são citados por Zuboff – e poderíamos adicionar Musk – como “executivos da utopística aplicada”, ou seja, estão imbuídos de implementarem as visões de sociedade de Skinner e Pentland. Walden II: uma sociedade do futuro, romance utópico de Skinner, escrito em 1948, ilustra as relações de poder inerentes a esse sonho tecnológico: um mundo gerenciado por técnicos, responsáveis pela engenharia de comportamentos sociais, sem conflitos e profundamente eficiente, pois as vontades de indivíduos, grupos e classes foram suprimidas por uma força de modulação comportamental cientificamente informada.
É a anulação da política democrática em favor de um poder que controla o outro como se fosse uma espécie incapaz. Sustentado em uma economia de mercado, o poder instrumentário opera para o consumo incessante, a extração veloz de recursos naturais, a exploração máxima do trabalho e as instabilidades políticas que evitam obstáculos à privatização.
Alternativas insubmissas
Pressionados pela sociedade civil, os governos tentam frear o poder das Big Techs. Leis como a GDPR (Regulamento Geral de Proteção de Dados) europeia e a Lei Geral de Proteção de Dados Pessoais (LGPD) brasileira foram tentativas iniciais de dar algum regramento e justiça à coleta indiscriminada de dados. Mas são regulamentações com efeitos tímidos, que apostaram demais na autonomia dos indivíduos para dizer ‘não’ ao uso de seus dados e de quebra acabaram legitimar algumas práticas. No caso brasileiro, some-se ainda a fragilidade institucional e financeira da Autoridade Nacional de Proteção de Dados (ANPD), entidade responsável por fazer valer a lei. Mais recentemente, a Europa fez alguns avanços com o Digital Markets Act (DMA) e com o Digital Services Act (DSA), direção que o Brasil esboça seguir com discussões ainda iniciais por parte do Ministério da Fazenda, para regulamentar o mercado, e com o PL 2630/2020, a lei das fake news, alvejada em praça pública pelo lobby das Big Techs.
Nenhuma dessas iniciativas, no entanto, parece enfrentar o problema em si, em sua dimensão correta. Pelo contrário, ainda que recentemente o governo federal tenha adotado ideias como “soberania digital” como slogan – assim como governos estaduais e municipais –, é perceptível e crescente a sua dependência das estruturas das Big Techs por meio de programas ingênuos de “transformação digital”. Sem uma política digital consistente e ampla, os serviços estatais vão sendo digitalizados por meio de hardwares e softwares do Vale do Silício, com órgãos nacionais muitas vezes atuando como brokers, revendedores de serviços de nuvem (onde estão os dados) estrangeiros.
Nenhuma política regulatória conseguirá ser aprovada ou se tornará eficaz enquanto o Estado e a sociedade estiverem à mercê de Big Techs capazes de chantageá-los. Há alternativas, tanto em termos de softwares – como as redes sociais federadas e descentralizadas licenciadas como softwares livres e abertos –, quanto em termos de hardware. O Brasil tem excelência na formação de desenvolvedores e analistas de sistemas, que poderiam ser empregados na adaptação e na melhoria de softwares disponíveis (livres). Com o DeepSeek, a Inteligência Artificial (IA) chinesa, ficou claro que é possível superar a limitação de hardwares caros, cuja produção é controlada pelos países centrais, em favor de soluções mais baratas exploradas criativamente.
Os avanços em IA, especialmente no que se refere aos Grandes Modelos de Linguagem (LLM), ligaram um alerta na sociedade com relação a um aprofundamento da distância entre aqueles que produzem e os que consomem tecnologia. O governo brasileiro respondeu de forma particularmente rápida, apontando para R$23 milhões em investimento entre 2024 e 2028 com o Plano Brasileiro de Inteligência Artificial (PBIA). Com menos investimento, mas com forte coordenação e planejamento, seria possível minimizar uma dependência tecnológica que não está no futuro, mas no agora, trata-se de uma possibilidade real hoje, com consequências muito concretas para a democracia brasileira. Ou ficaremos à mercê dos rompantes erráticos de Musk e das crises de meia-idade de Zuckerberg.
Nota:
[1] O herói randiano, inspirado na filosofia objetivista de Ayn Rand, representa o ideal do indivíduo autossuficiente, racional e inovador, rejeitando o coletivismo e o Estado e exaltando o empreendedorismo. Rand é descrita em artigos jornalísticos (Bilton, 2016) como tendo grande influência sobre os empreendedores do Vale do Silício, sendo que sua filosofia sugere que é desejável ser egoísta e ganancioso, em especial no mundo dos negócios, onde a mentalidade de vencer a qualquer custo seria o preço de mudar as normas da sociedade.
Referências:
BARBROOK, Richard; CAMERON, Andy. The Californian ideology. Science as Culture, v. 6, n. 1, p. 44-72, 1996. DOI: <https://doi.org/10.1080/09505439609526455. Disponível em: https://www.tandfonline.com/doi/abs/10.1080/09505439609526455>. Acesso em: 17 mar. 2025.
BEAUCHAMP, Zack. Elon Musk doesn’t deserve the benefit of the doubt. Vox, Washington, D.C., 24 jan. 2025. Politics. Disponível em: <https://www.vox.com/politics/396535/elon-musk-nazi-salute-trump-inauguration>. Acesso em: 6 mar. 2025.
BENTES, Anna Carolina Franco. Quase um tique: economia da atenção, vigilância e espetáculo em uma rede social. Rio de Janeiro: Editora UFRJ, 2021. Disponível em: https://pantheon.ufrj.br/handle/11422/16510. Acesso em: 6 mar. 2025.
BILTON, Nick. Silicon Valley’s most disturbing obsession. Vanity Fair, New York, 5 out. 2016. Disponível em: <https://www.vanityfair.com/news/2016/10/silicon-valley-ayn-rand-obsession>. Acesso em: 6 mar. 2025.
EVANGELISTA, Rafael. Para além das máquinas de adorável graça: cultura hacker, cibernética e democracia. São Paulo: Edições Sesc, 2018.
EVANGELISTA, Rafael; BRUNO, Fernanda. WhatsApp and political instability in Brazil: targeted messages and political radicalisation. Internet Policy Review, [s. l.], v. 8, n. 4, 2019. DOI: <https://doi.org/10.14763/2019.4.1434>. Disponível em: <https://policyreview.info/articles/analysis/whatsapp-and-political-instability-brazil-targeted-messages-and-political>. Acesso em: 13 jan. 2025.
EVANGELISTA, Rafael. Nascidas para lucrar: como as grandes plataformas controlam o debate on-line e ameaçam a democracia. In: BANDEIRA, Olívia; MENDES, Gyssele; PASTI, André (orgs.). Quem controla a mídia? Dos velhos oligopólios aos monopólios digitais. São Paulo: Veneta, 2023. p. 171-197.
MELO, Philipe et al. WhatsApp monitor: a fact-checking system for WhatsApp. Proceedings of the International AAAI Conference on Web and Social Media, [s. l.], v. 13, p. 676-677, jul. 2019. DOI: <https://doi.org/10.1609/icwsm.v13i01.3271>. Disponível em: <https://ojs.aaai.org/index.php/ICWSM/article/view/3271>. Acesso em: 15 mar. 2024.
MESQUITA, Jane Maria Santos de. A máquina política e a política da máquina: um olhar sobre a direita no YouTube. 2024. 98 f. Dissertação (Mestrado em Divulgação Científica e Cultural) – Instituto de Estudos da Linguagem, Universidade Estadual de Campinas, Campinas, 2024. Disponível em: <https://www.repositorio.unicamp.br/acervo/detalhe/1398041>. Acesso em: 15 mar. 2024.
THE FACEBOOK files, part 4: the outrage algorithm. Apresentadores: Kate Linebaugh, Ryan Knutson. Convidada: Keach Hagey. New York: The Journal, 14 set. 2021. Podcast. Disponível em: <https://www.wsj.com/podcasts/the-journal/the-facebook-files-part-4-the-outrage-algorithm/b2069914-3bd4-4d3d-8061-b9630f520696>. Acesso em: 6 mar. 2025.
TURNER, Fred. From counterculture to cyberculture: Stewart Brand, the Whole Earth network, and the rise of digital utopianism. Chicago: University of Chicago Press, 2006.
VALENTE, Jonas. WhatsApp é principal fonte de informação do brasileiro, diz pesquisa. Agência Brasil, Brasília, DF, 10 dez. 2019. Geral. Disponível em: <https://agenciabrasil.ebc.com.br/geral/noticia/2019-12/whatsapp-e-principal-fonte-de-informacao-do-brasileiro-diz-pesquisa>. Acesso em: 6 mar. 2025.
ZUBOFF, Shoshana. A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira do poder. Rio de Janeiro: Intrínseca, 2021.
Outras Palavras é feito por muitas mãos. Se você valoriza nossa produção, seja nosso apoiador e fortaleça o jornalismo crítico: apoia.se/outraspalavras