Tech Tech

Por que a internet não parece mais ser feita para nós, humanos.

Assim como muitos dos meus colegas de profissão, que foram tocados pelo filme O Diabo veste Prada e não sabiam sequer como concorrer ao “emprego pelo qual milhões de meninas matariam”, eu também criei um blog de moda na adolescência com a intenção de me aproximar um pouco mais desse universo.

Naquela época, o objetivo principal não era ter nossos posts descobertos em grande escala para fazer dinheiro com AdSenses e links afiliados, mas expressar uma ideia que acreditávamos ser única — ou pelo menos diferente e mais pessoal em relação ao que víamos na mídia tradicional. A graça era sentir que fazíamos parte de algo e, quem sabe, sermos capazes de transformar esse algo em um meio de vida ou em um portfólio digno de ser notado. Diversos blogs, não apenas os de moda, mas os de música, gastronomia, fotografia, conseguiram: se profissionalizaram ao longo do tempo, criaram equipes e modelos de negócios pequenos e dinâmicos. Aos poucos, porém, esse cenário foi violentamente transformado pelas redes sociais e por uma plataforma que inicialmente parecia um parceiro, mas que se revelou traiçoeira: o Google.

Ir fisicamente a uma biblioteca poderia levar a mais descobertas do que o esquema digital.

A empresa que se tornou sinônimo de internet, eliminando seus concorrentes a ponto de pagar cerca de 18 bilhões de dólares por ano à Apple para ser o buscador padrão do iPhone, alterou a visão de uma world wide web infinita e cheia de possibilidades. Hoje a maioria dos blogs e sites independentes que se destacaram naquela época, se não fechou, acabou se rendendo à escrita otimizada para SEO — um estilo de redação que usa e abusa de palavras-chave, links internos e externos, e uma estrutura de texto padronizada para agradar o algoritmo de sites de busca e melhorar a posição do conteúdo nos resultados de pesquisa — ou, pior, foi comprada, teve sua equipe demitida e passou a publicar textos gerados por IA para forçar o lucro por meio da quantidade.

Recentemente, quem ganhou bastante repercussão por abordar esse assunto e chamou a minha atenção pela dedicação em reunir tudo o que sempre me incomodou sobre escrever pensando em SEO foi o site de reviews de purificadores de ar HouseFresh – sim, também achei inusitado. A editora Gisele Navarro explicou de forma didática como essa lógica funciona. Em dois textos, ela detalha que o Google, operando sob o argumento EEAT (Especialização, Autoridade, Confiança e Experiência), vem há tempos prejudicando sites de nicho ao priorizar mídias tradicionais e portais com muito investimento.

O que até faz algum sentido racional em um primeiro momento, já que eles teriam um nome a zelar, menos probabilidade de publicar fake news e um trabalho jornalístico de boa qualidade… Em resumo, ofereceriam páginas melhores para os leitores. No entanto, como Gisele Navarro relatou, a ideia está bastante deturpada. Igualmente em crise, até veículos gigantes do noticiário estadunidense têm desenvolvido técnicas questionáveis para alcançar melhores rankings.

Tem os que foram comprados por conglomerados e começaram a publicar os mesmos guias de produtos elaborados por empresas terceirizadas que, se não usam IA, empregam freelancers pagos por hora, cujo único compromisso é a quantidade. Ou os que passaram a hospedar páginas chamarizes de tráfego, também feitas por terceiros, como listas imensas de cupons. Isso sem falar dos inúmeros posts sobre temas não relacionados às suas linhas editoriais para criar “relevância”.

Vale notar que, de acordo com o SemRush, basicamente 16 empresas dominam os resultados do Google hoje, por meio de 588 sites individuais, alcançando cerca de 3,5 bilhões de cliques por mês. 

Tudo isso começou a se intensificar, aparentemente, em 2019, quando o chefe de buscas do Google, Ben Gomes, enfrentou uma crise devido a uma “fraqueza nos números diários de pesquisas”, de acordo com esta reportagem de Edward Zitron, que leu diversos e-mails vazados da companhia. A seguir, grandes mudanças que priorizavam lucro sobre a qualidade dos resultados da busca foram feitas: o Google redesenhou o visual dos anúncios para se parecerem mais com os resultados orgânicos, Gomes foi transferido para o setor de Educação, enquanto Prabhakar Raghavan, a pessoa que arquitetou a movimentação interna da empresa, tornou-se também chefe do Google Search, fazendo os setores que antes eram separados se misturarem indefinidamente.

Em maio, o Google finalmente respondeu a alguns dos casos expostos acima, dizendo que penalizaria o que chamou de “site reputation abuse”, mas talvez seja tarde demais. Concordo com uma frase que li esses dias, cuja fonte infelizmente não anotei, que sugeria que a adoção em massa das práticas de SEO do Google acabou deixando a web claustrofobicamente menor — e pior.

Em entrevista à Folha de S.Paulo, o escritor e pesquisador de tecnologia canadense Corey Doctorow falou sobre como essa deterioração nos resultados do Google vem de antes do avanço da IA generativa: “O Google virou o maior símbolo da ‘bostificação’: uma companhia revolucionou a busca, com uma pesquisa que parecia mágica, decaiu tanto que sumiu com seções inteiras da web para 90% dos usuários que usam a plataforma como o portão para a internet”.

“O Google virou o maior símbolo da ‘bostificação’.”
Corey Doctorow

Uma das falas que sempre me vêm à cabeça quando penso no impacto do buscador no que consumimos online foi dita por Nicholas Carr ao podcast do jornalista Ezra Klein, quatro anos atrás. O escritor aponta que, ao digitalizar toda a produção científica, se acreditava que estudiosos que não eram superconhecidos ou vistos teriam mais chances de serem encontrados e citados em trabalhos acadêmicos. Foi comprovado, no entanto, que ao nos induzir a usar ferramentas de busca, a internet faz com que nos deparemos sempre com os mesmos resultados, que seguem o padrão mais popular (ou com mais dinheiro) primeiro e com mais destaque. Como resultado, as pessoas não começaram a citar tantos autores novos ou desconhecidos e os que já eram famosos ganharam ainda mais relevância — nesse contexto, ir fisicamente a uma biblioteca poderia levar a mais descobertas do que o esquema digital. E isso vale também para cenários como a música: o streaming nos possibilita conhecer novos artistas ou nos leva a repetir os mesmos em playlists criadas especificamente para nós, desestimulando a descoberta?

E aí entra a IA…

Eu sou bastante atraída pela ideia de que, se ninguém gosta de fazer uma coisa, se ela parece sem alma demais para ser uma incumbência humana, ela poderia ser substituída por IA ou qualquer outra tecnologia. O problema é que existem atividades que passamos a ver dessa forma apenas porque foram destruídas pelo excesso de foco financeiro das empresas que as controlam.

Pesquisar algo na internet poderia ser prazeroso e até surpreendente, mas fica realmente enfadonho quando você tem que navegar por sites planificados que ignoram a experiência do usuário. Atualmente, por exemplo, para conseguir descobrir o horário de um evento, muitas vezes você precisa atravessar resultados de Google Shopping, Google News, Google Ads. Quando finalmente consegue acessar um site, encontra um texto cheio de parágrafos pensados em SEO que enrolam para chegar ao ponto e dezenas de banners que atrapalham a leitura, apenas para descobrir que o evento não será transmitido no Brasil. Isso é uma experiência frustrante, que me faz pensar: “Sim, IA, tome conta de tudo isso e me dê logo um resumo da internet”. 

Foi nessa brecha que foram lançados serviços como o Rabbit, o Arc Search e o Perplexity — que se propõem exatamente a usar IA generativa para fazer o trabalho duro e nos entregar resultados prontos para qualquer demanda que tenhamos —, e o próprio Google com seu AI Overviews, que surge em um momento em que a OpenAI está desenvolvendo seu mecanismo de busca e que usuários jovens estão migrando para o TikTok a fim de encontrar respostas mais diretas a suas dúvidas.

A pressão para competir tem levado a empresa a lançamentos problemáticos, como seu gerador de imagens Gemini, e à suspensão do AI Overview em alguns resultados de busca que estavam sugerindo comportamento absurdos, como adicionar cola à pizza ou comer pedras. De qualquer forma, a ideia nasce como uma maneira de completar o círculo perfeitamente para o Google: primeiro tirando o brilho e a graça da coisa (fazendo com que jornalistas ficassem viciados em escrever com foco em SEO) e agora surgindo com a solução (inteligência artificial para você não precisar ter que encarar esses sites).

Para o usuário final, a ideia pode soar atrativa, mas o preço a pagar é alto, com o tráfego da internet podendo ser capturado em grande medida pelo próprio Google, como apontou o cientista-chefe do Instituto Tecnologia e Sociedade do Rio de Janeiro, Ronaldo Lemos, na Folha de S.Paulo. “Há uma preocupação de que isso crie uma espécie de monocultura na rede: a empresa não seria mais só um buscador, que envia cliques para outros lugares, mas o destino final e único de todas as buscas por informação, que passam a ser alimentadas pelo próprio site.”

O Google AI Overviews até pode mostrar a fonte, mas convenhamos que isso torna bem menos provável que as pessoas queiram acessar esses sites. Vários especialistas já enxergam a situação como a ameaça mais séria à sustentabilidade do jornalismo dos tempos recentes, já que hoje jornais, blogs e diversos tipos de sites têm no Google uma de suas principais fontes de tráfego, graças ao redirecionamento das buscas e AdSenses, e dedicam muito trabalho em estratégias para aparecer no topo da lista de links. Estratégias que, diga-se de passagem, há tempos vêm piorando a qualidade da internet, com posts longos escondendo a informação do leitor para agradar o algoritmo, em vez do usuário. É triste ver que chegamos ao ponto em que essas práticas agora são defendidas como um dos últimos suspiros de viabilidade para o jornalismo online. 

É claro que ainda existe bom conteúdo sendo feito na internet, e ele merece ser defendido dessas ferramentas predatórias de IA. Esse é o tema de debates importantes, como o processo do New York Times contra a OpenAI, que provavelmente resultará em um acordo, assim como fizeram recentemente a Vox Media, a revista Time, o Financial Times e The Atlantic. Afinal, empresas de mídia licenciando seu conteúdo não é novidade, já que há tempos fornecem material para os algoritmos. Grandes empresas talvez consigam bons acordos, mas menores nem tanto. De qualquer forma, é sempre importante lembrar que, no capitalismo, os fornecedores são sempre vistos como custos a serem reduzidos.

Tráfego x audiência

Há décadas, vemos uma dependência das redes sociais e do Google por parte de veículos de comunicação, e isso é raramente discutido dentro das redações, quiçá entre os anunciantes diretos dos veículos — que se preocupam demasiadamente com números, sem compreender por que alguns sites têm mais tráfego do que outros. Não consideram as concessões feitas, os métodos raramente são questionados e pouco se fala sobre a audiência artificial que compõe esses números. No mundo da tecnologia, esse tem sido um assunto predominante, e espero que ele se torne uma pauta importante para os profissionais de comunicação e para os que estão dentro de empresas anunciantes também. 

Anos atrás, o Facebook nos mostrou o perigo de apostarmos todas as fichas em um único lugar. Sempre pensamos no Google como a open web, em contraste com as redes sociais, mas, no final das contas, o Google também é uma plataforma. Por isso, vejo como crucial passarmos a distinguir melhor o que é tráfego e o que é audiência. Focar apenas no tráfego, considerando-o um sinônimo de audiência, é um erro que cometemos por anos e que não podemos mais repetir. Se o jornalismo deseja manter alguma autonomia, ele precisa se concentrar na audiência, aquela que o acompanhará independentemente da plataforma.