Tech Tech

A inteligência artificial pode nos representar?

Antes de mergulharmos juntos no fantástico mundo da inteligência artificial, preciso fazer uma espécie de prefácio: pensar em IA hoje é como se equilibrar em uma corda bamba em meio a um vendaval. Primeiro, porque todo mundo anda usando o termo indiscriminadamente, então não há bem um consenso do que realmente faz parte da categoria (se é que ela pode ser descrita como categoria). Depois, tem a velocidade alucinante com que a tecnologia vem se desenvolvendo. Nesse turbilhão, fica cada vez mais complicado separar o que é pertinente do que é fumaça, o que é genuíno do que é só barulho. Então, tanto na hora de colocar as ideias no papel (tela) quanto na de absorvê-las, é preciso ir com calma. É com esse espírito que peço que você entre nos próximos parágrafos, ok?

Seja em uma reportagem na Folha de S.Paulo, em que o repórter pediu para que o DALL·E criasse “uma mulher brasileira”, seja na nova campanha da Dove, em que a atriz deu um comando ao Midjourney para que ele mostrasse a ela “a mulher mais linda do mundo”, parece que a representação estereotipada da beleza feminina por ferramentas de geração de imagens virou o debate do momento.

O desafio do viés cognitivo na tecnologia, principalmente nas alimentadas por dados, é um impasse de longa data (como já mostramos em duas matérias na primeira edição da ELLE View). Porém ele parece estar entrando finalmente na pauta de grandes corporações, embora nem sempre de maneira eficaz.

Um exemplo disso foi o incidente com o Gemini do Google, em fevereiro, que acabou concebendo ilustrações de pessoas negras e asiáticas em uniformes nazistas ao ser solicitado para criar fotos de soldados alemães na Segunda Guerra. Da mesma forma, ao pedir uma foto do senado dos EUA no século 19, o sistema apresentou mulheres, apesar de a primeira senadora estadunidense ter assumido o cargo apenas em 1922.

De acordo com o comunicado do vice-presidente da empresa, o motivo da incompatibilidade (para não dizer do absurdo) seria exatamente a tentativa de evitar os erros anteriores das ferramentas de geração de imagens a partir de um esforço ativo para promover a diversidade — após a repercussão, porém, a medida tomada pela empresa foi interromper qualquer produção que envolva retratos de humanos. Paralelamente, a OpenAI divulgou que vem conseguindo diminuir vieses no DALL·E, que deixou de fabricar cenas de prisioneiros apenas com homens negros e também passou a mostrar mais mulheres como CEOs.

Apesar de o fenômeno dos vieses na programação ser encarado como um grande revés da IA, essa questão não é novidade na internet. Em 2018, Safiya Umoja Noble publicou um livro inteiro sobre os resultados de pesquisa do Google serem descaradamente discriminatórios. Em Algorithms of oppression: how search engines reinforce racism, a professora da Universidade da Califórnia relembra que até pouco tempo atrás buscas que incluíssem os termos “mulheres asiáticas, negras ou latinas” frequentemente retornavam conteúdo pornográfico nas primeiras páginas do site.

Mas, assim como o Google consertou esse caso, acredito que obstáculos detectados como ajustes de inserção de dados também serão levados à frente pelas empresas de IA. O grande problema, no entanto, conforme cita Safiya em relação a motores de busca, está mais no fato de essas plataformas serem comumente vistas como fontes confiáveis e neutras de informação.

E isso é exatamente o que me pega quando penso em IA, mais especificamente no formato utilizado pela OpenAI com seu ChatGPT. O jeito como entramos em contato com esses “large language models”, via chats, não apenas reforça a ideia de biblioteca pública da humanidade, como parece que nos leva a buscar ali algum conhecimento divino, uma verdade absoluta. 

É verdade que há anos já temos a sensação de que a maioria dos resultados de busca do Google, especialmente aqueles nas primeiras páginas, foi escrita por máquinas orientadas a seguir rigorosamente regras de SEO. No entanto, eles ainda nos permitiam consultar o veículo de origem do artigo, facilitando nosso processo de questionamento e sabendo quem responsabilizar. Em contraste, sem precisar revelar suas fontes com clareza, os chats baseados em IA promovem a ilusão de fornecer soluções autênticas, posicionando-se quase como entidades oniscientes.

As aparências enganam

O viés de automação é um dos responsáveis por esse fenômeno de confiança. Ele indica que, se o que está sendo dito for gramaticalmente bem estruturado, muita gente tomará aquilo como verdade. Assim, mesmo quando o conteúdo estiver errado, a tendência é aceitá-lo como correto simplesmente por ele soar correto. Isso me incomoda porque parece que estamos “jogando a toalha”, vivendo uma resignação em que a dependência da IA surge como uma solução inevitável diante da descrença na habilidade coletiva humana de superar desafios. Em outras palavras, parece que buscamos e aceitamos um salvador artificial porque desistimos de colaborar entre nós mesmos.

A especialista em Machine Learning Sasha Luccioni ainda aponta um agravante: a ausência de mecanismos de responsabilidade para as falhas das aplicações de IA. De acordo com a pesquisadora, especializada em ética em inteligência artificial, atualmente não existe uma exigência de certificação para empresas que pretendem substituir profissionais qualificados por bots (algo especialmente grave na área da saúde!).

Ou seja, além de perpetuar estereótipos de beleza — o que é com certeza um problema, principalmente quando entendemos que essas ferramentas já estão sendo amplamente utilizadas pela publicidade —, o uso indiscriminado e sem regulamentação da IA corre o risco de amplificar racismos e preconceitos existentes em mecanismos que em sua maioria já foram criados com o foco em segregação. Pense no encarceramento em massa sendo facilitado pelo reconhecimento facial ou na negação de crédito a indivíduos, tudo sem nenhum espaço para a responsabilização (e sabemos bem quais serão os grupos mais afetados). O que devemos ver cada vez mais são empresas e governos usufruindo da possibilidade de ocultar suas responsabilidades atrás da suposta infalibilidade da IA, que, sem a necessidade de prestar contas, ainda é vista quase como um VAR.

Um debate justo que vejo especialistas no assunto travando é que desenvolver mais imagens de pessoas não brancas em situações positivas é fácil. O difícil mesmo é as empresas se responsabilizarem pelo produto que colocam no mundo como um todo, prestando atenção em quem será atingido pelo reforço dado a estruturas que sempre foram problemáticas.

Para inglês ver

Outro ponto relevante é que, já que grande parte das informações com as quais a IA generativa “aprende” é extraída da web aberta, com uma preponderância de textos em inglês, isso pode significar um privilégio cultural numa tecnologia que tem sido comercializada pelo seu potencial de “beneficiar toda a humanidade”.

“A maioria dos modelos (de linguagem) de mais alto desempenho atende de oito a dez idiomas. Depois disso, há quase um vácuo”, relatou Sara Hooker, cientista da computação e chefe da Cohere for AI, ao jornalista Matteo Wong em uma reportagem interessantíssima na The Atlantic sobre como a “revolução da IA” está esmagando diversas línguas. Ou seja, à medida que chatbots, dispositivos de tradução e assistentes de voz se tornam uma forma crucial de navegar na web, essa onda crescente poderá eliminar milhares de línguas indígenas e de poucos recursos que não possuem texto suficiente para treinar modelos de IA.

Isso se relaciona com o que a cientista da computação Timnit Gebru costuma colocar como sua maior objeção contra os chats: eles terem sido montados como dispositivos de uso geral, que ao tentarem servir a tudo e a todos acabam ignorando inúmeras particularidades. “Se você for formular uma ferramenta para médicos, a primeira coisa que você fará é estudar os médicos e suas necessidades. Se você criar uma ferramenta para escritores, estudará as necessidades dos escritores. Essa é a definição de uma ferramenta. Mas o ChatGPT e outros são lançados sem nenhum objetivo claro”, provocou ela durante sua participação no episódio Is ethical AI possible?, do podcast The Gray Area, da Vox.

Essa pode ser uma das mais fortes explicações para a crescente percepção dessas tecnologias como meios de encontrar verdades, numa busca por respostas absolutas que vão além do entendimento humano. “Como é uma mulher brasileira perfeita?”, no final, é um estilo de pergunta bastante estranho, que só se justifica se pensarmos que o meio, como já diria Marshall McLuhan, está estimulando essa “curiosidade” por respostas a perguntas utópicas que o ser humano nunca conseguiu responder. Ou seja, deveríamos cogitar que certos tópicos nunca receberão respostas satisfatórias, pois, embora os chats deem a sensação de que sim, eles nunca tiveram, e provavelmente nunca terão, conclusões definitivas.

Parece que o CEO do Google soltou um comunicado interno dizendo que o ocorrido com o Gemini no caso citado anteriormente era inaceitável porque a missão do Google sempre foi “organizar a informação do mundo e procurar fornecer aos usuários informações úteis, precisas e imparciais”. E que essa deveria ser a abordagem também nos produtos de IA emergentes. Mas fico me questionando se essa não é uma missão fadada ao fracasso, que ao tentar abarcar tudo acaba ocasionando mais confusão do que clareza.

Imagine…

Desconfio que os frutos gerados pela IA deveriam ser vistos mais como esboços de ideias pessoais do que como um conteúdo finalizado para consumo público, algo como anotações em um diário ou um caderno de rascunhos. Uma força para a imaginação e para a exploração de possibilidades criativas de forma quase surrealista.

No início das jornadas de Midjourney e DALL-E, esta era bem a essência: figuras intrigantes de escadas sem fim que passavam por nuvens feitas de materiais inesperados, móveis de formatos impossíveis, monstros de desenhos animados em situações engraçadas. Não à toa, o comando do Midjourney é “/imagine”. Eram visões encantadoras, às vezes perturbadoras, que cada vez mais estão sendo substituídas por pedidos de representações do mundo real usadas no nosso cotidiano sem que tenhamos com quem debater quando problemas são encontrados. A pergunta que fica é: será que realmente queremos trocar a transparência do erro humano pela opacidade do erro sintético (ainda mais perigoso por se disfarçar de verdade)? 

A avalanche atual de imagens e textos originados por IA que buscam imitar a realidade já está sendo vista como um risco potencial de saturação da cultura. O perigo de esgotarmos os dados disponíveis para treinamento, caminhando para um futuro em que apenas cópias de cópias prevaleçam, é iminente. Essa é uma discussão complexa e assustadora, que vou ter que deixar para as próximas colunas.