“Não fale assim comigo”

Agressões a assistentes virtuais agora recebem resposta à altura. O objetivo é educar os usuários truculentos.

A intimidade é uma… O que quase todo mundo sabe. Uma coisa muito chata. Agora, se o “íntimo” em questão se revela um sujeito misógino ou racista, daí então se abrem as portas do inferno.

Efeitos indesejados da intimidade podem explicar um pouco do comportamento insólito de usuários na interação com seus ou suas assistentes virtuais – os softwares que respondem a comandos para realizar tarefas ou serviços e se tornam cada vez mais parte do nosso dia a dia.

No Brasil, todo mês centenas de milhares de mensagens abusivas, grande parte delas com conteúdo de violência de gênero, são recebidas pelo Google Assistente. A realidade não é exclusiva daqui, mas do mundo todo, o que levou a gigante da tecnologia a adotar um novo e educativo posicionamento. Implantado este mês no Brasil, o projeto consiste na utilização de novas respostas do assistente sempre que o usuário lhe dirigir um insulto ou usar termos que remetam a assédio ou violência de gênero.

Alguns exemplos de respostas: para casos de violência patente, com uso de palavrões ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito, o assistente pode ser instrutivo e dizer: “O respeito é fundamental em todas as relações, inclusive na nossa”. Ou, então, dar uma resposta incisiva: “Não fale assim comigo”. Também ganharam novas respostas as condutas não necessariamente ofensivas, mas que na vida real são consideradas inapropriadas. É o caso de pedidos de nudes, de namoro ou ainda de casamento para a máquina. O assistente pode dar um chega para lá no usuário de forma bem-humorada ou alertá-lo sobre o incômodo do seu comentário.

“Entendemos que o Assistente Google pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”, afirma Maia Mau, head de marketing do Google Assistente para a América Latina.

“Um exemplo são os pedidos para mandar nudes. Embora isso possa até ser visto por alguns como uma brincadeira por se tratar de uma conversa com a voz do aplicativo, não podemos ignorar que essa abordagem também reforça a ideia de que algumas pessoas, especialmente as mulheres, podem ter a sua intimidade invadida. No mundo real, isso é considerado uma forma de assédio. Por isso o Google Assistente está se posicionando de maneira incisiva contra esse tipo de comportamento.”

Por falar em mulheres, elas são o principal alvo do usuário. Segundo o Google, no Brasil, cerca de 2% das interações de personalidade do Google Assistente – perguntas ou comandos de caráter pessoal – envolvem mensagens que se valem de termos abusivos ou inapropriados. Um a cada seis insultos são direcionados às mulheres, tanto por meio de falas misóginas como de assédio sexual.

A empresa fez uma análise nas ofensas registradas segundo a opção de voz do assistente – a laranja tem um timbre masculino e a vermelha feminino. O resultado é que, na voz vermelha (feminina), os comentários ou as perguntas sobre aparência física – “Você é bonita?”, por exemplo – são quase duas vezes mais comuns do que na voz laranja (masculina), que por sua vez recebe um número grande de comentários homofóbicos – quase uma a cada dez ofensas registradas.

O trabalho de posicionamento do Google Assistente começou em 2019, a partir de um relatório da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) chamado I’d Blush if I Could (“Se pudesse, ficaria corada”). O estudo apontou como o uso de vozes femininas em softwares e o comportamento submisso dos assistentes virtuais contribuem para reforçar estereótipos de gênero. A primeira fase do projeto ocorreu nos Estados Unidos, com a criação de respostas para abusos registrados com mais frequência, começando pelos dirigidos às mulheres. Depois, com as respostas para abusos de cunho racial e de homofobia.

Como explicar que pessoas insultem uma máquina? O fator intimidade é um facilitador. O psicólogo Cristiano Nabuco, coordenador do grupo de dependências tecnológicas do PRO-Amiti, do Instituto de Psiquiatria do Hospital das Clínicas da Faculdade de Medicina da USP, revela um mecanismo presente nas interações virtuais que colabora com a desinibição do sujeito. Trata-se do chamado Triplo A, formado por anonimato, acessibilidade e a possibilidade de arcar com os custos (em inglês, “affordability”). “Esse tripé faria com que o uso das tecnologias das telas digitais e de todos esses novos recursos fosse algo muito mais liberado e desinibido”, diz o psicólogo. Ou seja, a interação com um assistente virtual se dá de maneira anônima, pessoal, em lugares familiares, como a própria casa, o escritório e o carro, e mediante um custo acessível. “Isso faz com que muito do que apareça nesses meios digitais seja o que a gente vai chamar de outra versão do ser humano, uma versão digital. Essa, muitas vezes, não vai ter muita correlação com o que somos na vida real”, afirma Cristiano.

Roseni Guimaraes Correa de Moraes, professora da Pontifícia Universidade Católica de São Paulo e doutoranda com foco nos assistentes virtuais, enfatiza a absoluta importância dessa empreitada educativa operada pelo Google, no momento em que o digital ocupa tanto espaço na vida. “Nós estamos terceirizando a nossa memória e até mesmo as nossas atitudes, quando o assistente age em nosso nome, por exemplo. O Google Duplex, uma função do Google Assistente disponível em alguns países, pode preencher os documentos do usuário, fazer reservas em restaurantes. Usamos a inteligência artificial para quase tudo e ela está cada vez mais presente no nosso cotidiano.”

Para a executiva do Google, o consumidor age da mesma forma dentro e fora do virtual. “Vimos que os tipos de agressão feitos aos assistentes são muito similares ao que vemos no dia a dia em sociedade. A misoginia, a homofobia e o racismo direcionados ao assistente do Google são reflexos do contexto social e cultural no qual estamos inseridos. Todos os dias, grupos historicamente discriminados recebem ataques de diversas maneiras no Brasil. E esse tipo de abuso registrado durante o uso do app é, sim, um reflexo do que muitos ainda consideram normal no tratamento a algumas pessoas”, ressalta Maia.