Pode parecer solidão, mas conversar com máquinas é um hábito cada vez mais comum: o Brasil é hoje o terceiro país que mais usa o Google Assistant, aposta da empresa americana para a interação entre homem e máquina. Outras gigantes do setor, como Amazon e Apple, também veem esse futuro. Elas não estão sozinhas: companhias de diversos setores, como bancos e operadoras, também tem feito incursões na área. Mas treinar uma inteligência artificial para ouvir e responder ao usuário não é tarefa simples.

Numa conversa, existem dois momentos importantes para a máquina: o processamento da linguagem – que inclui sons, ordem das palavras e vocabulário – e a capacidade do banco de dados para oferecer respostas, explica Marcello Modesto dos Santos, professor de linguística da USP.

No primeiro momento de interação, o principal objetivo da máquina é “extrair intenção”. Ou seja, a plataforma tem de entender o pedido para decidir se é capaz de fornecer uma resposta para o usuário, afirma Alexandre Dietrich, responsável por inteligência artificial e dados na IBM. A empresa não tem um assistente próprio, mas seu sistema de inteligência artificial, o Watson, alimenta assistentes de empresas como Bradesco e Sabesp.

Normalmente, quando há uma conversa com um assistente de voz, os sons são convertidos para texto ainda nos aparelhos – a exceção, dizem especialistas, fica por conta do Google, que processa na nuvem os sinais de áudio. Procurada pelo Estado, a empresa não comentou detalhes sobre seu sistema.

O texto só não basta para a máquina saber como responder: afinal, há variações sonoras por conta da idade dos usuários, gênero e até mesmo sotaque. Em seguida, sobra um monte de texto com muitas armadilhas. Ordem das palavras, vocabulário, quantidade de palavras e pontuação podem confundir a máquina.

Há ainda problemas específicos: no caso da Bia, usada pelos correntistas do Bradesco, o maior problema são usuários prolixos – ao explicar seu problema com muitas frases, os clientes do banco podem confundir a plataforma. Para ajudar a máquina entender o texto, há nessa parte do processo um passo chamado de “orquestração de diálogo” – uma tentativa de identificar o contexto da conversa para chegar mais perto de sua intenção, a partir dos chamados metadados.

O Google Assistant busca descobrir a hora, o dia da semana e a localização do usuário. Já a Aura, da operadora Vivo, identifica o tipo de dispositivo do usuário. Se a conversa parte de um celular, ela será diferente das demandas de quem acessa via computador, explica Luiz Medici, diretor da área de dados (big data) da Vivo. Outro exemplo: se a máquina percebe que um usuário está no trânsito e pergunta sobre “olho de gato”, a resposta deve ser sobre sinalização – e não da anatomia do bichano.

Aula. Para treinar as máquinas, porém, não basta só desenvolver código: as empresas têm times multidisciplinares, com programadores e linguistas trabalhando juntos. Em uma segunda etapa, participam até atendentes de call center. “Sempre colocamos pessoas no processo”, diz Marcelo Câmara, gerente do departamento de pesquisa e inovação do Bradesco. “Inteligência artificial só se faz com sabedoria humana.”

A equipe humana é responsável por registrar as interações das máquinas. A “escolinha de robôs” também analisa os deslizes e acertos dos assistentes, que ajudam a deixá-los cada vez mais afiados. Esses dados, então, são transferidos para o “cérebro” da inteligência artificial.

Em agosto de 2018, a Vivo montou uma equipe com 20 treinadores de robôs, foram selecionados entre os melhores atendentes da empresa. Desde a criação, o time já analisou mais de 200 mil interações. “Para o robô não é só o negativo que é importante. Ele também precisa saber quando acerta”, diz Gabriela Bianco, diretora de projetos de experiência do cliente da Vivo.

Já a Bia, antes de se tornar pública, foi treinada na rede de apoio interna do Bradesco às suas agências – as interações dos funcionários, que também são correntistas do banco, serviu para a calibragem inicial da assistente. É um sistema comum, mas que envolve riscos de privacidade: nas últimas semanas, a Amazon foi alvo de polêmica depois que a agência de notícias Bloomberg publicou reportagem afirmando que funcionários responsáveis por treinar a plataforma Alexa seriam capazes de identificar os usuários. A empresa desmentiu.

Mesmo com tanto treinamento, os especialistas não acreditam que teremos tão cedo um robô capaz de manter um diálogo amplo e aberto. Mas, talvez, esse nem seja o objetivo da tecnologia. “É possível um cenário de centrais de voz, no qual assistentes generalistas, como o do Google, conversem com vários assistentes específicos, como a Aura”, diz Medici, da Vivo. “Assim, aumenta a chance de as máquinas atenderem às nossas demandas.”

Fonte: Estadão

Pin It on Pinterest

Share This