Por Helton Simões Gomes, G1, Mountain View, Califórnia (EUA)
O telefone toca e, do outro lado, alguém educado quer agendar um horário no cabeleireiro ou reservar uma mesa em um restaurante. A desenvoltura engana, mas é um robô que acabou de dizer “Alô”. A cena parece coisa de ficção científica, mas não é. O Google a apresentou como a mais nova função a ser integrada ao seu assistente pessoal. Só que essa é apenas uma das habilidades que os robôs da companhia estão ganhando para fazer a inteligência artificial pegar de vez.
“A inteligência artificial representa uma gigantesca oportunidade de transformar diversas áreas”, afirma Sundar Pichai, CEO do Google.
O robô telefonista em questão é o Google Assistente, o serviço da empresa que funciona como um secretári particular e rivaliza com Siri (Apple), Cortana (Microsoft) e Alexa (Amazon). Em comum, todos eles recebem pedidos ou recebem perguntas, via texto ou por comando de voz, e atendem como podem.
Um dos entraves é fazer uma dessas máquinas entender o que um humano quer dizer e então responder sem parecer robótica. Essa habilidade é chamada pelos cientistas de linguagem natural.
Boa parte das modificações anunciadas para o Assistente foram nessa linha. Com isso, ele passou a entender quando uma pessoa faz dois pedidos simultâneos (“apague a luz da cozinha e da sala”) e compreender melhor como uma informação se encaixa em um determinado contexto (esta noite, depois de amanhã).
‘Alô, é o Google’
A melhora na habilidade de ouvir só não ganhou mais destaque porque o Assistente ganhou a capacidade de conversar. E mais que isso: conversar com estranhos após telefonar para eles a pedido dos usuários. “A voz é superpoderosa”, diz Lilian Rincón, diretora do Google responsável pelo produto.
O recurso foi pensado para situações em que é preciso agendar um compromisso e a única opção é dar um telefonema. Para poupar tempo, o robô faz isso. “60% dos estabelecimentos não têm presença online, e as pessoas não gostam de pegar o telefone. Isso vai ajudá-las.”
A novidade ainda não tem data para chegar ao Assistente, porque o Google não se decidiu se avisará quem estiver do outro lado da linha que é uma máquina falando.
“Imagine que você é um negócio, eu te ligo e digo, ‘Oi, eu sou o Google’.”
Antes de chegar aos usuários, o recurso será usado internamente para contatar estabelecimentos e atualizar horários de funcionamento e outras informações listadas no Google Maps. Quando for liberado, seu uso não será indiscriminado. “Não vai ser algo do tipo como, ‘Ligue para meu namorado e termine com ele por mim'”, brinca Rincón. A inteligência não está apenas em poder bater papo ao telefone. Após agendar o compromisso, o Assistente o inclui na agenda do celular e manda lembretes. Se não conseguir completar a ligação, anota um recado e pergunta ao usuário se pode ligar novamente.
Outro dos novos truques aprendido pelo Assistente é ouvir um pedido por informações de um produto e mostrar como resposta imagens e preço. Dependendo da loja que ofertar o item, a conversa pode acabar em uma compra. “As marcas já perceberam que isso é a próxima onda. Elas já querem construir esses apps de voz”, diz a diretora.
A partir das informações armazenadas nos serviços do Google, do Gmail ao calendário, o Assistente é capaz ainda de apresentar uma agenda de compromissos diários, que inclui até os trajetos para se chegar aos locais dos eventos.
Robôs em busca de restaurantes
Outro dos serviços repaginados para usar inteligência artificial a partir de informações pessoais é o Maps. Quando alguém buscar por restaurantes, ele passará a listar os que mais recebem visitantes — o segredo por trás disso é a mesma usada para atestar que uma rua está congestionada.
O carro-chefe do banho de inteligência artificial que o Maps recebeu, no entanto, é uma função destinada a indicar qual a probabilidade de um restaurante agradar um usuário.
“Você não quer saber se é só um restaurante de comida baiana, mas se é um lugar de que você vai gostar”, diz Luiz Barroso, o brasileiro que é vice-presidente de Maps.
Para chegar a isso, o Google vai, de um lado, levantar tudo o que sabe a respeito das preferências culinárias do usuário e, de outro, reunir tudo o que sabe sobre o restaurante em questão. Depois, vai cruzar os dois perfis e ver se batem.
“Quando a gente mistura o que a gente sabe sobre o mundo com o que a gente sabe sobre o usuário, isso ajuda a simplificar o processo de escolher lugares para você visitar com sua família e com seus amigos.”
“Com pouca informação dos usuários e muita informação do produto, a gente consegue fazer a mágica acontecer. Digamos que você visita cinco restaurantes com uma certa frequência e existe uma coisa que liga esses cinco restaurantes. Quando analisamos, começamos a entender que existe mais restaurantes parecidos.”
Dito assim, parece fácil. Só que os algoritmos por trás desse processo reúnem informações em torno de diversas verticais, como:
- A pessoa gosta de jantar em locais próximos à casa dela?
- Que tipo de comida?
- A decoração do lugar importa?
As respostas a todas essas e outras perguntas são combinadas para formar um “mapa da mina” para achar locais com o mesmo perfil. Só que apenas os robôs conseguem entendê-lo.
“Esses modelos criam um vetor de números que descrevem o lugar, mas que não dizem nada em particular para um ser humano. E essa é a coisa louca.”
Privacidade
Tanto Maps como o Assistente usam intensamente as informações que o Google coleta sobre as pessoas. Rincón e Barroso dizem que os usuários podem controlar como os dois serviços usam seus dados.
“As pessoas sempre têm controle total de suas atividades. Você pode ver o que o Google Assistente ouve. Se você não quer que ele ouça, pode deletar imediatamente. E ele não ouve a não ser que você dê permissão a ele”, afirma Rincón.
Ela reitera que a intenção, por ora, não é fazer dinheiro com o Assistente ou qualquer outro recurso que use inteligência artificial.
“Não é o momento agora, mas eventualmente teremos de fazer isso.”