'Humanos artificiais' são aposta de empresa para o futuro da interação entre pessoas e tecnologia



'Humanos artificiais' são aposta de empresa para o futuro da interação entre pessoas e tecnologia

 

A maneira como lidamos com os assistentes de voz baseados em inteligência artificial hoje é muito diferente daquela prevista por filmes nos últimos anos, que até já romantizaram a relação entre homem e máquina.

As opções disponíveis, criadas por gigantes como Google, Amazon e Apple, ainda são limitadas e bastante robóticas em termos de interação, apesar dos avanços recentes.

É isso que a Neon, um projeto vinculado ao grupo Star Labs, apoiado pela Samsung, quer mudar. Com apenas 4 meses de operação, eles vieram à Consumer Electronic Show (CES), a feira de tecnologia em Las Vegas, para apresentar o “humano artificial”.

A ideia por trás da Neon é fornecer uma interface mais humana para nossas interações com a tecnologia — uma que tenha expressões genuínas, consiga demonstrar emoções e até reagir a determinadas situações, como uma sala de conferência cheia de gente, por exemplo.

O próprio nome Neon é uma espécie de acrônimo para “Neo humaN”, ou novos humanos.

De acordo com Pranav Mistry, diretor do projeto e do Star Labs, por enquanto o Neon ainda não tem um cérebro, ou seja, não pode responder perguntas, interagir em uma conversa, lembrar de uma pessoa. A tecnologia é baseada em análise de vídeo e modelagem para criar uma simulação com feições que uma pessoa teria.

“A voz e a inteligência poderiam vir de empresas parceiras. Nós temos o poder do tempo real”, disse Mistry durante uma apresentação.

Embora o projeto seja recente, a Neon trabalha desde 2018 na elaboração de um algoritmo de renderização, chamado de Core R3. O conjunto “R3” é para realidade, tempo real (real time) e resposta, características que a equipe julga serem fundamentais para que um “humano artificial” possa se aproximar o máximo possível das interações que temos com outras pessoas.

Se os “humanos virtuais” apresentados pela Neon parecem pessoas de verdade é porque foram baseadas em pessoas que são de verdade. A empresa escaneou rostos e reações de gente que existe para alimentar o algoritmo neural, que agora deve ser capaz de replicar milhões de expressões e emoções — e também de construir novos rostos.

Tudo isso em teoria, já que nas imagens apresentadas pela empresa, há um conjunto de letras pequenas que diz que os cenários são somente para fins ilustrativos.

Apesar disso, a empresa demonstrou que pode controlar expressões dos modelos artificiais com facilidade e precisão, como fechar o olhos apenas parcialmente, ter diferentes tipos de sorriso ou erguer as sobrancelhas de diferentes maneiras.

Milhões de gestos
Segundo a neurocientista Angie Chiang, que faz parte do projeto, a parte mais difícil é fazer com que a tecnologia aprenda comportamentos. “Eu não tenho um único sorriso, amanhã eu posso não dizer ‘oi’ pra você da mesma maneira”, disse.

Durante a apresentação, foi mostrado um mapa de conexões, que mostrava as milhões de opções de interações geradas pelo algoritmo.

Para Chiang, é possível mudar a maneira como nos comunicamos atualmente com assistentes pessoais — geralmente para tarefas mais mecânicas como checar como está o tempo ou definir um alarme.

Chiang afirma que existem várias aplicações que a empresa considera para a plataforma, em ramos como hotelaria, medicina, cuidado de idosos, atendimento a clientes.

“Imagine como seria ir a um café com uma atendente virtual que tenha memória e interaja de forma mais humana, ao ponto de ela dizer ‘ei, Angie, você vai querer o mesmo café de sempre hoje?’”, disse Chiang.
No entanto, nada é concreto ainda e é improvável que vejamos um assistente virtual tão parecido e com feições humanas tão cedo.

Como funciona
A tecnologia analisa feições de diversas pessoas para criar um modelo virtual que tenha características de uma pessoa, como expressões humanas. É diferente de ferramentas de edição, que manipulam o rosto de pessoas para criar novas expressões, de acordo com a empresa.

Ela pode ainda ser integrada a outras plataformas para que fale outros idiomas ou tenha aplicações específicas, por exemplo.

A Neon também tem planos para o futuro: um outro projeto, chamado de Spectra. Essa outra plataforma deve adicionar uma nova camada à tecnologia, o que permitiria incluir emoções, memória, aprendizado e inteligência — justamente os traços que definem nossa interação com outras pessoas.

A Neon espera que no futuro, quando você tente falar com um assistente, em vez de dizer “ei, Neon”, chame ele por um nome. Um nome de gente: como Frank, Mônica, Maia ou Natasha.

Fonte: G1