O que as máquinas aprendem conosco, e o que podemos aprender com elas

Inteligências artificiais programadas podem jogar uma partida de xadrez bastante apertada com seus criadores humanos e ainda vencer, assim como em diversos outros jogos da mesma espécie. Mas e quando o assunto não é competir, mas sim cooperar?

Com a ajuda de um novo algoritmo criado por professores da Brigham Young University, Jacob Crandall e Michael Goodrich, junto de outros colegas da MIT (Instituto de Tecnologia de Massachussets) e outras instituições internacionais, o comprometimento e cooperação de uma inteligência artificial não só é agora possível mas também ainda mais efetivo do que relações puramente entre humanos.

“A nossa meta era que pudéssemos entender a matemática por trás da cooperação com outras pessoas e quais atributos uma inteligência artificial precisa desenvolver para ter habilidades sociais,” disse Crandall, cujo estudo foi recentemente publicado na Nature Communications. “Programas precisam ser capazes de responder a nós e articular aquilo que estão fazendo. Interação com outras pessoas é imprescindível.”

Para este estudo, pesquisadores programaram máquinas com um algoritmo chamado S# e executaram uma série de jogos de cooperação para ver quão bem conseguiam interagir com os seus parceiros. A equipe testou a cooperação entre duas máquinas, um humano e uma máquina, e dois humanos para obter diferentes resultados. Na maior parte dos casos, as inteligências programadas com S# saíram-se melhores do que nós em comprometerem-se pelo bem da equipe.

“Dois humanos, sendo honestos e leais um com o outro, teriam tido o mesmo resultado que as máquinas, mas todos nós mentimos e somos desconfiados de vez em quando. Essencialmente, essa programação aprendeu que características morais são boas. Ela é programada para não mentir, e também a manter o equilíbrio da cooperação quando surgir a necessidade”, disse Crandall.

Os pesquisadores também fortaleceram a habilidade das máquinas de cooperarem programando-as com uma variedade de frases de motivação. Em testes, quando participantes humanos cooperavam com a máquina, ela poderia responder com “Perfeito, ficaremos ricos!” ou “Eu aceito sua proposta”. Se os participantes tentassem trair seu companheiro virtual em uma negociação, no entanto, eles poderiam ouvir um “Você vai pagar por isso!” ou “Maldito seja!”.

Independente dos jogos ou dos pares, a simulação de um diálogo ao introduzir frases soltas fez dobrar os esforços de cooperação. Essa mecânica fez com que fosse difícil discernir com quem realmente as pessoas estavam jogando.

Os resultados dessa pesquisa, diz Crandall esperançoso, pode refletir a longo prazo na interação humana.

“Na nossa sociedade, relações se partem a todo momento”, disse ele. “Pessoas que antes eram amigas tornam-se inimigas do nada. Pelo fato das máquinas serem melhores do que nós em alcançar esse grau de comprometimento e cooperação, pode haver uma lição escondida por trás disso sobre como melhorar esses mesmos traços em nós.”

###

Fonte da matéria: EurekAlert!
Fonte da imagem: Estadão

Sobre o Autor - Gabriel Carvalho

Anúncios