Carros autônomos estão sendo testados em simulações de realidade virtual

Cientistas desenvolveram uma nova forma de aprimorar como os computadores enxergam e compreendem objetos no mundo real através de treinamentos usando um ambiente de realidade simulada.

A equipe de pesquisa publicou os seus resultados no IEEE/CAA, Journal of Automatica Sinica, uma publicação conjunta da IEEE e da Associação Chinesa de Automação.

Para que os computadores possam aprender e reconhecer aguçadamente certos objetos como prédios, ruas ou mesmo humanos as máquinas dependem de um processo que envolve imensos bancos de dados, neste caso, imagens de objetos com anotações precisas e pré-determinadas. Um carro automático, por exemplo, precisa de centenas de imagens de estradas e carros para aprender o seu percurso (e o que evitar durante ele). Bancos de dados, portanto, ocupam um papel crucial no desenvolvimento e teste de computadores com sistemas de visão. Através do uso manual destes mesmos dados, uma visão virtual pode comparar sua atual situação à visão que existe em sua memória/banco de dados e calcular a atitude que então deve ser tomada.

“No entanto, coletar e anexar imagens do mundo real a essa memória exige demais em termos de trabalho e investimento monetário”, escreveu Kungeng Wang, um professor associado ao Laboratório-Chave da China para Controle e Gerenciamento de Sistemas Complexos e também o autor deste artigo. Wang diz que a meta de sua pesquisa é combater o problema revelado quando foi notado que os dados de imagens do mundo real não são o suficiente para treinar sistemas de visão em computadores.

Para resolver esse problema, Wang e seus colegas criaram um programa chamado ParallelEye. Esse conjunto de dados foi gerado virtualmente através de um número vasto de outros programas, mas principalmente o motor gráfico de jogos chamado Unity3D.  Usando um mapa de Zhongguancun, uma das partes mais populosas de Beijing como referência, eles puderam recriar todo o ambiente urbano simulando prédios, trânsito e até diferentes condições climáticas. Eles então também introduziram uma “câmera” em um dos carros gerados virtualmente, deixando-o dirigir na cidade simulada assim criando para ele novos conjuntos de dados que seriam representados também no mundo real.

Através do completo controle proporcionado por um ambiente simulado, a equipe de Wang foi capaz de criar dados extremamente precisos e úteis com relação ao seu sistema de detecção de objetos — ou seja, a inteligência por trás de um carro autônomo. Os resultados foram impressionantes: um acréscimo de performance a cada teste. Criando os dados através deste método customizado, uma ainda maior variedade de sistemas autônomos agora serão treinados de maneira mais prática.

Ainda que a maior de todas as performances venha da incorporação dos dados do ParallelEye aos dados do mundo real, a equipe demonstrou que este método é mais do que capaz de facilmente criar diversos conjuntos de novas imagens. “Usando os conjuntos de dados obtidos através dos dois meios, novas e mais ricas imagens podem ser sintetizadas com mais flexibilidade, permitindo criar sistemas cada vez mais robustos.”, afirma Wang.

Os pesquisadores propõem também que o método possa ser aplicado em outra variedade de sistemas de computação virtual, como sistemas de segurança, por exemplo, ou biometria e procedimentos médicos.

A seguir, a equipe planeja aprimorar os seus achados, aprimorando o realismo de suas imagens virtuais e explorando a sua utilidade em outros tipos de tarefas automatizadas. Wang diz: “Nossa meta primordial é construir uma teoria sistemática do Parallel Vison, onde ele possa treinar, testar, compreender e optimizar os modelos de visão computacional com as imagens virtuais, e ainda fazer com que os modelos funcionem de forma confiável em situações complexas.”

Siga o Mural também no Facebook, no Twitter e no Instagram

##

Fonte da matéria: EurekAlert!
Fonte da imagem: Autodesk.com

sobre-o-autor-gabriel-carvalho