UFG desenvolve aplicativo de olho eletrônico para pessoas cegas

O Objetivo é descrever situações em tempo real para que deficientes visuais possam se localizar com facilidade.
Com a finalidade de facilitar o cotidiano e gerar autonomia de locomoção e localização para deficientes visuais, a Universidade Federal de Goiás (UFG) desenvolveu o Deep Vison – Olho Eletrônico, que descreve ambientes para pessoas cegas. O aplicativo funciona a partir dos comandos de voz “veja” ou “o que tem aqui?”, que acionam a câmera do dispositivo, fotografando uma situação e, em seguida, detalha especificadamente por meio de um áudio o ambiente em que o usuário se encontra.
Segundo o pesquisador, Anderson Soares, o aplicativo terá duas funcionalidades específicas, sendo a primeira, a descrição de ambientes e a segunda, um direcionamento sensorial de trânsito, no qual a câmera captará objetos em movimento e obstáculos, o que gera um efeito sonoro no fone de ouvido. “A ideia é que o app colabore com os mecanismos de acessibilidade já existentes, permitindo que o usuário se localize com total autonomia, sem precisar de outro indivíduo”, afirma.
O aplicativo estará disponível para download até o final deste ano e o seu funcionamento dependerá de conexão com a internet. Já para 2019, pensando na realidade brasileira, o objetivo é a criação de um óculos eletrônico com as mesmas funcionalidades, mas que não faça uso de banda larga. O projeto conta com um site para que qualquer pessoa possa realizar um teste e entender como o software funciona.
Redes Neurais
A aprendizagem profunda, conhecida como Deep Learning, é uma das vertentes mais prevalentes do mundo computacional pois promove o entendimento de imagens, explica o pesquisador, Otávio Calaça. Segundo ele, a partir dessa funcionalidade, o aplicativo utiliza quatro redes neurais com aproximadamente 400 milhões de parâmetros que fazem o reconhecimento de imagens. A primeira rede é responsável por fazer o reconhecimento da voz do usuário, acionando a câmera para a captura da foto eletrônica.
“Em seguida, a segunda rede capturará os detalhes da imagem que foi tirada pela câmera, acionando a terceira rede que irá vincular os detalhes capturados em uma espécie de texto”, afirma. O pesquisador aponta que, por fim, a última rede neural será acionada para um processamento de voz, gerando um áudio tanto em inglês quanto em português, para descrever a situação em que o usuário se encontra.
Fonte: O Popular

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp

Inscreva-se na newsletter e receba todas as novidades

    LEIA MAIS PUBLICAÇÕES

    A importância do diagnóstico visual precoce do bebê

    Você sabe por que é tão importante fazer o teste do olhinho no seu bebê? A maioria das doenças oftalmopediátricas, como …

    Artigo científico produzido no Departamento de Retina do CBCO é publicado

    O artigo trata do Edema Macular Cistóide do Pseudofácico. O Professor Dr. Marcos Ávila, Dr. David Cruvinel Isaac, ambos …

    Lattes, mas não morde! Entrevista com Dr. Marcos Ávila

    Lattes, mas não morde! Realização: TV UFG e CEB-UFG. Sinopse: conversa com o prof. Marcos Ávila, FM-UFG. O oftalmo…

    confira nosso instagram

    Av. T-2, n 401 - Setor Bueno
    CEP 74.210-010 - Goiânia - GO CNPJ: 00.250.178/0001-90

    Horário de Funcionamento

    Segunda a sexta das 08h às 18h – Atendimento de Urgência 24h

    Redes Sociais

    CBCO – Hospital de Olhos:

    Responsável Técnico: Dr. Arnaldo Cialdini – CRM/GO 5526 – RQE 949

    © Copyright 2021 | CBCO - Todos os direitos reservados.

    Fale Conosco Agora!