Um óculos para auxiliar pessoas com deficiência visual está sendo desenvolvido na Universidade Federal do Amazonas (UFAM).
O projeto, considerado inovador, tem como maior diferencial o
pioneirismo na inclusão de pessoas com deficiência visual por meio de
sistemas de georreferenciamento para ambientes internos a custo
relativamente baixo.
“Esse viés social e inclusivo é o principal motivador para o
desenvolvimento dos óculos guiados por áudio e navegação virtual”,
comemora o responsável pelo projeto e doutorando em Ciência da
Computação na UFAM, Walter Simões.
Os projetos que desenvolvemos no âmbito do PPGI [Programa de
Pós-Graduação em Informática] e do Ceteli [Centro de P&D em
tecnologia eletrônica e da informação] têm o viés social.
"Os trabalhos orientados pelo professor Vicente Lucena sempre têm essa marca da contribuição para a sociedade ou para atender a demandas de grupos específicos”, esclarece o pesquisador.
Hoje, a maior parte dos óculos
destinados a auxiliar pessoas com deficiência visual é restrita à
percepção de obstáculos.
O protótipo que está sendo projetado nos laboratórios da UFAM vai
além das abordagens atuais.
A tese de Walter é desenvolvida no sentido
de associar diversas abordagens de software (programação) ao hardware
(placas eletrônicas) para reduzir a um nível muito baixo a margem de
erro na versão final do produto.
E isso tudo, segundo ele, a um custo que não chegará a mil reais. “O diferencial do projeto é pensar no público brasileiro com deficiência visual. Versões desenvolvidas na Alemanha, por exemplo, podem custar até três mil dólares americanos”, compara.
Outros equipamentos que oferecem alguma abordagem desse tipo
foram encontrados a valores entre mil e oito mil dólares americanos.
Primeiros passos
Engenheiro egresso da antiga Universidade de Tecnologia do Amazonas
(UTAM) – atual Escola Superior de Tecnologia (EST), Walter concluiu o
mestrado em Informática no Programa de Pós-Graduação em Informática
(PPGI/Ufam) em 2014 e é doutorando no mesmo programa, cujo conceito é
cinco na avaliação da Coordenação de Aperfeiçoamento de Pessoal de Nível
Superior (Capes).
Para obter o título de mestre, ele aproximou duas linhas de pesquisa
no projeto “Sistema de Reconhecimento de gestos para TV digital”: a
Robótica e a Visão Computacional.
A primeira diz respeito a máquinas que
tomam decisões, como no exemplo do browser (buscador), que usa robôs
ligados a bancos de dados para retornar informações.
Já a visão
computacional abarca um conjunto de técnicas para ensinar o computador a
executar todas as etapas do processo de enxergar, aproximando-o ao
máximo da visão natural do ser humano.
“Isso inclui a identificação de objetos em várias posições e com variação de luz ou de temperatura”, diz.
Para que a pesquisa fosse validada, foram realizados testes com 2
grupos de controle. 10 pessoas eram usuárias de softwares similares ao
testado; outras 10 pessoas não eram usuárias. Todas elas tinham de realizar um
conjunto de gestos para ligar/desligar/acessar o menu e trocar de
canal.
“Três dos participantes tinham certo grau de deficiência visual e comentaram sobre os recursos à disposição, hoje, no mercado da Tecnologia, os quais, segundo eles, não têm se voltado para a acessibilidade”.
A ideia de pesquisar sobre recursos de
georreferenciamento para cegos surgiu dessa crítica.
Tese
No doutorado, a pesquisa já iniciou com a proposta de proporcionar
experiência segura e efetiva de locomoção para pessoas cegas ou com
algum grau de deficiência visual em ambientes in door (internos)
desconhecidos.
O estado da arte mostrou que várias técnicas já foram
aplicadas com esse objetivo, mas sempre voltadas apenas à identificação
de obstáculos.
Os custos dos projetos mais promissores também não são
atrativos para uma produção em escala industrial no padrão do mercado
consumidor brasileiro.
A primeira experiência foi com um par de luvas e uma viseira.
“As luvas usavam a tecnologia de navegação ultrassônica (na velocidade do som – 340 m/s), que permitia reconhecer obstáculos a quatro metros, numa escala maior que a tradicional bengala, que alcança um metro e meio, em geral. Na viseira, a tecnologia aplicada foi a da visão computacional, por meio de câmeras que identificavam o cenário. Extintores, escadas e portas foram identificados e a informação foi repassada a cada pessoa por áudio em menos de dois segundos”, explica o pesquisador.
Segundo
ele, dois dos participantes cegos fizeram todo o percurso sem a
necessidade de usar a bengala como auxílio e foram bem sucedidos.
Essa primeira parte da experiência foi transformada em artigo e
publicada num evento em Las Vegas, o ICCE CES (Consumer Electronics), em
janeiro de 2016.
O trabalho está disponível no site do ICCE.
Na etapa seguinte, cujo resultado será apresentado na segunda
qualificação do doutorado, Walter aproveitou as instruções dos usuários
testados e criou o protótipo dos óculos.
Evolução
O guia por áudio sobre sua navegação de pessoas cegas ou com algum
grau de deficiência visual é baseado nos sistemas usados em veículos na
navegação out door (externa), realizada através de satélites por GPS
(Global Positioning System).
Atualmente, os códigos computacionais
(algoritmos), assim como a estrutura (técnicas e sensores envolvidos no
processo de mapeamento e navegação).
“A fusão de técnicas permite reduzir a margem de erro em situações críticas (pessoas cegas) a um custo muito baixo. Hoje, a impressão da estrutura em 3D custa 70 reais. Além disso, são usadas câmeras de 5 mega pixels, que são simples, e chips de relacionamento com o ambiente que custam cerca de 2 reais”, afirma.
Após a submissão do trabalho ao ICCE (Consumer Eletronics) de Las
Vegas, os organizadores descreveram o projeto como “uma excelente
abordagem sobre as escolhas das técnicas empregadas e com resultados
promissores apontados pelos testes preliminares”, segundo informou o
doutorando.
Outras etapas já foram inscritas e aceitas em eventos
nacionais e internacionais nos anos de 2012 a 2015.
*Com informações da assessoria de imprensa
Fontes: A Critica.Com / Vida Mais Livre