Cérebro "ouve" melhor com a ajuda da visão, mostra estudo
Já se pegou fechando os olhos para prestar atenção em uma música? Ouviu toda aquela conversa do seu pai ou mãe enquanto estava no computador, mas não absorveu nada até olhar para os seus progenitores? De acordo com um estudo de bioengenheiros da Universidade de Utah, EUA, o que você vê pode ser mais relevante do que você ouve, em certas condições.
Elliot Smith, primeiro autor do estudo, escreveu o seguinte:
“Pela primeira vez, conseguimos ligar o sinal auditivo no cérebro ao que uma pessoa disse que ouviu, quando na verdade, o que ela ouviu era algo diferente. Descobrimos que a visão está influenciando a parte auditiva do cérebro para distorcer a percepção de realidade – e você não pode desligar a ilusão. As pessoas acham que existe essa forte ligação entre fenômenos físicos no mundo à nossa volta e o que experimentamos subjetivamente, e este não é o caso.”
O estudo parte do princípio chamado Efeito McGurk (nomeado pelo psicólogo cognitivo escocês Harry McGurk, que divulgou seus estudos nos anos 70), que afirma que o cérebro considera tanto a visão quanto o som ao processar a fala. No entanto, caso os dois sejam levemente diferentes, a visão domina o som. Graças ao novo estudo, é possível determinar por que isso acontece — o grande mistério do Efeito McGurk até então.
A pesquisa envolveu a busca pela fonte do efeito, e foi executada com a gravação e análise dos sinais cerebrais no córtex temporal, a região que normalmente processa o som. Com quatro adultos severamente epiléticos (dois homens, duas mulheres), três eletrodos do tamanho de botões foram posicionados em diferentes posições nos cérebros das cobaias: no hemisfério esquerdo, direito, ou em ambos, dependendo de onde as convulsões aparentemente surgem.
O estudo seguia com as quatro cobaias assistindo e prestando atenção em vídeos focados na boca de uma pessoa, enquanto pronunciavam as sílabas “ba”, “va”, “ga” e “tha”. Dependendo de qual dos três vídeos era assistido, cada um dos pacientes tinha uma das três possíveis experiências:
1. O movimento da boca combinava com o som. Ao ouvir um “ba” e ver que este era o som, os pacientes ouviram e viram “ba”.
2. O movimento da boca obviamente não combinava com o som (como num filme mal dublado). Ao ver um filme mostrar um “ga”, os pacientes ouviam “tha”. Devido à óbvia diferença, eles perceberam a desconexão e ouviram corretamente o “tha”.
3. O movimento da boca era feito erroneamente, mas muito de leve. Ao ver um “ba”, mas ouvir um “va”, os pacientes interpretaram o som correto como “ba”.
Medindo os estímulos elétricos durante a exibição de cada vídeo, foi possível definir se os sinais cerebrais auditivos ou visuais é que estavam sendo usados para identificar a sílaba em cada vídeo. Quando o erro era claro, a atividade cerebral aumentava em correlação com o som observado. Mas ao assistir o terceiro vídeo, o padrão mudou para se aproximar mais do que foi visto do que ouvido. As análises estatísticas confirmaram o efeito em todos os pacientes.
Toda essa pesquisa pode ajudar outros pesquisadores a compreender o que de fato ajuda no processo de linguagem de humanos, especialmente em pequenas crianças tentando anexar sons e o movimento labial para aprender sua própria língua. Ainda por cima, pode ajudar quando o processo visual e o auditivo não são integrados corretamente, como no caso da dislexia.
Por fim, este estudo pode ajudar na criação de melhores softwares de reconhecimento de fala, além de aparelhos auditivos, bastando a inclusão de uma câmera que identifique os movimentos labiais.
Por Alexandre Ottoni & Deive Pazos
Comentários