Como o cérebro processa a linguagem

Institucional - Nike

Os seres humanos realizam uma quantidade fenomenal de tarefas combinando informações. Percebemos objetos combinando bordas, categorizamos cenas combinando objetos, interpretamos eventos combinando ações e entendemos frases combinando palavras. Mas os pesquisadores ainda não têm uma compreensão clara de como o cérebro se forma e mantém o significado do todo – como uma frase – a partir de suas partes. Pesquisadores da Universidade Carnegie Mellon no Departamento de Aprendizado de Máquina (MLD) da Escola de Ciência da Computação (SCS) lançaram uma nova luz sobre os processos cerebrais que suportam o significado emergente das palavras combinadas.

Mariya Toneva, uma ex-estudante de doutorado em MLD agora docente do Instituto Max Planck de Sistemas de Software, trabalhou com Leila Wehbe, professora assistente em MLD, e Tom Mitchell, professor da Founders University em SCS, para estudar quais regiões do cérebro processavam o significado de palavras combinadas e como o cérebro mantinha e atualizava o significado das palavras.

Este trabalho poderia contribuir para uma compreensão mais completa de como o cérebro processa, mantém e atualiza o significado das palavras, e poderia redirecionar o foco da pesquisa para áreas do cérebro adequadas para a futura neurotecnologia vestível, como dispositivos que podem decodificar o que uma pessoa está tentando dizer diretamente da atividade cerebral. Esses dispositivos podem ajudar pessoas com doenças como Parkinson ou esclerose múltipla que limitam o controle muscular.

Toneva, Mitchell e Wehbe usaram redes neurais para construir modelos computacionais que poderiam prever as áreas do cérebro que processam o novo significado das palavras quando elas são combinadas. Eles testaram esse modelo registrando a atividade cerebral de oito pessoas enquanto liam um capítulo de “Harry Potter e a Pedra Filosofal”.

Os resultados sugerem que algumas regiões do cérebro processam tanto o significado de palavras individuais quanto o significado de palavras combinadas, enquanto outras processam apenas os significados de palavras individuais. Crucialmente, os autores também descobriram que uma das ferramentas de registro de atividade neural que eles usaram, a magnetoencefalografia (MEG), não capturou um sinal que refletisse o significado das palavras combinadas.

Como os futuros dispositivos de neurotecnologia vestível podem usar ferramentas de gravação semelhantes ao MEG, uma limitação potencial é sua incapacidade de detectar o significado de palavras combinadas, o que poderia afetar sua capacidade de ajudar os usuários a produzir linguagem.

O trabalho da equipe se baseia em pesquisas anteriores de Wehbe e Mitchell que usaram imagens de ressonância magnética funcional para identificar as partes do cérebro envolvidas enquanto as pessoas liam um capítulo do mesmo livro de Potter.

O resultado foi o primeiro modelo computacional integrado de leitura, identificando quais partes do cérebro são responsáveis por subprocessos como a análise de frases, a determinação do significado das palavras e a compreensão das relações entre caracteres.

Fonte