Ilustração editorial sobre Sistema ‘Lê a Mente’ para Amplificar a Voz Certa em Ambientes Barulhentos, Revela Estudo. (Ilustração: Cafezinho / Flux Pro)

Pesquisadores dos Estados Unidos demonstraram, pela primeira vez em testes com seres humanos, um dispositivo capaz de ler sinais cerebrais para amplificar automaticamente a voz que o ouvinte deseja escutar. A descoberta pode representar uma virada histórica para os 430 milhões de pessoas no mundo que convivem com perda auditiva incapacitante, segundo a Organização Mundial da Saúde.

Compreender a fala em ambientes lotados permanece um dos desafios mais árduos da neurociência auditiva e da tecnologia de saúde. Nesses contextos, o cérebro humano depende de um mecanismo sofisticado de atenção seletiva para focar em um interlocutor enquanto suprime vozes concorrentes e ruídos de fundo.

Os aparelhos auditivos convencionais falham justamente nesse ponto, pois amplificam todos os sons de forma indiscriminada, sem qualquer capacidade de inferir a intenção do usuário. Essa limitação estrutural resulta em desempenho degradado no mundo real, baixa adesão ao uso do equipamento e, em última instância, isolamento social do paciente.

‘Desenvolvemos um sistema que age como uma extensão neural do usuário, aproveitando a capacidade natural do cérebro de filtrar todos os sons de um ambiente complexo para isolar dinamicamente a conversa específica que ele deseja ouvir’, afirmou o doutor Nima Mesgarani, pesquisador da Universidade Columbia, nos Estados Unidos. Mesgarani acrescentou que a ciência por trás da tecnologia ‘nos capacita a pensar além dos aparelhos auditivos tradicionais, que simplesmente amplificam o som, em direção a um futuro onde a tecnologia pode restaurar a audição seletiva e sofisticada do cérebro humano’.

Para conduzir os experimentos, Mesgarani e sua equipe estabeleceram parceria com cirurgiões e pacientes epilépticos que já estavam sendo submetidos a cirurgias cerebrais para identificar as origens de suas convulsões. Esses voluntários já possuíam eletrodos implantados no cérebro como parte do protocolo clínico pré-operatório, o que viabilizou o estudo sem procedimentos invasivos adicionais.

O sistema utilizou os eletrodos para captar a atividade cerebral dos pacientes enquanto eles focavam em uma de duas conversas sobrepostas reproduzidas simultaneamente. A partir desse sinal, algoritmos de aprendizado de máquina em tempo real identificavam qual conversa o paciente estava acompanhando e ajustavam o volume instantaneamente, elevando a voz desejada e reduzindo a outra.

A reação dos voluntários revelou o impacto visceral da experiência. Uma das participantes chegou a acusar os pesquisadores de estarem ajustando os volumes secretamente, tamanho era o realismo da sensação de controle exercida apenas com o pensamento. Outros voluntários relataram imediatamente pensar em amigos e familiares com deficiência auditiva que poderiam se beneficiar da tecnologia, e um deles resumiu: ‘Parece ficção científica’.

O doutor Vishal Choudhari, também da Universidade Columbia, destacou a dimensão histórica do avanço ao afirmar que ‘a questão central sem resposta era se a tecnologia auditiva controlada pelo cérebro poderia ir além de avanços incrementais, em direção a um protótipo capaz de ajudar alguém a ouvir melhor em tempo real’. Choudhari concluiu que, pela primeira vez, a equipe demonstrou que tal sistema pode oferecer um benefício claro e imediato, movendo a audição controlada pelo cérebro da teoria para a aplicação prática.

Para que a experiência fosse agradável ao usuário, o sistema precisava operar com velocidade, precisão e estabilidade excepcionais. ‘Para que isso funcione em tempo real, o sistema precisa ser muito rápido, preciso e estável para que a experiência seja agradável para o ouvinte’, explicou Mesgarani, sublinhando que os algoritmos foram projetados para funcionar tanto quando os cientistas direcionavam os sujeitos a uma conversa específica quanto quando eles escolhiam livremente — condição indispensável para uso no mundo real.

Os resultados, detalhados pelo portal Sci.News, foram publicados na revista científica Nature Neuroscience, em estudo assinado por Choudhari, Mesgarani e colaboradores, com o identificador doi: 10.1038/s41593-026-02281-5. A publicação consolida uma linha de pesquisa que une neurociência computacional, inteligência artificial e medicina regenerativa em uma abordagem radicalmente diferente da engenharia auditiva tradicional.

O alcance potencial da tecnologia é imenso: os 430 milhões de pessoas com perda auditiva incapacitante representam um desafio de saúde pública global que os dispositivos convencionais nunca conseguiram resolver de forma satisfatória. A perspectiva de um aparelho que ‘pensa junto’ com o usuário, interpretando suas intenções neurais para filtrar o mundo sonoro, redefine o horizonte do que é possível na interface entre o cérebro humano e a máquina.

📨 Inscreva-se na Newsletter de O Cafezinho

Receba nossas análises e as principais notícias diárias do Brasil e do Sul Global.