Inteligência artificial: como a tecnologia já consegue ler pensamentos
Uma revolução silenciosa está em curso: a inteligência artificial (IA) está se aproximando da capacidade de decodificar pensamentos humanos em texto e até mesmo em imagens. Essa tecnologia promissora, detalhada em recentes pesquisas, abre portas para novas formas de comunicação e uma compreensão mais profunda do cérebro humano. Recentes avanços, como os publicados em agosto de 2025 pela Universidade de Stanford, e estudos japoneses subsequentes, demonstram o potencial de traduzir sinais neurais em informações compreensíveis.
Esses desenvolvimentos são parte de uma onda de inovações em interfaces cérebro-computador (BCIs), que buscam criar pontes entre a mente humana e a tecnologia. A meta é clara: auxiliar indivíduos com dificuldades de comunicação e, futuramente, transformar a interação humana com o mundo digital e entre si. Como aponta a neuroengenheira Maitreyee Wairagkar, “Nos próximos anos, começaremos a ver essas tecnologias sendo comercializadas e implementadas em escala”, indicando um futuro próximo onde essas interfaces se tornarão mais acessíveis e integradas ao cotidiano.
Desvendando a atividade cerebral com IA
A capacidade de decodificar pensamentos se baseia em complexas interações entre neurociência e inteligência artificial, particularmente o aprendizado de máquina. Um exemplo notável é o estudo da Universidade de Stanford, onde pacientes com condições como a esclerose lateral amiotrófica (ELA) participaram de testes. Utilizando eletrodos implantados cirurgicamente, sinais neurais eram captados e processados por algoritmos de IA.
Esses algoritmos, treinados com vastos conjuntos de dados de atividade cerebral, aprendem a reconhecer padrões associados a fonemas, os blocos de construção da linguagem. A Dra. Wairagkar compara esse processo ao funcionamento de assistentes virtuais como a Alexa, mas em vez de interpretar sons, a IA decodifica sinais neurais. Essa abordagem permitiu que participantes imaginassem palavras e vissem seus monólogos internos se materializarem em texto na tela.
Da tentativa de fala à ‘fala interior’
Pesquisas anteriores em BCIs focavam em decodificar sinais cerebrais associados ao movimento, permitindo o controle de próteses ou cursores. No entanto, a decodificação da fala e de pensamentos complexos apresentou desafios maiores. Estudos como o de 2021, que permitiu a um homem quadriplégico produzir frases imaginando o movimento de uma caneta no ar, mostraram um avanço, alcançando 18 palavras por minuto – uma melhora significativa, mas ainda distante da fala natural (cerca de 150 palavras por minuto).
A próxima fronteira, explorada pelos pesquisadores de Stanford, foi a detecção da “fala interior” – os pensamentos que formamos internamente, sem a necessidade de um esforço físico para vocalizar. Ao pedir a participantes que contassem números mentalmente, os pesquisadores observaram padrões neurais correspondentes no córtex motor. Essa técnica alcançou uma precisão de até 74% em tempo real em tarefas específicas de pensamento imaginado, embora a precisão tenha diminuído em cenários mais abertos, como imaginar falas de filmes.
“Sem a tecnologia atual, não conseguimos entender a fala interior totalmente não filtrada de uma pessoa com precisão perfeita. Mas conseguimos captar traços de fala interior de forma bastante clara nessas tarefas distintas.” – Frank Willett, Universidade de Stanford
Os estudos revelaram que os padrões neurais da fala interior são altamente correlacionados com os da tentativa de fala, mas com sinais mais fracos, utilizando uma rede cerebral semelhante à da fala física.
Decodificando além das palavras: entonação e emoção
A revolução em BCIs não se limita à decodificação de palavras. Em 2025, o laboratório da Dra. Wairagkar demonstrou a capacidade de decodificar elementos não verbais da fala, como entonação, tom e ritmo. Isso significa que pacientes poderão expressar nuances emocionais e ênfase, enriquecendo a comunicação.
Um protótipo desenvolvido conseguiu gerar fala em voz alta com modulação para transmitir significado. Embora a inteligibilidade tenha sido de cerca de 60%, a capacidade de infletir sentenças e modular o tom foi demonstrada. “A fala humana é muito mais do que texto sobre tela”, enfatiza Wairagkar. “A maior parte da nossa comunicação vem de como falamos, como nos expressamos.”
Avanços na reconstrução de experiências visuais e auditivas
Paralelamente aos avanços em BCIs para comunicação, outras áreas de pesquisa com IA estão explorando a decodificação de imagens cerebrais para recriar o que as pessoas observam ou imaginam. Utilizando fMRI para registrar a atividade cerebral enquanto os participantes visualizam imagens, algoritmos de IA generativa, como o Stable Diffusion, têm sido empregados para reproduzir essas visões.
Estudos, como um publicado em 2023 pelo Instituto de Tecnologia de Nagoya, demonstraram que a IA pode gerar uma impressão adequada das imagens observadas, embora com algumas falhas, como a interpretação de uma tigela de salada. Esses trabalhos ajudam a elucidar como o cérebro processa informações visuais, identificando o lobo occipital para aspectos “de baixo nível” (layout, cor) e o lobo temporal para elementos conceituais “de alto nível” (classificação de objetos).
Experiências auditivas também estão sob investigação. Em 2025, um estudo utilizou algoritmos do Google para reproduzir áudio a partir de imagens de fMRI de pessoas ouvindo música. Embora a reconstrução sonora seja desafiadora devido à natureza dinâmica da música e às limitações do fMRI, os pesquisadores conseguiram capturar características básicas e a categoria musical. Notavelmente, a percepção musical no cérebro demonstrou uma integração de informações semânticas e de baixo nível, diferente da percepção visual.
Implicações futuras: de terapia a entretenimento
As potenciais aplicações dessas tecnologias são vastas. Elas poderiam auxiliar no entendimento de condições psiquiátricas, como alucinações em pacientes esquizofrênicos, e até mesmo reconstruir experiências de animais ou sonhos. No entanto, a criação de experiências visuais ou auditivas artificiais para entretenimento, embora teoricamente possível, enfrenta limitações técnicas que, segundo especialistas, podem levar de 10 a 20 anos para serem superadas.
Empresas como a Neuralink, de Elon Musk, já buscam comercializar chips cerebrais, sinalizando uma corrida para levar essas interfaces do laboratório para o mercado. Os avanços em BCIs e na decodificação cerebral representam um salto significativo na nossa capacidade de entender e interagir com a mente humana, com promessas de transformar radicalmente a comunicação e a medicina nas próximas décadas.
