Pesquisadores desenvolveram uma técnica chamada de “legendas mentais” que transforma a atividade cerebral em frases descritivas sobre conteúdo visual. A tecnologia, conforme revelado pela revista Science Advances, utiliza ressonância magnética funcional não invasiva para captar e interpretar sinais cerebrais. O método pode revelar como o cérebro processa informações visuais antes da formação de palavras.
A inovação representa um avanço significativo na área de decodificação cerebral. Embora estudos anteriores já conseguissem prever o que alguém estava vendo ou ouvindo através da atividade cerebral há mais de dez anos, a interpretação de como o cérebro processa conteúdos mais complexos, como vídeos curtos, permanecia um desafio técnico.
O desenvolvimento ocorreu após extensas pesquisas no campo da neurociência computacional. Contudo, tentativas prévias haviam identificado apenas palavras-chave descritivas, sem capturar o contexto completo, ou empregavam modelos de IA que criavam estruturas de frases independentemente, dificultando a verificação de sua correspondência com o processamento cerebral real.
Equipe internacional e metodologia
A pesquisa foi conduzida por Tomoyasu Horikawa, neurocientista computacional dos Laboratórios de Ciências da Comunicação da NTT em Kanagawa, Japão e Alex Huth, neurocientista computacional da Universidade da Califórnia, Berkeley.
O estudo contou com seis participantes que tiveram sua atividade cerebral monitorada enquanto assistiam a mais de dois mil vídeos. Os testes foram realizados em ambiente laboratorial controlado, com equipamentos de ressonância magnética funcional para registrar os padrões cerebrais.
A abordagem desenvolvida pelos cientistas empregou um sistema de duas etapas com inteligência artificial. Inicialmente, um modelo de IA analisou legendas de vídeos, convertendo cada uma em uma “assinatura de significado” numérica única. Em seguida, uma segunda ferramenta de IA foi treinada com os exames cerebrais dos participantes, aprendendo a identificar padrões correspondentes a cada assinatura enquanto eles assistiam aos vídeos.
Resultados impressionantes
Durante um experimento demonstrativo, quando um participante assistiu a um vídeo de uma pessoa saltando do topo de uma cachoeira, o sistema conseguiu gerar descrições cada vez mais precisas ao analisar a atividade cerebral.
Sobre a capacidade do modelo de prever o que uma pessoa está observando com riqueza de detalhes, Huth comentou: “Isso é difícil de fazer. É surpreendente que se consiga tantos detalhes”.
Aplicações futuras e limitações
A tecnologia pode ter aplicações importantes para auxiliar pessoas com dificuldades de comunicação, como as causadas por AVC. “Se conseguirmos fazer isso usando esses sistemas artificiais, talvez possamos ajudar pessoas com dificuldades de comunicação”, afirma Huth, que em 2023 já havia desenvolvido um modelo semelhante capaz de decodificar linguagem a partir de registros cerebrais não invasivos.
No entanto, ainda existem limitações. Não se sabe completamente como essa tecnologia funcionará em larga escala ou quais serão suas restrições em cenários mais próximos da realidade. Huth observa: “ninguém demonstrou que isso seja possível ainda” em contextos mais amplos.
Questões éticas
Uma questão importante que permanece em aberto é até que ponto essas tecnologias poderiam acessar pensamentos privados sem consentimento. Os pesquisadores afirmam que os modelos atuais não conseguem discernir pensamentos privados e requerem o consentimento dos participantes.
Com o avanço dessa tecnologia, surgem preocupações sobre privacidade mental, incluindo riscos teóricos de vigilância, manipulação ou discriminação. Os cientistas continuarão aprimorando os modelos para torná-los mais precisos e acessíveis, enquanto consideram essas questões éticas importantes.
The post IA já consegue descrever em texto o que você está vendo com o cérebro appeared first on Giz Brasil.



