A existência de máquinas capazes de ler a mente humana pode ter um grande impacto na privacidade e na autonomia individual. A capacidade de ler os pensamentos de alguém sem o seu consentimento pode ser considerada uma violação da privacidade mental. Além disso, a tecnologia pode ser usada para monitorar e controlar o comportamento humano, o que pode afetar a liberdade individual. Também há preocupações éticas em relação ao uso dessas máquinas em situações legais, como julgamentos e interrogatórios, e se sua precisão pode ser fiável.
Por outro lado, a tecnologia pode ter benefícios potenciais em áreas como a comunicação com pessoas que não podem se expressar verbalmente, bem como ajudar em tratamentos de distúrbios mentais. É importante que as implicações éticas e legais sejam consideradas cuidadosamente e que sejam tomadas medidas para proteger a privacidade e a autonomia individuais.
Investigadores da Universidade do Texas em Austin desenvolveram um método não invasivo para descodificar discurso imaginado por meio de ressonância magnética funcional (fMRI) e algoritmos de inteligência artificial (IA) denominados modelos de linguagem de grande dimensão (LLM). Os investigadores registraram a atividade cerebral de 3 voluntários enquanto eles ouviam 16 horas de podcasts e, em seguida, registraram a atividade de fMRI enquanto os participantes ouviam uma história, imaginavam a contar uma história ou assistiam a um filme sem diálogo.
Utilizando padrões previamente codificados e algoritmos que determinam a probabilidade de uma frase ser construída com base em outras palavras, os pesquisadores tentaram descodificar a atividade cerebral e produzir frases a partir dessas gravações cerebrais. No entanto, há preocupações sobre a privacidade mental e como os desenvolvimentos podem ser mal utilizados.
Erros e acertos
O descodificador desenvolvido pelos investigadores da Universidade do Texas em Austin conseguiu gerar frases que capturaram a essência do que as pessoas estavam pensando, mas muitas das frases produzidas eram imprecisas. Os pesquisadores também descobriram que era fácil enganar a tecnologia e que o mapa codificado variava de pessoa para pessoa, tornando difícil criar um descodificador universal. A determinação de como o cérebro cria significado a partir da linguagem é extremamente difícil, mas os resultados são impressionantes.
Os neuroeticistas não estão de acordo
Os neuroeticistas estão divididos quanto ao último avanço no descodificador de fMRI, com alguns a afirmar que representa uma ameaça à privacidade mental, enquanto outros argumentam que a tecnologia é demasiado difícil de utilizar para ser uma ameaça atualmente. O bioeticista Gabriel Lázaro-Muñoz afirma que é uma grande chamada de atenção para os responsáveis políticos e para o público. No entanto, Adina Roskies, filósofa científica, considera que a tecnologia é demasiado imprecisa e difícil de utilizar para representar uma ameaça atualmente. A neurocientista cognitiva Greta Tuckute considera encorajador o facto de a tecnologia não poder ser aplicada a todos os indivíduos e de as pessoas poderem facilmente enganá-la.
É preciso ter cuidado
Os especialistas alertam para a necessidade de cautela no uso da tecnologia de descodificação de pensamentos, pois, apesar de ter limitações, sua utilização pode ter implicações legais e éticas graves. Eles pedem que as políticas públicas e os legisladores considerem como a tecnologia pode ser usada sem violar a privacidade mental das pessoas e sem discriminação. Eles também alertam que a tecnologia pode ser prejudicial para pessoas com transtornos mentais e que é incerto se o descodificador poderá se tornar universal e capaz de interpretar metáforas e sarcasmo.
Trabalho na área de tecnologia e informática desde 1993 e na área de internet como blogger e webmaster desde 2004. Adoro tecnologia, gadgets, cinema e viagens. Adoro investigar e escrever sobre tecnologias, viagens e carros.
Publicar comentário