A tecnologia da Apple que parece um episódio de Black Mirror: controlar dispositivos com a mente já é possível

A próxima revolução da Apple não tem ecrã nem botões. E eles estão a trabalhar nisso há anos. Consegue imaginar controlar um iPhone ou um Apple Vision Pro simplesmente com o pensamento? Não com o movimento dos olhos e das mãos, mas diretamente com o pensamento. Parece saído de um filme de ficção científica, mas isso já aconteceu. É que, além dos megapixels, processadores e ecrãs que vemos em cada apresentação, a Apple está a trabalhar em tecnologias tão surpreendentes como as que analisamos hoje. Porque enquanto especulamos sobre o próximo iPhone 17, em Cupertino desenvolvem projetos para que alguém com mobilidade limitada possa navegar na Internet com naturalidade ou espreitar (virtualmente) a beira de uma montanha.

A próxima revolução da Apple não é um dispositivo, é ler a sua mente

No Apple Park, estão a desenvolver um novo padrão tecnológico que permitirá às pessoas controlar os seus iPhones através de sinais neuronais capturados por implantes cerebrais. Esta tecnologia, que a Apple planeia lançar no final deste ano, está a ser desenvolvida em colaboração com a Synchron: uma empresa especializada em interfaces cérebro-computador (BCI), com sede em Nova Iorque e na Austrália.

O objetivo de tudo isso é aproximar a tecnologia de muito mais pessoas e melhorar sua vida cotidiana. Esta semana, conhecemos novidades em acessibilidade que chegarão com o iOS 19 e também revisamos a importância que a Apple dá às pessoas com alguma dificuldade. Este implante cerebral para controlar o iPhone (e que já permitiu controlar alguns Apple Vision Pro) confirma a aposta de Tim Cook em melhorar todas e cada uma das vidas.

A abordagem é profundamente humana: permitir que dezenas de milhares de pessoas que não podem usar as mãos devido a lesões graves na medula espinhal ou doenças como a esclerose lateral amiotrófica (ELA) tenham acesso à tecnologia que a maioria de nós dá por garantida.

Mark Jackson: o homem que já visita os Alpes sem poder levantar-se da cadeira

Mark Jackson é um dos pacientes com ELA que está a testar esta tecnologia revolucionária. Apesar de não poder levantar-se nem viajar da sua casa perto de Pittsburgh devido à sua condição, Jackson experimentou algo extraordinário: espreitar a beira de uma montanha nos Alpes suíços e sentir as pernas a tremer.

Mark Jackson, um paciente com ELA, controla um visor de realidade virtual Apple Vision Pro com a ajuda de um implante de interface cérebro-computador da Synchron

Não, não era um sonho nem uma alucinação. Jackson estava usando um Apple Vision Pro conectado ao seu implante Stentrode, que traduzia seus sinais cerebrais em comandos para o dispositivo de realidade mista da Apple. “É como se sentir capaz novamente”, comenta Jackson.

Estima-se que cerca de 150 000 pessoas nos EUA que sofrem de deficiências críticas nos membros superiores possam ser os candidatos mais diretos para dispositivos com esta interface cérebro-computador. Pode parecer um mercado pequeno em comparação com os milhões de iPhones que a Apple vende todos os anos, mas a empresa de Cupertino tem um longo historial de implementação de funcionalidades de acessibilidade, mesmo quando não há um benefício económico tão direto.

Synchron: o parceiro da Apple que já lê mentes desde 2019

A Synchron não é uma recém-chegada no campo das interfaces cérebro-computador. E, embora possa parecer quase impossível ver algo assim hoje em dia, é algo que está a acontecer. Fundada com uma abordagem menos invasiva do que a de concorrentes como a Neuralink, a empresa já realizou implantes em cerca de uma dezena de pacientes desde 2019, principalmente com ELA ou outras deficiências motoras graves.

A sua tecnologia estrela é o «Stentrode», um implante semelhante a um stent que é inserido através da veia jugular para chegar a um vaso sanguíneo sobre o córtex motor do cérebro. Esta forma de implantação evita a necessidade de uma cirurgia «aberta», uma grande vantagem em relação a outras empresas com soluções mais invasivas.

O dispositivo possui 16 elétrodos que captam sinais neuronais e, posteriormente, os traduzem em comandos digitais. É precisamente aqui que entra a colaboração com a Apple: esses sinais cerebrais são integrados a uma função do sistema operativo da Apple chamada “switch control”, que literalmente transfere o controlo para este novo tipo de entrada.

Isto não é completamente novo para a Apple. A empresa deu um passo semelhante em 2014, quando lançou um padrão tecnológico para que os aparelhos auditivos se comunicassem com iPhones através de Bluetooth, um padrão que desde então foi adotado pela maioria dos fabricantes de aparelhos auditivos.

Tom Oxley, CEO da Synchron, explica uma das principais dificuldades atuais: «Hoje, as empresas de interfaces cérebro-computador têm que enganar os computadores para que pensem que os sinais provenientes dos seus implantes vêm de um rato». É como se o cérebro e o dispositivo falassem línguas diferentes e precisassem de um tradutor improvisado.

Synchron vs Neuralink: mais elétrodos nem sempre significa melhor

Não podemos falar de interfaces cérebro-computador sem mencionar a Neuralink, a empresa de Elon Musk que também está avançando neste campo. O seu dispositivo N1 captura muito mais dados cerebrais do que o Stentrode da Synchron, graças aos seus mais de 1.000 elétrodos implantados diretamente no cérebro.

Synchron (Stentrode)

Neuralink (N1)

Implementação

Minimamente invasiva (via veia jugular)

Cirurgia direta no cérebro

Eletrodos

16

Mais de 1.000

Posição

Sobre o cérebro

Dentro do cérebro

Situação atual

Implantes em humanos desde 2019

Primeiro implante humano em 2024

Integração

Alexa, Apple, ChatGPT, Vision Pro

Principalmente testes de controlo do cursor

Financiamento

Gates, Bezos

Elon Musk

O primeiro utilizador do implante da Neuralink demonstrou que consegue mover um cursor com os seus pensamentos mais rapidamente do que algumas pessoas com um rato. No entanto, a vantagem competitiva da Synchron reside no seu método menos invasivo e na sua maior experiência com implantes em seres humanos, o que possivelmente explica por que razão a Apple decidiu colaborar com eles nesta primeira fase.

Enquanto lê isto, a Apple já está a preparar como fazer scroll com os olhos

O trabalho da Apple com interfaces cérebro-computador é apenas uma parte da sua visão para o futuro da interação com dispositivos. A empresa também está a desenvolver uma funcionalidade para o Vision Pro que permitirá aos utilizadores navegar pelo software com os olhos, aproveitando o hardware e software de rastreamento ocular já existentes no dispositivo. Esta capacidade de deslocamento ocular está a ser testada como parte do visionOS 3. A Apple planeia apresentar o novo sistema operativo Vision Pro na WWDC25, no próximo dia 9 de junho.

O que todos pensamos: eles vão conseguir ler os meus pensamentos?

O desenvolvimento de interfaces cérebro-computador levanta inevitavelmente questões sobre privacidade. O que acontece com os dados recolhidos diretamente do nosso cérebro? A Synchron enfatiza que leva em consideração a privacidade dos dados cerebrais e garante que não partilha informações confidenciais com terceiros. A Apple, por sua vez, tem uma ampla reputação em termos de privacidade, algo que pode ser tranquilizador para aqueles que temem que os seus pensamentos possam ser monitorizados.

A próxima WWDC em junho nos dará mais pistas sobre como a Apple visualiza esse futuro e qual será o seu papel nele. O que está claro é que a empresa que revolucionou a forma como usamos os telemóveis agora está pronta para revolucionar a forma como as nossas mentes interagem com a tecnologia.

Mila/ author of the article

Oi! Sou Mila e escrevo artigos com dicas úteis para facilitar seu dia a dia e ajudar você a viver melhor e mais leve!

Green vibe - Lifestyle 💚