Este é o seu cérebro no Neuralink

No mês passado, o empresário serial Elon Musk apresentou seu projeto mais recente e talvez mais ambicioso, o Neuralink.
O Neuralink é uma interface cérebro-computador (BCI) que Musk planeja primeiro implantar em indivíduos paralisados ​​para permitir que eles controlem seus dispositivos eletrônicos. Embora os BCIs já sejam usados ​​para fins semelhantes, Musk afirma que o Neuralink, por várias razões, constituirá uma melhoria significativa em relação às tecnologias existentes.

Primeiro, em vez dos eletrodos volumosos que atualmente compõem os BCIs, o Neuralink usará “fios” finos para se conectar aos cérebros dos usuários. Alegadamente, esses encadeamentos têm menos probabilidade de causar danos e são capazes de transferir volumes maiores de dados. Benefícios adicionais incluem implantação por raios laser (em oposição a brocas) e robôs para maior precisão e menor fator de ick.

A partir de agora, o Neuralink só foi usado em animais, mas Musk pretende implantar a tecnologia no primeiro paciente humano no próximo ano – um movimento que exigirá a supervisão e aprovação do FDA (mais sobre isso mais tarde).

Muitos dos comentários após a apresentação de Musk se concentraram em se a tecnologia é viável. Embora essas considerações sejam importantes, este artigo faz uma pergunta diferente, sem dúvida mais profunda. Ou seja, a tecnologia é sábia?

Musk não tem vergonha de admitir que a motivação final por trás do Neuralink não é melhorar a vida de indivíduos paralisados. Em vez disso, o Neuralink é uma resposta à preocupação de Musk de que a IA eventualmente supere a inteligência humana (um momento conhecido como singularidade) e use sua inteligência superior para subjugar, e talvez até aniquilar, a humanidade.

Para Musk, a única maneira de evitar esse futuro sombrio é mesclar-se com a IA através do Neuralink – o todo, se você não pode vencê-los, junte-se a eles.

Embora as intenções de Musk de salvar a humanidade da extinção possam ser nobres, existem vários problemas óbvios com a premissa do Neuralink, o primeiro deles relacionado à privacidade.

Já vivemos em um mundo onde nossos dados são rotineiramente coletados, comodificados e usados ​​para manipular nossos comportamentos, econômicos ou políticos, de maneiras problemáticas (e francamente assustadoras).

Os dados coletados diretamente de nossos cérebros por meio de uma tecnologia como a Neuralink, no entanto, dariam aos profissionais de marketing e outras partes interessadas um poder sem precedentes para prever e controlar nosso comportamento, fazendo com que o estado atual das coisas parecesse brincadeira de criança. Eu não sei sobre você, mas esse não é realmente um futuro que estou ansioso para viver.

O Neuralink também apresenta preocupações de segurança. Os dados gerados pelo cérebro dos usuários seriam valiosos não apenas para terceiros autorizados por acordos de usuários a acessá-los, mas também por pessoas não autorizadas de intenção nefasta. Nossos pensamentos são indiscutivelmente os pontos de dados mais reveladores sobre nós e, portanto, os mais poderosos e perigosos de usar.

Na maioria das vezes, os pensamentos que escolhemos não vocalizar são coisas que queremos manter em sigilo e provavelmente causariam constrangimento se revelado. Dados sobre nossos pensamentos, portanto, forneceriam a terceiros uma imensa influência sobre nós, incluindo pessoas no poder, se invadidos.

Mas o Neuralink poderia oferecer aos hackers incursões ainda mais diretas à nossa autonomia do que chantagens. O Neuralink provavelmente seria uma via de mão dupla através da qual as informações poderiam ser extraídas e inseridas em nossos cérebros.

Portanto, terceiros não autorizados podem, teoricamente, controlar os usuários por meio de entradas no Neuralink, dependendo de quão avançada a tecnologia se tornar um dia. O tipo de medidas de segurança necessárias para evitar esses resultados distópicos seria imenso, de modo que devemos perguntar se eles são viáveis.

Deixando de lado questões relacionadas à privacidade e segurança, a Neuralink apresenta uma preocupação mais fundamental em relação ao impacto da conectividade em nosso bem-estar. Evidências crescentes sugerem que nosso nível atual de conectividade pode estar afetando nossa saúde mental.

Por exemplo, à medida que nosso engajamento on-line aumenta, também aumentam os sentimentos de isolamento e solidão, o que faz sentido, considerando os custos de oportunidade relacionados: quanto mais tempo passamos on-line, menos tempo temos para interações humanas reais.

Em reconhecimento a esses perigos, os pais do Vale do Silício, os próprios arquitetos de nossas tecnologias de captação de atenção, estão cada vez mais limitando as interações de seus filhos com os dispositivos. Dadas essas tendências, devemos perguntar se o envolvimento mais profundo com o ciberespaço é realmente a melhor maneira de maximizar o bem-estar da raça humana.

Esses e outros riscos potenciais associados ao Neuralink são particularmente preocupantes, uma vez que as decisões de uso da tecnologia – e, portanto, assumem os riscos associados – podem não ser completamente autônomas.

Tal como acontece com os smartphones, se bem-sucedidos, pode haver uma pressão significativa de colegas e empregadores para adotar a tecnologia, a fim de não ficar para trás. Como resultado, os riscos associados ao Neuralink podem não estar contidos para indivíduos que realmente consentem.

Apesar dos riscos e questões éticas que cercam o Neuralink, Musk espera conectar usuários saudáveis ​​à Internet e à IA por meio da tecnologia nos próximos 8 a 10 anos. Embora os usos iniciais do Neuralink para ajudar indivíduos paralisados ​​sejam regulamentados pelo FDA, essas aplicações não médicas do Neuralink ficam fora do escopo atual da autoridade reguladora do FDA.

No entanto, dados os riscos associados ao Neuralink, o governo deve começar a considerar como regular esses BCIs não terapêuticos.
O anúncio de Musk do Neuralink também enfatiza a necessidade de regulamentação de outra tecnologia – a própria IA. Como mencionado, a suposta motivação de Musk para criar o Neuralink é proteger a humanidade do que ele e outros vêem como a ameaça existencial representada pela IA super-inteligente.

No entanto, apesar dos medos muito reais em relação à IA, o governo não fez nada para supervisionar o desenvolvimento de tais tecnologias. Dado que a IA tem um grande potencial de promover ou diminuir o bem-estar humano, seu desenvolvimento deve ser cuidadosamente orientado para o resultado anterior.

Essa orientação pode ser fornecida por um regime regulatório bem elaborado que exija transparência, avalie possíveis ameaças de curto ou longo prazo impostas pela IA e defina parâmetros para o desenvolvimento de tais tecnologias de acordo.

A necessidade de ação regulatória é ainda mais destacada pelo fato de que várias plataformas de IA começaram a resolver problemas de maneiras indiscerníveis para seus criadores (isto é, o “problema da caixa preta”) e já estão sendo usadas de maneiras eticamente problemáticas (por exemplo, a China). uso de reconhecimento facial para perfil racial). Por esses motivos, alguns outros países estão começando a lançar as bases para a supervisão da IA ​​- um sinal de que é hora dos Estados Unidos agirem também.

Com a abordagem regulatória correta, nós, diferentemente de Musk, não precisamos nos resignar a um impasse existencial com a IA. Como criadores dessas tecnologias, temos o poder de determinar como a IA pode atender melhor às necessidades da humanidade, de modo que nossa sobrevivência não dependa de outras tecnologias de risco, como o Neuralink. Independentemente disso, é provável que eventualmente sejam criados BCIs não terapêuticos.

Portanto, é essencial que o governo inicie discussões sobre como essas tecnologias podem ser regulamentadas à luz das considerações éticas relevantes. A tecnologia está mudando rapidamente, com implicações significativas para a humanidade; devemos garantir que estamos em posição de moldar sua trajetória, e não o contrário.


Advertisement