Opedagi.jpg

Uma abordagem racional de um cenário de ‘dia do juízo final’ da SkyNet se a OpenAI se aproximasse da AGI

Os sucessos de bilheteria de Hollywood retratam rotineiramente IAs desonestas voltando-se contra a humanidade. No entanto, a narrativa do mundo real sobre os riscos que a inteligência artificial representa é muito menos sensacional, mas significativamente mais importante. O medo de uma IA onisciente quebrar o inquebrável e declarar guerra à humanidade contribui para o grande cinema, mas obscurece os riscos tangíveis muito mais perto de casa.

Eu já falei sobre como humanos causarão mais danos com IA antes mesmo de atingir a senciência. No entanto, aqui, quero desmascarar alguns mitos comuns sobre os riscos da AGI através de lentes semelhantes.

O mito da IA ​​quebrando a criptografia forte.

Vamos começar desmascarando um tropo popular de Hollywood: a ideia de que a IA avançada quebrará a criptografia forte e, ao fazê-lo, ganhará vantagem sobre a humanidade.

A verdade é que a capacidade da IA ​​de descriptografar criptografia forte permanece notavelmente limitada. Embora a IA tenha demonstrado potencial no reconhecimento de padrões em dados encriptados, sugerindo que alguns esquemas de encriptação podem ser vulneráveis, isto está longe do cenário apocalíptico frequentemente retratado. Avanços recentes, como a quebra do algoritmo de criptografia pós-quântica CRYSTALS-Kyber, foram alcançou através de uma combinação de treinamento recursivo e ataques de canal lateral da IA, e não através dos recursos autônomos da IA.

A ameaça real representada pela IA na segurança cibernética é uma extensão dos desafios atuais. A IA pode e está sendo usada para aprimorar ataques cibernéticos como o spear phishing. Esses métodos estão se tornando mais sofisticados, permitindo que hackers infiltrar redes de forma mais eficaz. A preocupação não é um senhor autônomo da IA, mas o uso indevido humano da IA ​​em violações de segurança cibernética. Além disso, uma vez hackeados, os sistemas de IA podem aprender e adaptar-se para cumprir objetivos maliciosos de forma autónoma, tornando-os mais difíceis de detetar e combater.

IA escapando para a internet para se tornar um fugitivo digital.

A ideia de que poderíamos simplesmente desligar uma IA desonesta não é tão estúpida quanto parece.

Os enormes requisitos de hardware para executar um modelo de IA altamente avançado significam que este não pode existir independentemente da supervisão e controlo humanos. Executar sistemas de IA como o GPT4 requer extraordinário poder de computação, energia, manutenção e desenvolvimento. Se alcançássemos a AGI hoje, não haveria maneira viável de esta IA “escapar” para a Internet, como frequentemente vemos nos filmes. Seria necessário obter acesso a farms de servidores equivalentes de alguma forma e funcionar sem ser detectado, o que simplesmente não é viável. Este facto por si só reduz significativamente o risco de uma IA desenvolver autonomia ao ponto de dominar o controlo humano.

Além disso, existe um abismo tecnológico entre os modelos atuais de IA, como o ChatGPT, e as representações de ficção científica da IA, como vistas em filmes como “O Exterminador do Futuro”. Embora as forças armadas em todo o mundo já utilizem drones aéreos autónomos avançados, estamos longe de ter exércitos de robôs capazes de realizar guerras avançadas. Na verdade, mal dominamos os robôs capazes de navegar pelas escadas.

Aqueles que promovem a narrativa apocalíptica da SkyNet não reconhecem o salto tecnológico necessário e podem inadvertidamente estar a ceder terreno aos defensores contra a regulamentação, que defendem o crescimento desenfreado da IA ​​sob o pretexto de inovação. Só porque não temos robôs do Juízo Final não significa que não haja risco; significa apenas que a ameaça é criada pelo homem e, portanto, ainda mais real. Este mal-entendido corre o risco de ofuscar a discussão matizada sobre a necessidade de supervisão no desenvolvimento da IA.

Perspectiva geracional de IA, comercialização e mudanças climáticas

Vejo o risco mais iminente como a comercialização excessiva da IA ​​sob a bandeira do “progresso”. Embora eu não faça eco aos apelos por um parar o desenvolvimento da IA, apoiado por pessoas como Elon Musk (antes de lançar o xAI), acredito em uma supervisão mais rigorosa na comercialização de IA de fronteira. A decisão da OpenAI não incluir AGI no seu acordo com a Microsoft é um excelente exemplo da complexidade que envolve o uso comercial da IA. Embora os interesses comerciais possam impulsionar o rápido avanço e a acessibilidade das tecnologias de IA, também podem levar a uma priorização de ganhos a curto prazo em detrimento de considerações éticas e de segurança a longo prazo. Existe um equilíbrio delicado entre promover a inovação e garantir um desenvolvimento responsável que talvez ainda não tenhamos descoberto.

Com base nisto, tal como os “Boomers” e a “GenX” foram criticados pela sua aparente apatia em relação às alterações climáticas, dado que podem não viver para ver os seus efeitos mais devastadores, poderá haver uma tendência semelhante no desenvolvimento da IA. A pressa em fazer avançar a tecnologia da IA, muitas vezes sem considerar adequadamente as implicações a longo prazo, reflecte esta miopia geracional. As decisões que tomamos hoje terão impactos duradouros, quer estejamos aqui para testemunhá-los ou não.

Esta perspectiva geracional torna-se ainda mais pertinente quando se considera a urgência da situação, uma vez que a pressa em fazer avançar a tecnologia da IA ​​não é apenas uma questão de debate académico, mas tem consequências no mundo real. As decisões que tomamos hoje no desenvolvimento da IA, tal como as da política ambiental, moldarão o futuro que deixaremos para trás.

Devemos construir um ecossistema tecnológico sustentável e seguro que beneficie as gerações futuras, em vez de lhes deixar um legado de desafios que a nossa miopia cria.

Inovação sustentável, pragmática e considerada.

Enquanto estamos à beira de avanços significativos em IA, a nossa abordagem não deve ser de medo e inibição, mas de inovação responsável. Precisamos lembrar o contexto em que estamos desenvolvendo essas ferramentas. A IA, com todo o seu potencial, é uma criação da engenhosidade humana e está sujeita ao controle humano. À medida que avançamos em direção à AGI, estabelecer barreiras de proteção fortes não é apenas aconselhável; é essencial. Para continuar batendo o mesmo tambor, os humanos causarão um evento de extinção por meio da IA muito antes A IA pode fazer isso sozinha.

Os verdadeiros riscos da IA ​​não residem nas narrativas sensacionalistas de Hollywood, mas na realidade mais mundana do mau uso humano e da miopia. É hora de mudarmos o nosso foco do improvável apocalipse da IA ​​para os desafios muito reais e atuais que a IA coloca nas mãos daqueles que podem usá-la indevidamente. Não vamos reprimir a inovação, mas orientá-la de forma responsável para um futuro onde a IA sirva a humanidade e não a prejudique.

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *