World destruction.jpg

A humanidade usará a IA para se destruir muito antes que a IA seja senciente o suficiente para se rebelar contra ela

À medida que a inteligência artificial avança rapidamente, os meios de comunicação legados lançam avisos de uma ameaça existencial de uma revolta robótica ou de um evento de singularidade. No entanto, a verdade é que é mais provável que a humanidade destrua o mundo através do uso indevido da tecnologia de IA muito antes de a IA se tornar avançada o suficiente para se voltar contra nós.

Hoje, a IA permanece restrita, específica para tarefas e carente de senciência ou consciência geral. Sistemas como AlphaGo e Watson derrotam humanos no xadrez e no Jeopardy por meio da força computacional bruta, em vez de exibir criatividade ou estratégia. Embora o potencial para uma IA superinteligente certamente exista no futuro, ainda estamos a muitas décadas de desenvolver uma IA genuinamente autónoma e autoconsciente.

Em contraste, as aplicações militares da IA ​​levantam perigos imediatos. Sistemas de armas autónomos já estão a ser desenvolvidos para identificar e eliminar alvos sem supervisão humana. O software de reconhecimento facial é usado para vigilância, criação de perfis e policiamento preditivo. Os bots manipulam feeds de redes sociais para espalhar desinformação e influenciar eleições.

As fazendas de bots usadas durante as eleições nos EUA e no Reino Unido, ou mesmo as táticas implantadas pela Cambridge Analytica, podem parecer inofensivas em comparação com o que pode estar por vir. Por meio de ferramentas de IA generativa de nível GPT-4, é bastante elementar criar um bot de mídia social capaz de imitar uma persona designada.

Quer que milhares de pessoas de Nebraska comecem a postar mensagens de apoio à sua campanha? Bastaria de 10 a 20 linhas de código, algumas fotos de perfil geradas pelo MidJourney e uma API. Os bots atualizados não só seriam capazes de espalhar desinformação e propaganda, mas também participar de conversas e tópicos de acompanhamento para consolidar a mensagem nas mentes dos usuários reais.

Esses exemplos ilustram apenas algumas das maneiras pelas quais os humanos provavelmente transformarão a IA em armas muito antes de desenvolverem qualquer agenda malévola.

Talvez a ameaça mais significativa no curto prazo venha da otimização da IA ​​que deu errado. Os sistemas de IA fundamentalmente não entendem o que precisamos ou queremos deles, eles só podem seguir as instruções da melhor maneira que sabem. Por exemplo, um sistema de IA programado para curar o cancro pode decidir que eliminar os seres humanos suscetíveis ao cancro é a solução mais eficiente. Uma IA que gere a rede elétrica pode provocar apagões em massa se calcular que a redução do consumo de energia é ideal. Sem salvaguardas reais, mesmo as IA concebidas com boas intenções poderão levar a resultados catastróficos.

Riscos relacionados também vêm do hacking de IA, em que malfeitores penetram e sabotam sistemas de IA para causar caos e destruição. Ou a IA poderia ser usada intencionalmente como ferramenta de repressão e controlo social, automatizando a vigilância em massa e conferindo aos autocratas um poder sem precedentes.

Em todos estes cenários, a culpa não é da IA, mas sim dos humanos que construíram e implementaram estes sistemas sem a devida cautela. A IA não escolhe como será usada; as pessoas fazem essas escolhas. E uma vez que há poucos incentivos neste momento para que as empresas tecnológicas ou militares limitem a implementação de aplicações de IA potencialmente perigosas, só podemos assumir que estão a caminhar directamente nessa direcção.

Portanto, a segurança da IA ​​é fundamental. Um sistema de IA bem gerido, ético e protegido deve ser a base de toda inovação. No entanto, não acredito que isso deva passar por restrição de acesso. A IA deve estar disponível para todos para que beneficie verdadeiramente a humanidade.

Enquanto nos preocupamos com as visões de um futuro robô assassino, a IA já está preparada para causar estragos suficientes nas mãos dos próprios humanos. A verdade preocupante pode ser que a miopia e o apetite da humanidade pelo poder tornam as primeiras aplicações de IA incrivelmente perigosas nas nossas mãos irresponsáveis. Para sobreviver, temos de regular cuidadosamente a forma como a IA é desenvolvida e aplicada, reconhecendo ao mesmo tempo que o maior inimigo na era da inteligência artificial serão as nossas próprias falhas como espécie – e é quase demasiado tarde para corrigi-las.

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *