Ai Whistleblower Protection.jpg

OpenAI e membros da DeepMind exigem proteções de denunciantes de IA

Indivíduos com funções passadas e presentes em OpenAI e Google DeepMind pediu a proteção de críticos e denunciantes em 4 de junho.

Os autores de uma carta aberta instaram as empresas de IA a não celebrarem acordos que bloqueiem as críticas ou retaliassem as críticas, impedindo os benefícios económicos.

Além disso, afirmaram que as empresas deveriam criar uma cultura de “crítica aberta”, protegendo ao mesmo tempo os segredos comerciais e a propriedade intelectual.

Os autores pediram às empresas que criassem proteções para funcionários atuais e antigos, caso os processos existentes de relatório de riscos falhassem. Eles escreveram:

“As proteções comuns aos denunciantes são insuficientes porque se concentram em atividades ilegais, enquanto muitos dos riscos que nos preocupam ainda não estão regulamentados.”

Finalmente, os autores disseram que as empresas de IA deveriam criar procedimentos para que os funcionários levantassem anonimamente preocupações relacionadas a riscos. Tais procedimentos devem permitir que os indivíduos apresentem as suas preocupações aos conselhos de administração das empresas, bem como aos reguladores e organizações externas.

Preocupações pessoais

Os treze autores da carta se descreveram como atuais e ex-funcionários de “empresas de IA de ponta”. O grupo inclui 11 membros antigos e atuais da OpenAI, além de um ex-membro do Google DeepMind e um membro atual do DeepMind, anteriormente em Antrópico.

Eles descreveram preocupações pessoais, afirmando:

“Alguns de nós tememos razoavelmente várias formas de retaliação, dado o histórico de tais casos em toda a indústria.”

Os autores destacaram vários riscos da IA, tais como desigualdade, manipulação, desinformação, perda de controlo da IA ​​autónoma e potencial extinção humana.

Afirmaram que as empresas de IA, juntamente com governos e especialistas, reconheceram riscos. Infelizmente, as empresas têm “fortes incentivos financeiros” para evitar a supervisão e pouca obrigação de partilhar voluntariamente informações privadas sobre as capacidades dos seus sistemas.

De outra forma, os autores afirmaram sua crença nos benefícios da IA.

Carta do início de 2023

A solicitação segue uma carta aberta de abril de 2023 intitulada “Pause Giant AI Experiments”, que destacou de forma semelhante os riscos em torno da IA. A carta anterior obteve assinaturas de líderes da indústria, como o CEO da Tesla e o presidente do X Elon Musk e cofundador da Apple Steve Wozniak.

A carta de 2023 instava as empresas a pausar os experimentos de IA por seis meses para que os legisladores pudessem criar estruturas legais, de segurança e outras.

Mencionado neste artigo
Postado em: NÓS, IA, Apresentou

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *