Antrópicoa empresa de pesquisa de inteligência artificial por trás do chatbot Claude, revelou um abrangente Política de escalonamento responsável (RSP) esta semana com o objetivo de mitigar os riscos previstos associados a sistemas de IA cada vez mais capazes.
Tomando emprestado os padrões de nível de biossegurança do governo dos EUA, o RSP introduz uma estrutura de Níveis de Segurança de IA (ASL). Este sistema estabelece padrões de segurança e operacionais correspondentes ao potencial de risco catastrófico de cada modelo. Padrões ASL mais elevados exigiriam demonstrações de segurança rigorosas, com o ASL-1 envolvendo sistemas sem risco catastrófico significativo, enquanto o ASL-4 e superiores abordariam sistemas distantes das capacidades atuais.
O sistema ASL destina-se a incentivar o progresso nas medidas de segurança, interrompendo temporariamente o treino de modelos mais poderosos se o escalonamento da IA ultrapassar os seus procedimentos de segurança. Esta abordagem ponderada alinha-se com o apelo internacional mais amplo para o desenvolvimento e uso responsável da IA, um sentimento ecoado pelo presidente dos EUA, Joe Biden, num comunicado. endereço recente às Nações Unidas.
O RSP da Anthropic busca garantir aos usuários existentes que essas medidas não prejudicarão a disponibilidade de seus produtos. Traçando paralelos com testes pré-comercialização e práticas de design de segurança nas indústrias automotiva e de aviação, eles visam estabelecer rigorosamente a segurança de um produto antes de seu lançamento.
Embora esta política tenha sido aprovada pelo conselho da Anthropic, quaisquer alterações deverão ser ratificadas pelo conselho após consultas com o Long Term Benefit Trust, que visa equilibrar os interesses públicos com os acionistas da Antrópico. O Trust é composto por cinco curadores com experiência em segurança de IA, segurança nacional, políticas públicas e empreendimentos sociais.
À frente do jogo
Ao longo de 2023, o discurso em torno da regulamentação da inteligência artificial (IA) foi significativamente ampliado em todo o mundo, sinalizando que a maioria das nações está apenas a começar a lidar com a questão. A regulamentação da IA foi trazida à tona durante uma audiência no Senado em maio, quando o CEO da OpenAI, Sam Altman chamado para uma maior supervisão governamental, paralelamente à regulamentação global das armas nucleares.
Fora dos EUA, o governo do Reino Unido propôs objectivos para a sua Cúpula de Segurança de IA em novembro, com o objetivo de construir um consenso internacional sobre a segurança da IA. Enquanto isso, na União Europeia, as empresas de tecnologia fizeram lobby para obter suporte de código aberto nas próximas regulamentações de IA da UE.
A China também iniciou sua primeira IA generativa do tipo regulamentos, estipulando que os serviços generativos de IA respeitem os valores do socialismo e estabeleçam salvaguardas adequadas. Estas tentativas regulamentares sublinham uma tendência mais ampla, sugerindo que as nações estão apenas a começar a compreender e a abordar as complexidades da regulação da IA.