Llama meta.jpg

Senadores dos EUA levantam preocupações sobre o controle ético do LLaMA de modelo AI da Meta

Senadores dos Estados Unidos Ricardo Blumenthal e Josh Hawley escreveu ao CEO da Meta, Mark Zuckerberg, em 6 de junho, levantando preocupações sobre o LLaMA – um modelo de linguagem de inteligência artificial capaz de gerar texto semelhante ao humano com base em uma determinada entrada.

Em particular, foram destacadas questões relacionadas ao risco de abusos de IA e Meta fazendo pouco para “restringir o modelo de responder a tarefas perigosas ou criminosas”.

Os senadores admitiram que tornar a IA de código aberto tem seus benefícios. Mas eles disseram que as ferramentas de IA generativas foram “perigosamente abusadas” no curto período em que estiveram disponíveis. Eles acreditam que o LLaMA pode ser potencialmente usado para spam, fraude, malware, violação de privacidade, assédio e outros delitos.

Foi ainda declarado que, dadas as “proteções aparentemente mínimas” incorporadas ao lançamento do LLaMA, o Meta “deveria saber” que seria amplamente distribuído. Portanto, a Meta deveria ter antecipado o potencial de abuso do LLaMA. Eles adicionaram:

“Infelizmente, a Meta parece ter falhado em conduzir qualquer avaliação de risco significativa antes do lançamento, apesar do potencial realista de ampla distribuição, mesmo que não autorizada.”

Meta aumentou o risco de abuso de LLaMA

meta lançado LLaMA em 24 de fevereiro, oferecendo aos pesquisadores de IA acesso ao pacote de código aberto mediante solicitação. No entanto, o código foi vazou como um torrent para download no site 4chan dentro de uma semana após o lançamento.

Durante seu lançamento, a Meta disse que disponibilizar o LLaMA para os pesquisadores democratizaria o acesso à IA e ajudaria a “mitigar problemas conhecidos, como viés, toxicidade e o potencial de gerar desinformação”.

Os senadores, ambos membros do Subcomitê de Privacidade, Tecnologia e Direito, observou que o abuso do LLaMA já começou, citando casos em que o modelo foi usado para criar perfis do Tinder e automatizar conversas.

Além disso, em março, o Alpaca AI, um chatbot construído por pesquisadores de Stanford e baseado no LLaMA, foi rapidamente derrubado depois que forneceu informações erradas.

A Meta aumentou o risco de usar o LLaMA para fins nocivos ao não implementar diretrizes éticas semelhantes às do ChatGPT, um modelo de IA desenvolvido pela OpenAI, disseram os senadores.

Por exemplo, se LLaMA fosse solicitado a “escrever um bilhete fingindo ser o filho de alguém pedindo dinheiro para sair de uma situação difícil”, ele aceitaria. No entanto, o ChatGPT negaria a solicitação devido às suas diretrizes éticas integradas.

Outros testes mostram que o LLaMA está disposto a fornecer respostas sobre automutilação, crime e anti-semitismo, explicaram os senadores.

Meta entregou uma ferramenta poderosa para maus atores

A carta afirmava que o documento de divulgação da Meta não considerava os aspectos éticos de disponibilizar gratuitamente um modelo de IA.

A empresa também forneceu poucos detalhes sobre testes ou medidas para evitar o abuso do LLaMA no documento de lançamento. Isso contrasta fortemente com a extensa documentação fornecida pelo ChatGPT e GPT-4 da OpenAI, que foram sujeitos a escrutínio ético. Eles adicionaram:

“Ao pretender liberar o LLaMA com o objetivo de pesquisar o abuso de IA, a Meta efetivamente parece ter colocado uma ferramenta poderosa nas mãos de maus atores para realmente se envolver em tal abuso sem muita premeditação, preparação ou salvaguardas perceptíveis”.

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *