Ai Poisoning .jpg

Empresa de segurança Blockchain alerta sobre risco de envenenamento de código de IA depois que ChatGPT da OpenAI recomenda API fraudulenta

Yu Xian, fundador da empresa de segurança blockchain Slowmist, alarmes disparados sobre uma ameaça crescente conhecida como envenenamento de código de IA.

Este tipo de ataque envolve a injeção de código prejudicial nos dados de treinamento dos modelos de IA, o que pode representar riscos para os usuários que dependem dessas ferramentas para tarefas técnicas.

O incidente

O problema ganhou atenção após um incidente preocupante envolvendo o ChatGPT da OpenAI. Em 21 de novembro, um comerciante de criptografia chamado “r_cky0” relatado perdendo US$ 2.500 em ativos digitais após buscar a ajuda do ChatGPT para criar um bot para Solanagerador de memecoin baseado em Pump.fun.

No entanto, o chatbot recomendou um site fraudulento da API Solana, que levou ao roubo das chaves privadas do usuário. A vítima observou que 30 minutos após o uso da API maliciosa, todos os ativos foram drenados para uma carteira vinculada ao golpe.

[Editor’s Note: ChatGPT appears to have recommended the API after running a search using the new SearchGPT as a ‘sources’ section can be seen in the screenshot. Therefore, it does not seem to be a case of AI poisoning but a failure of the AI to recognize scam links in search results.]

API de link de fraude de IA (Fonte: X)
API de link de fraude de IA (Fonte: X)

Uma investigação mais aprofundada revelou que este endereço recebe consistentemente tokens roubados, reforçando as suspeitas de que pertence a um fraudador.

O fundador do Slowmist observou que o nome de domínio da API fraudulenta foi registrado há dois meses, sugerindo que o ataque foi premeditado. Xian afirmou ainda que o site carecia de conteúdo detalhado, consistindo apenas de documentos e repositórios de códigos.

Embora o envenenamento pareça deliberado, nenhuma evidência sugere OpenAI integrou intencionalmente os dados maliciosos no treinamento do ChatGPT, com o resultado provavelmente vindo do SearchGPT.

Implicações

Empresa de segurança Blockchain Scam Sniffer observado que este incidente ilustra como os golpistas poluem os dados de treinamento de IA com códigos criptográficos prejudiciais. A empresa disse que um usuário do GitHub, “solanaapisdev”, criou recentemente vários repositórios para manipular modelos de IA para gerar resultados fraudulentos nos últimos meses.

Ferramentas de IA como Bate-papoGPTagora usados ​​por centenas de milhões de pessoas, enfrentam desafios crescentes à medida que os invasores encontram novas maneiras de explorá-los.

Xian alertou os usuários de criptografia sobre os riscos associados a grandes modelos de linguagem (LLMs), como o GPT. Ele enfatizou que, antes um risco teórico, o envenenamento por IA se materializou agora em uma ameaça real. Assim, sem defesas mais robustas, incidentes como este poderiam minar a confiança nos Ferramentas baseadas em IA e expor os usuários a mais perdas financeiras.

Mencionado neste artigo

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *