Ai transparency.jpg

A chave para equilibrar a inovação e a confiança na política de IA

A seguir é um post de convidado de Felix XuFundador de Rede ARPA.

A abordagem do governo dos EUA à inteligência artificial (IA) mudou dramaticamente, enfatizando a inovação acelerada sobre a supervisão regulatória. Em particular, a ordem executiva do presidente Donald Trump, Removendo barreiras à liderança americana em inteligência artificialestabeleceu um novo tom para o desenvolvimento da IA, enraizado na promoção da liberdade de expressão e avançando o progresso tecnológico. Da mesma forma, vice -presidente dos EUA JD VanceA recusa em endossar um contrato de segurança global de IA indica que os Estados Unidos priorizarão a inovação sem comprometer sua vantagem competitiva.

No entanto, à medida que os sistemas de IA se tornam cada vez mais influentes nos mercados financeiros, infraestrutura crítica e discurso público, a questão permanece: como podemos garantir confiança e confiabilidade nas decisões e saídas orientadas por modelos de IA sem abafar inovação?

É aqui que entra a IA verificável, oferecendo uma abordagem transparente e criptograficamente segura da IA ​​que garante responsabilidade sem regulamentação pesada.

O desafio da IA ​​sem transparência

O rápido avanço da IA ​​deu início a uma nova era de agentes inteligentes de IA capazes de tomada de decisão complexa e autônoma. Mas sem transparência, esses sistemas podem se tornar imprevisíveis e inexplicáveis.

Por exemplo, os agentes financeiros de IA, que dependem de modelos sofisticados de aprendizado de máquina para analisar vastos conjuntos de dados, agora estão operando sob menos requisitos de divulgação. Embora isso incentive a inovação, também aumenta uma lacuna de confiança: sem uma visão de como esses agentes de IA chegam às conclusões, empresas e usuários podem ter dificuldade para verificar sua precisão e confiabilidade.

Um acidente de mercado desencadeado pela tomada de decisão de um modelo de IA não é apenas um risco teórico, é uma possibilidade se os modelos de IA forem implantados sem salvaguardas verificáveis. O desafio não se trata de desacelerar o progresso da IA, mas garantir que seus resultados possam ser comprovados, validados e confiáveis.

Como o renomado psicólogo de Harvard, Bf Skinner, disse uma vez: “O problema real não é se as máquinas pensam, mas se os homens sabem”. Na IA, a questão principal não é apenas o quão inteligentes esses sistemas são, mas como os humanos podem verificar e confiar em sua inteligência.

Quão verificável AI preenche a lacuna de confiança

Russel Wald, diretor executivo do Instituto Stanford de inteligência artificial centrada em humanos, resume A abordagem da AI nos EUA:

“A segurança não será o foco principal, mas, em vez disso, será uma inovação acelerada e a crença de que a tecnologia é uma oportunidade”.

É exatamente por isso que a IA verificável é crucial. Ele permite a inovação da IA ​​sem comprometer a confiança, garantindo que as saídas de IA possam ser validadas de maneira descentralizada e de preservação de privacidade.

A IA verificável aproveita técnicas criptográficas, como provas de conhecimento zero (ZKPS) e aprendizado de máquina de conhecimentos zero (ZKML), para fornecer aos usuários confiança nas decisões de IA sem expor dados proprietários.

  • Os ZKPs permitem que os sistemas de IA gerem provas criptográficas que confirmam que uma saída é legítima sem revelar os dados ou processos subjacentes. Isso garante a integridade, mesmo em um ambiente com uma supervisão regulatória mínima.
  • O ZKML traz modelos de IA verificáveis ​​na cadeia, permitindo saídas de IA sem confiança que são matematicamente comprováveis. Isso é particularmente crítico para a AI Oracles e a tomada de decisões orientadas a dados em setores como finanças, assistência médica e governança.
  • O ZK-SNARKs converte cálculos de IA em provas verificáveis, garantindo que os modelos de IA operem com segurança enquanto protegem os direitos de IP e a privacidade do usuário.

Em essência, a IA verificável fornece uma camada de verificação independente, garantindo que os sistemas de IA permaneçam transparentes, responsáveis ​​e provavelmente precisos.

Ai verificável: o futuro da responsabilidade da IA

A trajetória da AI da América está definida para inovação agressiva. Mas, em vez de confiar apenas na supervisão do governo, a indústria deve defender soluções tecnológicas que garantam progresso e confiança.

Algumas empresas podem aproveitar os regulamentos mais frouxos da IA ​​para lançar produtos sem verificações de segurança adequadas. No entanto, a IA verificável oferece uma poderosa organizações e indivíduos alternativos para construir sistemas de IA que são comprováveis, confiáveis ​​e resistentes ao uso indevido.

Em um mundo em que a IA está tomando decisões cada vez mais conseqüentes, a solução não é diminuir o progresso, é para tornar a IA verificável. Essa é a chave para garantir que a IA continue sendo uma força para inovação, confiança e impacto global a longo prazo.

Mencionado neste artigo
XRP turboXRP turbo

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *