India Ai.jpg

A Índia exige que as empresas de tecnologia busquem aprovação regulatória antes de lançar ferramentas de IA

O governo indiano anunciou um novo requisito para que as empresas de tecnologia obtenham a aprovação do governo antes de lançar publicamente ferramentas de inteligência artificial (IA) que ainda estão em desenvolvimento ou consideradas “não confiáveis”, Reuters relatado 4 de março.

A medida faz parte dos esforços da Índia para gerir a implantação de tecnologias de IA, com o objetivo de promover a precisão e a fiabilidade nas ferramentas disponíveis aos seus cidadãos enquanto se prepara para as eleições.

Regras para IA

De acordo com uma directiva emitida pelo Ministério da Tecnologia da Informação, quaisquer aplicações baseadas em IA, especialmente aquelas que envolvem IA generativa, devem receber autorização explícita do governo antes da sua introdução no mercado indiano.

Além disso, estas ferramentas de IA devem ser marcadas com avisos sobre o seu potencial para gerar respostas incorretas às consultas dos utilizadores, reforçando a posição do governo sobre a necessidade de clareza relativamente às capacidades da IA.

O regulamento alinha-se com as tendências globais onde as nações procuram estabelecer diretrizes para o uso responsável da IA. A abordagem da Índia para aumentar a supervisão sobre a IA e as plataformas digitais coincide com a sua estratégia regulamentar mais ampla para salvaguardar os interesses dos utilizadores numa era digital em rápido avanço.

A assessoria do governo também aponta preocupações quanto à influência das ferramentas de IA na integridade do processo eleitoral. Com as próximas eleições gerais, onde se prevê que o partido no poder mantenha a sua maioria, há um maior foco em garantir que as tecnologias de IA não comprometam a justiça eleitoral.

Críticas de Gêmeos

A medida segue críticas recentes à ferramenta Gemini AI do Google, que gerou respostas consideradas desfavoráveis ​​ao primeiro-ministro indiano, Narendra Modi.

O Google respondeu ao incidente reconhecendo as imperfeições de sua ferramenta de IA, especialmente sobre temas delicados, como eventos atuais e política. A empresa disse que a ferramenta ainda “não era confiável”.

O vice-ministro de TI, Rajeev Chandrasekhar, disse que as questões de confiabilidade não isentam as plataformas de responsabilidades legais e enfatizou a importância de cumprir as obrigações legais relativas à segurança e confiança.

Ao introduzir estes regulamentos, a Índia está a tomar medidas no sentido de estabelecer um ambiente controlado para a introdução e utilização de tecnologias de IA.

A exigência de aprovação governamental e a ênfase na transparência com potenciais imprecisões são vistas como medidas para equilibrar a inovação tecnológica com considerações sociais e éticas, visando proteger os processos democráticos e o interesse público na era digital.

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *