Openai Revenue .jpg

Gigantes da mídia canadense processam OpenAI por supostas violações de direitos autorais do ChatGPT

Uma coalizão de organizações de mídia canadenses abriu um processo contra OpenAIreivindicando o produto ChatGPT da empresa idireitos autorais violados utilizando seu jornalismo sem autorização, de acordo com um tribunal de 29 de novembro arquivamento.

Os demandantes incluem veículos de destaque como CBC/Radio-Canada, The Toronto Star e The Globe and Mail. Eles estão buscando indenização e uma liminar para impedir que a OpenAI continue a usar seu conteúdo.

A ação, movida no Superior Tribunal de Justiça de Ontário, acusa a OpenAI de extrair e lucrar com conteúdo de notícias canadense sem permissão.

O grupo alegou:

“A OpenAI está capitalizando o uso de nosso conteúdo, desconsiderando as leis de direitos autorais e os termos de uso online.”

A OpenAI defendeu suas práticas, afirmando que seus modelos de IA são treinados em informações publicamente disponíveis sob os princípios de uso justo e leis de direitos autorais relacionadas. A empresa também destacou suas parcerias com organizações de notícias e opções de exclusão para editores.

Um porta-voz da OpenAI disse aos repórteres:

“O ChatGPT é usado por milhões de pessoas em todo o mundo para aumentar a criatividade e resolver problemas complexos. Colaboramos com os editores para garantir a atribuição e oferecer ferramentas para que eles controlem como seu conteúdo é envolvido em nossa plataforma.”

No entanto, os demandantes argumentam que as atividades da OpenAI prejudicam o valor do jornalismo ao redirecioná-lo para ganhos comerciais. Eles também desafiaram a confiança da OpenAI no uso justo, enfatizando que o seu jornalismo se destina a servir o interesse público e não deve ser explorado para fins lucrativos.

Este caso junta-se a um número crescente de ações judiciais contra a OpenAI e outras empresas de IA sobre o uso de materiais protegidos por direitos autorais para treinamento de modelos. No início deste ano, a OpenAI reconheceu a um comité do Reino Unido que não seria viável treinar os seus actuais sistemas de IA sem incorporar materiais protegidos por direitos de autor.

A empresa também enfrentou escrutínio em busca de erros, incluindo uma recente admissão de que os engenheiros apagaram inadvertidamente evidências críticas relacionadas aos dados de treinamento de IA. O resultado deste caso poderá ter implicações significativas para a lei dos direitos de autor na era da IA, à medida que os tribunais lutam com o equilíbrio entre inovação e direitos de propriedade intelectual.

Mencionado neste artigo

Fonte

Compartilhe:

Facebook
Twitter
LinkedIn
Pinterest
Pocket
WhatsApp

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *