Uma coalizão de organizações de mídia canadenses abriu um processo contra OpenAIreivindicando o produto ChatGPT da empresa idireitos autorais violados utilizando seu jornalismo sem autorização, de acordo com um tribunal de 29 de novembro arquivamento.
Os demandantes incluem veículos de destaque como CBC/Radio-Canada, The Toronto Star e The Globe and Mail. Eles estão buscando indenização e uma liminar para impedir que a OpenAI continue a usar seu conteúdo.
A ação, movida no Superior Tribunal de Justiça de Ontário, acusa a OpenAI de extrair e lucrar com conteúdo de notícias canadense sem permissão.
O grupo alegou:
“A OpenAI está capitalizando o uso de nosso conteúdo, desconsiderando as leis de direitos autorais e os termos de uso online.”
A OpenAI defendeu suas práticas, afirmando que seus modelos de IA são treinados em informações publicamente disponíveis sob os princípios de uso justo e leis de direitos autorais relacionadas. A empresa também destacou suas parcerias com organizações de notícias e opções de exclusão para editores.
Um porta-voz da OpenAI disse aos repórteres:
“O ChatGPT é usado por milhões de pessoas em todo o mundo para aumentar a criatividade e resolver problemas complexos. Colaboramos com os editores para garantir a atribuição e oferecer ferramentas para que eles controlem como seu conteúdo é envolvido em nossa plataforma.”
No entanto, os demandantes argumentam que as atividades da OpenAI prejudicam o valor do jornalismo ao redirecioná-lo para ganhos comerciais. Eles também desafiaram a confiança da OpenAI no uso justo, enfatizando que o seu jornalismo se destina a servir o interesse público e não deve ser explorado para fins lucrativos.
Este caso junta-se a um número crescente de ações judiciais contra a OpenAI e outras empresas de IA sobre o uso de materiais protegidos por direitos autorais para treinamento de modelos. No início deste ano, a OpenAI reconheceu a um comité do Reino Unido que não seria viável treinar os seus actuais sistemas de IA sem incorporar materiais protegidos por direitos de autor.
A empresa também enfrentou escrutínio em busca de erros, incluindo uma recente admissão de que os engenheiros apagaram inadvertidamente evidências críticas relacionadas aos dados de treinamento de IA. O resultado deste caso poderá ter implicações significativas para a lei dos direitos de autor na era da IA, à medida que os tribunais lutam com o equilíbrio entre inovação e direitos de propriedade intelectual.