A IA pode impulsionar a criatividade sem prejudicar os artistas?

Desde o início da ascensão da popularidade da inteligência artificial generativa, uma das aplicações mais divertidas e fáceis de usar tem sido os geradores de mídia a partir de texto. Profissionais de negócios e pessoas comuns podem desfrutar da experiência de criar qualquer coisa que imaginam — desde uma imagem até um vídeo — com um simples comando de texto e um toque de botão.

No entanto, por trás do que pode parecer uma experiência inofensiva, existem muitas implicações para os artistas.

O Problema

Muitos dos geradores de mídia com IA mais populares no mercado, incluindo o que deu início à tendência de geradores de texto para imagem, como o DALL-E 2 da OpenAI, treinaram seus modelos coletando dados de toda a internet — incluindo todas as obras originais de artistas — sem pedir permissão explícita.

As implicações disso são significativas: os artistas veem suas obras, que incluem fotografias, pinturas, poemas, arte, livros e músicas, sendo facilmente replicadas sem sua autorização. Com esse treinamento, eles perdem o controle sobre a reprodução de seu trabalho, a propriedade de seu estilo criativo e a receita adicional que as empresas de IA geram ao reproduzir suas ideias.

Consequentemente, a relação entre as empresas de IA, esses modelos de IA e os artistas tem sido extrativa — despojando os artistas de suas obras e utilizando-as para seu próprio lucro. Muitos têm se manifestado sobre essa questão, exigindo que os artistas sejam considerados na construção desses modelos e recompensados de forma justa por suas obras.

Ed Newton-Rex, um compositor, fundou a Fairly Trained em 2024, uma ONG que certifica empresas de IA generativa por suas práticas de dados de treinamento, após trabalhar na área de música com IA desde 2010. Ele deixou seu último cargo na Stability AI, onde liderou a equipe que desenvolveu o Stable Audio, devido à posição da empresa em relação ao treinamento com a arte de pessoas sem licenciamento de artistas.

Em uma conversa no South by Southwest (SXSW), Newton-Rex iluminou a questão maior do copyright, destacando que usar o trabalho de artistas sem sua permissão não é apenas injusto, mas também adiciona ainda mais competição a um mercado já saturado — aproveitando as próprias ideias do artista.

“Na IA generativa, você tem empresas com bilhões e bilhões de dólares, frequentemente contra a vontade dos criadores, usando-os para criar concorrentes hiper escaláveis para esses criativos”, afirmou Newton-Rex.

Nos Estados Unidos, as empresas de IA podem legalmente treinar seus modelos de IA em materiais com direitos autorais por meio do conceito de Uso Justo, que estipula que você não está violando a lei de direitos autorais se estiver usando uma obra existente para informar a criação de algo novo.

Portanto, com os criadores não tendo leis existentes explicitamente ao seu lado, há uma maneira de que tanto criadores quanto sistemas de IA possam coexistir em um acordo mutuamente benéfico? A resposta curta é sim, mas a solução pode estar na concessão de licenças.

Passos que as empresas podem tomar

Os geradores de mídia a partir de texto com IA oferecem benefícios claros de acessibilidade, permitindo que qualquer pessoa crie independentemente de habilidades ou recursos. Idealmente, no entanto, eles deveriam apoiar os criadores e enriquecer o ecossistema — e não substituí-lo. O primeiro passo em direção a esse objetivo é simples, segundo Newton-Rex.

“Primeiro, você não pode roubar coisas”, disse Newton-Rex.

Algumas empresas já começaram a adotar essa abordagem. Por exemplo, em 2023, a Getty Images lançou o Generative AI by Getty Images, que foi treinado apenas com a robusta biblioteca de imagens da Getty e proporciona receita contínua para aqueles cujos trabalhos foram utilizados no treinamento.

A Adobe seguiu uma abordagem semelhante com seu modelo gerador Firefly, que é também comercialmente mais seguro. Para treinar seu modelo, a Adobe utilizou apenas imagens do Adobe Stock, conteúdo licenciado de forma aberta e conteúdo de domínio público. Além disso, ela compensa os criadores cujas obras foram usadas no conjunto de treinamento.

No entanto, mais empresas não adotam essa abordagem devido aos desafios inerentes — incluindo o acesso e a criação de um conjunto de dados limpo, o que pode ser custoso e demorado. Isso é especialmente prejudicial para empresas de IA que correm para lançar o próximo modelo e competir melhor na corrida da IA.

“Isso pode atrasar você, mas eu acho que, claramente, você acaba no mesmo lugar, e você faz isso sem quebrar a lei e sem colocar toda a indústria criativa e o mundo dos criativos contra você, o que eu acho que é outro grande erro das empresas de IA”, disse Newton-Rex.

Outro fator digno de consideração é a necessidade de uma reflexão sobre o uso desses modelos. Como a criação de conteúdo se tornou mais fácil do que nunca, pode ser tentador inundar plataformas de mídia com conteúdo gerado por IA, como música, imagens e vídeos. No final das contas, Newton-Rex constatou que isso poderia levar à diluição do interesse em receitas e royalties que as pessoas estão recebendo por seu trabalho.

Referência: Artigo Original

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima