A IA pode impulsionar a criatividade sem prejudicar os artistas?

Desde o início da ascensão da popularidade da inteligência artificial generativa, uma das aplicações mais divertidas e fáceis de usar tem sido os geradores de mídia a partir de texto. Profissionais de negócios e pessoas comuns podem desfrutar da experiência de criar qualquer coisa que imaginam — desde uma imagem até um vídeo — com um simples comando de texto e um toque de botão.

Fonte: ZDNet

No entanto, por trás do que pode parecer uma experiência inofensiva, existem muitas implicações para os artistas.

Fonte: ZDNet

O Problema

Fonte: ZDNet

Muitos dos geradores de mídia com IA mais populares no mercado, incluindo o que deu início à tendência de geradores de texto para imagem, como o DALL-E 2 da OpenAI, treinaram seus modelos coletando dados de toda a internet — incluindo todas as obras originais de artistas — sem pedir permissão explícita.

Fonte: ZDNet

As implicações disso são significativas: os artistas veem suas obras, que incluem fotografias, pinturas, poemas, arte, livros e músicas, sendo facilmente replicadas sem sua autorização. Com esse treinamento, eles perdem o controle sobre a reprodução de seu trabalho, a propriedade de seu estilo criativo e a receita adicional que as empresas de IA geram ao reproduzir suas ideias.

Fonte: ZDNet

Consequentemente, a relação entre as empresas de IA, esses modelos de IA e os artistas tem sido extrativa — despojando os artistas de suas obras e utilizando-as para seu próprio lucro. Muitos têm se manifestado sobre essa questão, exigindo que os artistas sejam considerados na construção desses modelos e recompensados de forma justa por suas obras.

Fonte: ZDNet

Ed Newton-Rex, um compositor, fundou a Fairly Trained em 2024, uma ONG que certifica empresas de IA generativa por suas práticas de dados de treinamento, após trabalhar na área de música com IA desde 2010. Ele deixou seu último cargo na Stability AI, onde liderou a equipe que desenvolveu o Stable Audio, devido à posição da empresa em relação ao treinamento com a arte de pessoas sem licenciamento de artistas.

Fonte: ZDNet

Em uma conversa no South by Southwest (SXSW), Newton-Rex iluminou a questão maior do copyright, destacando que usar o trabalho de artistas sem sua permissão não é apenas injusto, mas também adiciona ainda mais competição a um mercado já saturado — aproveitando as próprias ideias do artista.

Fonte: ZDNet

“Na IA generativa, você tem empresas com bilhões e bilhões de dólares, frequentemente contra a vontade dos criadores, usando-os para criar concorrentes hiper escaláveis para esses criativos”, afirmou Newton-Rex.

Fonte: ZDNet

Nos Estados Unidos, as empresas de IA podem legalmente treinar seus modelos de IA em materiais com direitos autorais por meio do conceito de Uso Justo, que estipula que você não está violando a lei de direitos autorais se estiver usando uma obra existente para informar a criação de algo novo.

Fonte: ZDNet

Portanto, com os criadores não tendo leis existentes explicitamente ao seu lado, há uma maneira de que tanto criadores quanto sistemas de IA possam coexistir em um acordo mutuamente benéfico? A resposta curta é sim, mas a solução pode estar na concessão de licenças.

Fonte: ZDNet

Passos que as empresas podem tomar

Fonte: ZDNet

Os geradores de mídia a partir de texto com IA oferecem benefícios claros de acessibilidade, permitindo que qualquer pessoa crie independentemente de habilidades ou recursos. Idealmente, no entanto, eles deveriam apoiar os criadores e enriquecer o ecossistema — e não substituí-lo. O primeiro passo em direção a esse objetivo é simples, segundo Newton-Rex.

Fonte: ZDNet

“Primeiro, você não pode roubar coisas”, disse Newton-Rex.

Fonte: ZDNet

Algumas empresas já começaram a adotar essa abordagem. Por exemplo, em 2023, a Getty Images lançou o Generative AI by Getty Images, que foi treinado apenas com a robusta biblioteca de imagens da Getty e proporciona receita contínua para aqueles cujos trabalhos foram utilizados no treinamento.

Fonte: ZDNet

A Adobe seguiu uma abordagem semelhante com seu modelo gerador Firefly, que é também comercialmente mais seguro. Para treinar seu modelo, a Adobe utilizou apenas imagens do Adobe Stock, conteúdo licenciado de forma aberta e conteúdo de domínio público. Além disso, ela compensa os criadores cujas obras foram usadas no conjunto de treinamento.

Fonte: ZDNet

No entanto, mais empresas não adotam essa abordagem devido aos desafios inerentes — incluindo o acesso e a criação de um conjunto de dados limpo, o que pode ser custoso e demorado. Isso é especialmente prejudicial para empresas de IA que correm para lançar o próximo modelo e competir melhor na corrida da IA.

Fonte: ZDNet

“Isso pode atrasar você, mas eu acho que, claramente, você acaba no mesmo lugar, e você faz isso sem quebrar a lei e sem colocar toda a indústria criativa e o mundo dos criativos contra você, o que eu acho que é outro grande erro das empresas de IA”, disse Newton-Rex.

Fonte: ZDNet

Outro fator digno de consideração é a necessidade de uma reflexão sobre o uso desses modelos. Como a criação de conteúdo se tornou mais fácil do que nunca, pode ser tentador inundar plataformas de mídia com conteúdo gerado por IA, como música, imagens e vídeos. No final das contas, Newton-Rex constatou que isso poderia levar à diluição do interesse em receitas e royalties que as pessoas estão recebendo por seu trabalho.

Fonte: ZDNet

Referência: Artigo Original

Fonte: ZDNet

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima
Tutorial Elevenlabs