fbpx
HomeArtigosInteligência ArtificialOs Direitos Autorais sob o Domínio da Inteligência Artificial

Os Direitos Autorais sob o Domínio da Inteligência Artificial

A Inteligência Artificial (IA) generativa deixou de ser promessa de laboratório para tornar-se protagonista de mercado — e, com ela, irrompem dilemas que o ecossistema editorial não pode ignorar. Este artigo, dividido em Parte 1 e Parte 2, foi concebido precisamente para ajudar autores, editoras e demais agentes culturais a navegar por esse novo território em que algoritmos alimentam-se de obras humanas e devolvem conteúdos que disputam nossa atenção (e nossa receita).

Na Parte 1 — IA Generativa e Direitos Autorais: O Debate em Contexto, revisito os fundamentos do direito autoral e situo o leitor no cenário global: da declaração do G20 que clama por “pagamento adequado” aos criadores até as primeiras iniciativas legislativas que exigem transparência sobre os datasets usados para treinar modelos de IA. O objetivo é fornecer uma lente histórica e jurídica que revele por que a discussão atual não é mera querela técnica, mas uma questão de sustentabilidade cultural.

A Parte 2 — O Relatório Reglab sob Análise Crítica mergulha no estudo que, amparado em entrevistas somente com especialistas na parte tecnológica, conclui pela “inviabilidade” de remunerar autores na era da IA. Confronto essa leitura tecnocrática com argumentos do próprio setor editorial, mostro lacunas metodológicas e apontamos caminhos — rastreabilidade de dados, transparência ativa e licenciamento coletivo — que tornam a proteção autoral não apenas possível, mas estratégica para um mercado criativo vibrante.

Neste artigo, portanto, proponho soluções e convida o leitor a assumir o protagonismo na construção de uma regulação equilibrada, onde inovação tecnológica e valorização do criador caminhem lado a lado. Ao avançar pelas próximas páginas, você encontrará tanto alertas quanto ferramentas práticas para transformar a IA de ameaça difusa em aliada concreta. Afinal, se as máquinas aprendem com as nossas histórias, é justo que nós — contadores dessas histórias — continuemos no centro da narrativa.


A Crise dos Direitos Autorais sob o Domínio da Inteligência Artificial
Parte 1 | O Contexto dos Direitos Autorais e Inteligência Artificial no Setor Editorial e Livreiro

Parte 1 | O Contexto dos Direitos Autorais e Inteligência Artificial no Setor Editorial e Livreiro

Nos últimos meses, criadores literários, editores e especialistas de vários países intensificaram o debate sobre a aplicação do direito autoral às obras usadas no treinamento de IA generativa. Em nível internacional, declarações de líderes do G20 e o recém-aprovado AI Act da União Europeia refletem a preocupação de garantir transparência e remuneração aos autores cujas obras alimentam os modelos de IA. A declaração do G20 Cultural de 2024 enfatizou a importância de “pagamento adequado” aos titulares de direitos autorais cujas obras são usadas em sistemas de IA.

Em consonância, associações de editoras internacionais uniram-se em outubro de 2024 para condenar o “roubo de autoria criativa” por parte de empresas de tecnologia: mais de 10 mil criadores (autores, músicos, atores etc.) aderiram a um manifesto afirmando que os modelos de IA só existem graças a obras humanas copiadas “sem o menor respeito à lei”.

No campo jurídico internacional, iniciativas avançam: nos EUA, projetos de lei federais e estaduais (como na Califórnia) buscam obrigar as empresas de IA a divulgarem as obras usadas em treinamento; em contraponto, o U.S. Copyright Office prepara estudos sobre o tema. No Reino Unido, em 2023 ampliou-se a exceção de mineração de texto (TDM) para usos comerciais, embora o governo tenha abandonado propostas de código de conduta sobre IA e copyright. Organizações como a WIPO reafirmam que, segundo a convenção internacional, autor só pode ser pessoa física, de modo que obras criadas exclusivamente por IA ficariam em domínio público, reforçando a tese de que cabe aos legisladores criar novas regras específicas.

Na prática, grupos de imprensa globais já acionam a Justiça contra gigantes de IA: o New York Times, por exemplo, moveu processo contra OpenAI/Microsoft alegando que “milhões de seus artigos protegidos” foram usados para treinar o ChatGPT e agora concorrem com o próprio jornal. Em nota pública, um movimento Artists Against Copyright Infringement resumiu a reclamação de criadores: as empresas de IA devem seguir três regras básicas dos direitos autorais – “não roube; se o conteúdo não é seu, peça permissão; e se você precisa desse dado, pague por ele”.

Debates e Legislação aqui no Brasil

No Brasil, a discussão ganhou fôlego principalmente em 2024 com a tramitação do PL 2.338/2023 (Marco Legal da IA) no Senado, cuja redação aprovada em dezembro de 2024 incluiu um extenso capítulo sobre direitos autorais. Esse substitutivo, fruto de intenso debate, traz pontos-chave: exige que desenvolvedores de IA divulguem quais obras protegidas foram usadas na formação dos sistemas; cria um órgão regulador e plataforma experimental para negociação de licenças; e garante aos autores o direito de proibir o uso de suas obras ou receber remuneração quando usadas em IA comerciais. O texto dessa PL prevê que usos automatizados de obras (mineração de textos) em pesquisa, jornalismo, educação e cultura poderão ser feitos sem licença, mas dentro de limites estritos (não reproduzir a obra original, uso mínimo necessário e sem prejuízo econômico injustificado aos autores). Qualquer outro uso de obras protegidas em sistemas de IA comerciais daria direito a pagamento ao autor.

Essas regras foram contestadas por entidades do setor editorial. Desde 2023, a ABDR (Associação Brasileira de Direitos Reprográficos) e sindicatos de editores têm alertado que o projeto abre exceções muito amplas, em possível descumprimento da Convenção de Berna (3 requisitos das exceções). O advogado Dalton Morato (ABDR) qualificou o artigo 42 do PL como ‘“perigoso”, acusando-o de privilegiar setores de pesquisa e comunicação em prejuízo dos criadores. Em carta conjunta, editores criticaram que a exceção proposta “não se restringe a casos especiais” e permitiria uso generalizado e em larga escala de textos protegidos para treinamento de IA. Especialistas apontam que o Brasil tem tendência regulatória rigorosa, reservando aos autores o poder de opt-out (recusar usos de suas obras) e a exigência de licenciamento – medidas vistas na proposta aprovada.

Paralelamente, uma comissão técnica consultou programadores e engenheiros (RegLab) e concluiu que o modelo de remuneração previsto no PL é tecnicamente inviável. Os especialistas explicam que modelos de aprendizado de máquina “não armazenam” cada obra como referência, mas aprendem padrões estatísticos, tornando “praticamente impossível” medir o peso de cada obra no produto final.

Pedro Ramos (RegLab) compara o texto gerado pela IA a um “mosaico de milhares de peças” cuja relevância não pode ser determinada unicamente. Sem métricas precisas, diz ele, “quem paga e quanto vira arbitrário”. O estudo adverte ainda que restrições drásticas podem encarecer o desenvolvimento de IA e favorecer os grandes players, deslocando laboratórios para outros países. Esses achados foram divulgados em maio/2025, quando o PL começava a tramitar na Câmara, sinalizando pontos críticos a ser revistos pelos legisladores.

Posições de Entidades Institucionais

Entidades representativas do livro e do autor têm se manifestado em peso. Em artigo publicado na CBL em abril de 2024, os presidentes do SNEL e da Abrelivros reforçam que “a cópia de obras autorais para treinar IA implica direitos exclusivos dos autores que não podem ser ignorados”, defendendo que as empresas licenciadoras devem pagar pelo uso das obras. O texto lembra que editoras brasileiras, junto à International Publishers Association, pediram que o quadro jurídico vigente seja respeitado: as big techs “faturam bilhões” ao usar o trabalho alheio sem licença. O presidente do SNEL, Dante Cid, explicou na ocasião que em contrato editorial não há espaço para reconhecer IA como criadora, pois “direito autoral é necessariamente de uma pessoa”.

Em 2024, a SNEL divulgou notas comemorando a aprovação no Senado de dispositivos que protegiam explicitamente direitos autorais na lei de IA. Seu site destacou também que o texto mantido pelo Senado consagrava o direito dos autores de decidir sobre o uso de sua obra, garantindo remuneração quando cedida a sistemas comerciais.

O presidente da OAB-IP (Sydney Sanches) elogiou o texto como “pioneiro” ao preservar direitos autorais com transparência e remuneração justas. Do lado das editoras científicas e acadêmicas, o IBDAutoral lançou em 2024 um extenso estudo mapeando o debate jurídico: destaca-se ali o reforço de temas como “mineração de textos e dados (TDM), transparência na cadeia de criação de IA e mecanismos de exclusão (opt-out)” como pontos-chave já amplamente discutidos.

No âmbito internacional de entidades oficiais, o Ministério da Cultura do Brasil em dezembro/2024 publicou nota afirmando que a falta de regulação leva empresas de IA a violar massivamente direitos autorais – estima “cinco violações da lei” para cada obra usada. O MinC ressaltou que países como EUA, União Europeia, Japão e outros estão adotando normas para reforçar a remuneração de criadores, conforme consensos em fóruns como o G20. A nota oficial conclui que investir em diálogo e legislação sobre IA é urgente para preservar indústrias culturais que representam cerca de 3% do PIB brasileiro.

A WIPO e outras agências internacionais têm cooperado em discussões globais sobre IA e propriedade intelectual, reiterando que o direito autoral tradicional requer autoria humana, o que fundamenta a tese de que obras “puras” de IA não têm autoria protegida e devem ser reguladas de modo especial.

Manifestações de Autores e Especialistas

Além dos posicionamentos institucionais, inúmeros criadores brasileiros expressaram-se publicamente sobre o tema. Durante audiências e coletivas no Senado, artistas como Marisa Monte, Marina Sena, Roberto Frejat, Paula Fernandes e outros lembraram que a tecnologia de IA pode ser benéfica, mas deve ser compensatória: “IA veio para trazer progresso, mas quem lucra bilhões com ela deve compensar pelos nossos dados e pela mineração de nossas obras” – disse Marina Sena após a votação. O senador Humberto Costa (PT) resumiu o argumento de muitos autores: “em qualquer atividade econômica existe um insumo fundamental, e quem coordena essa atividade tem de pagar por ele. No caso da IA, o principal insumo é a criatividade”. Em palestras e artigos, advogados especializados em direito digital têm apoiado essa visão, apontando que a Lei de Direitos Autorais (Lei 9.610/98) exige autoria humana e que o PL de IA precisa avançar nas garantias de licenciamento e remuneração aos autores.

No exterior, a mobilização tem sido igualmente intensa. Autoridades literárias como a Authors Guild (maior entidade de escritores dos EUA) seguem litigando e propondo leis. Em 2023 os associados da Guild começaram ações coletivas contra OpenAI/Microsoft, alegando uso ilegal de livros para treinar o ChatGPT. A entidade também lidera iniciativas legislativas: apoiou o Generative AI Copyright Disclosure Act (lei de transparência de uso de obras) e celebrou medidas estrangeiras, como a votação no Reino Unido que protegeu obras contra raspagem indevida por IA. Posições de especialistas jurídicos internacionais convergem em dois pontos polêmicos:

1) autoria humana vs. IA – por ora, não há consenso para atribuir copyright direto à IA, implicando que ou o usuário humano instrutor ou a empresa desenvolvedora deveriam ser considerados criadores;

2) fair use e treinamento de IA – enquanto empresas de tecnologia alegam usos transformativos, juristas lembram que treinar um modelo para reproduzir estilo ou conteúdo de obras protegidas pode não se enquadrar no fair use tradicional.

Controvérsias e Desafios Jurídicos

O principal ponto de controvérsia é como equilibrar estímulo à inovação tecnológica com a proteção aos criadores.

Medida técnica | como demonstrado pelo estudo do Reglab, rastrear a origem e a “quantidade de uso” de cada obra em modelos de larga escala é hoje impossível. Isso levanta dúvidas sobre a viabilidade prática de cobrar royalties específicos.

Princípio do Direito Autoral | entidades brasileiras argumentam que não basta declará-lo; é preciso garantir, via lei, que os autores tenham voz ativa na negociação (direito de veto ou opt-out) e remuneração proporcional.

Aspectos contratuais | advogados apontam que, sem regulamentação clara, editores e escritores correm risco de ter seus direitos subutilizados; portanto, códigos de conduta ou práticas recomendadas estão em discussão

Setores de tecnologia e alguns acadêmicos, por outro lado, alertam para possíveis impactos negativos de restrições severas (p. ex., em pesquisa médica ou jornalística), sugerindo limites e exceções calibradas – um debate internacional ainda aberto.

Em síntese, o Brasil caminha para adotar uma regulamentação de IA considerada estrita pelos criadores (inspirada na fé nos direitos humanos e autorais), enquanto analistas técnicos pedem revisões pragmáticas. Há pontos de consenso emergente: deve haver transparência nos conteúdos usados pelas IAs; não é razoável que empresas usem livremente obras protegidas sem consentimento; e soluções como licenças coletivas, acordos setoriais ou plataformas de remuneração (previstas no projeto brasileiro) podem ser caminhos promissores.

Boas Práticas em Debate

Em nível global e local, sugerem-se algumas boas práticas em discussão: incluir cláusulas contratuais nos acordos editoriais (especialmente com inteligência artificial e direitos de imagem), tornar possíveis licenças pré-aprovadas para treinamentos científicos, e adotar transparência ativa (como o disclosure act apoiado pela Authors Guild) para que autores saibam quando suas obras estão sendo usadas.

O CBL e o SNEL têm recomendado às editoras que monitorem tecnologias de IA, orientem autores sobre possíveis cláusulas nos contratos e participem de fóruns legislativos. No exterior, práticas de referência incluem a negociação coletiva de direitos de uso de conteúdo (como propõe o PL brasileiro via gestoras coletivas) e o desenvolvimento de marketplaces de licenciamento para IA.

O debate sobre direitos autorais e IA generativa em livros e conteúdo editorial está em rápida evolução. No Brasil, a proposta de lei em tramitação consagrou princípios avançados (transparência, opt-out, remuneração), embora ainda não finalizada na Câmara. A expectativa da indústria editorial e jurídica é que o texto final incorpore proteção efetiva aos autores, alinhando-se a tendências internacionais.

A mobilização conjunta de autores e editoras (tanto nacional quanto globalmente) sinaliza que o futuro regulatório deverá privilegiar um modelo colaborativo: IA se desenvolve, mas respeitando os direitos morais e patrimoniais dos criadores. Dessa forma, busca-se um equilíbrio entre inovação tecnológica e valorização do criador humano, elemento essencial para a sustentabilidade cultural e econômica do setor editorial.


Remuneração por Direitos Autorais em IA: Limites e Desafios de Implementação
Remuneração por Direitos Autorais em IA: Limites e Desafios de Implementação

Parte 2 | Se Aprofundando em Inteligência Artificial Generativa e Direitos Autorais

A rápida ascensão da inteligência artificial generativa – sistemas capazes de produzir textos, imagens e outras obras a partir de padrões aprendidos em um vasto conjunto de obras existentes – trouxe um novo desafio ao mundo dos direitos autorais. Por um lado, as criações humanas alimentam esses modelos de IA; por outro, as leis de direitos autorais garantem aos criadores o controle sobre o uso de suas obras e o direito à recompensa por utilizações de seu conteúdo.

Surge, então, a questão: se um modelo de IA utiliza milhares de livros, artigos ou obras de arte para aprender, os autores dessas obras deveriam ser remunerados por essa utilização? Trata-se de uma questão inédita que vem mobilizando governos, setor cultural e indústria de tecnologia no mundo todo.

No cenário internacional, multiplicam-se iniciativas para conciliar inovação em IA com a proteção aos criadores. Esse contexto reflete uma preocupação clara: como assegurar remuneração justa aos autores na era da IA, sem sufocar a inovação? Esse debate polarizou setores – criadores e entidades culturais celebraram a iniciativa de proteger direitos autorais na era digital, enquanto empresas de tecnologia e alguns especialistas alertaram para possíveis impactos negativos de regras muito rígidas.

Foi nesse cenário que um estudo aprofundado do centro de pesquisa Reglab buscou esclarecer os limites e desafios de implementação de um modelo de remuneração por direitos autorais em IA.

O Relatório do Reglab e suas Principais Conclusões

Diante da possibilidade de se exigir pagamentos aos autores pelas obras usadas no treinamento de IA, o Reglab conduziu uma pesquisa qualitativa para avaliar a viabilidade técnica desse modelo. O estudo – intitulado “Remuneração por Direitos Autorais em IA: Limites e Desafios de Implementação” – entrevistou especialistas em inteligência artificial generativa (cientistas da computação, engenheiros de software, pesquisadores em aprendizado de máquina e acadêmicos) para entender como ocorre o uso de conteúdo protegido no treinamento de modelos de IA e quais seriam os obstáculos para remunerar os autores por esse uso. As principais conclusões do relatório podem ser resumidas da seguinte forma:

  • Rastrear vs. medir o uso das obras | Tecnicamente, é possível identificar quais dados e obras alimentaram o treinamento de um modelo de IA, isto é, rastrear a origem dos conteúdos utilizados. No entanto, não existe solução escalável e confiável para medir a contribuição específica de cada obra individual dentro de um modelo de larga escala. Em outras palavras, embora se saiba que obras de determinados autores foram usadas, determinar o peso exato ou influência de cada obra no resultado final é “praticamente impossível” com a tecnologia atual. Modelos de aprendizado de máquina não armazenam trechos de obras de forma isolada e consultável; eles “quebram” os dados de treinamento em padrões estatísticos vetoriais, misturando milhares de peças de conteúdo. O resultado final gerado pela IA se assemelha a um “mosaico formado por milhares de peças”, nas palavras do diretor do Reglab, Pedro Henrique Ramos, e “dizer qual peça foi mais relevante é praticamente impossível”.
  • Implicações na remuneração baseada em uso | Como o direito autoral tradicionalmente remunera os criadores na medida do uso de suas obras (execução, reprodução, venda etc.), a incapacidade de medir o uso individual na IA torna inviável aplicar a lógica convencional de royalties. O estudo aponta que, sem métricas precisas de utilização, definir quem deve pagar e quanto a cada autor torna-se arbitrário e sem fundamento técnico. Essa limitação tecnológica não é uma mera escolha de mercado ou falta de tentativa – é vista como uma restrição estrutural dos modelos de IA atuais. Em suma, o modelo de remuneração previsto no projeto de lei seria tecnicamente inviável diante do estado da arte da IA.
  • Riscos de distorções e desigualdades | O relatório também levanta preocupações sobre efeitos colaterais indesejados caso se imponha um regime de licenciamento oneroso sem capacidade de medir o uso. Por exemplo, acordos de licenciamento sem base em dados objetivos podem acabar beneficiando desproporcionalmente os grandes detentores de direitos – aqueles com mais recursos jurídicos para negociar pacotes em massa – em detrimento de criadores independentes, que teriam dificuldade de comprovar e barganhar o uso de suas obras. Isso poderia marginalizar vozes menores e reduzir a diversidade criativa, aponta o estudo, criando distorções de mercado.
  • Impactos na inovação e no mercado de IA | Outra conclusão central foi que restrições severas ao uso de obras em IA podem repercutir negativamente no desenvolvimento tecnológico. Os especialistas ouvidos alertam que limitar drasticamente os dados disponíveis para treinar IA pode degradar a qualidade dos modelos gerados (modelos com menos dados seriam menos precisos e menos capazes de generalizar). Além disso, os custos de desenvolvimento de IA aumentariam significativamente se cada obra tivesse que ser negociada individualmente, o que poderia inviabilizar startups e novos entrantes e favorecer apenas as grandes empresas com acervos próprios ou recursos para pagar por licenças. O estudo até mesmo prevê uma possível “fuga de centros de IA” do Brasil: se a legislação criar muita insegurança jurídica ou obrigações difíceis de implementar, empresas poderiam optar por treinar modelos em outros países, enfraquecendo o ecossistema nacional e tornando a regulação local pouco efetiva. Em termos de competitividade global, isso seria um tiro no pé.

Em resumo, o diagnóstico do Reglab foi cauteloso e preocupante para o modelo de remuneração proposto. O estudo afirmou que não há como quantificar de forma justa a participação de cada autor nos resultados de uma IA, tornando inviável simplesmente “dividir o bolo” com base no uso. Sem métricas claras, qualquer distribuição de valores seria contestável. Assim, recomenda-se buscar opções alternativas e viáveis para assegurar os direitos autorais, evitando ao mesmo tempo travar o progresso tecnológico. O próprio Pedro H. Ramos ressalvou que o estudo não entrou no mérito de se os artistas devem ou não ser remunerados, mas sim em como encontrar uma solução factível.

Entre as possibilidades mencionadas, ele citou modelos internacionais: no Japão, não há remuneração por uso de dados em IA, apenas se proíbe plágio, enquanto na União Europeia permite-se ao autor vetar o uso de sua obra (opt-out), obrigando negociação caso a empresa queira usá-la. Ou seja, outras jurisdições optaram por aliviar exigências de pagamento direto, priorizando ou a liberdade de uso de dados (Japão) ou o consentimento do autor (UE). O estudo do Reglab parece sugerir que o Brasil avalie caminhos semelhantes, sob pena de adotar uma regra teórica que, na prática, não se sustenta e pode gerar efeitos indesejados.

Visão Crítica: Limitações da Abordagem Tecnocrática do Reglab

Embora traga contribuições importantes, a abordagem do Reglab recebeu críticas por ser excessivamente tecnocrática e parcial do ponto de vista do setor cultural. Em minha visão, realmente o estudo foca nos obstáculos técnicos e nas consequências econômicas, mas evita encarar a questão central de fundo: a justiça de remunerar (ou não) os criadores pelo uso de suas obras. Essa perspectiva limitada merece um contraponto crítico:

Primeiramente, o escopo da pesquisa do Reglab excluiu as vozes dos próprios titulares de direitos e especialistas jurídicos em cultura. Os entrevistados foram quase exclusivamente profissionais de STEM – engenheiros, cientistas de dados, professores de computação – ou seja, gente ligada ao desenvolvimento de IA e não à criação de conteúdo ou à gestão de direitos autorais. Creio que somente isso já confere ao relatório um viés intrínseco: as preocupações refletidas ali são principalmente as do campo tecnológico, que naturalmente prioriza a eficiência, a inovação e a minimização de custos e barreiras regulatórias.

Questões como o incentivo à criação, a dignidade do autor e a preservação da cultura acabaram ficando em segundo plano nessa análise. O próprio diretor do Reglab admitiu que o estudo “não discute, no mérito, se artistas devem ou não ser remunerados” – ou seja, evitou deliberadamente julgar o valor desse direito – limitando-se a analisar dificuldades operacionais e sugerir uma alternativa “viável” para as empresas de IA. Essa neutralidade aparente na verdade restringe o debate: parte-se do pressuposto de que, se é muito difícil pagar de forma proporcional, talvez seja melhor não pagar nada (como no modelo japonês) ou deixar aos autores apenas o poder de veto (modelo europeu). Sob a ótica dos criadores, isso soa como uma solução conveniente para a indústria de tecnologia, mas insatisfatória para a cultura.

Classificar o modelo de remuneração como “inviável” me soa prematuro e exagerado quando visto de um prisma crítico. De fato, há desafios técnicos reais, porém o próprio relatório reconhece que é possível rastrear quais obras alimentam os sistemas – o que já abre caminhos para compensação, ainda que indireta. A ênfase na falta de métricas exatas ignora que outros setores superaram problemas semelhantes com soluções criativas de política e mercado.

Por exemplo, no campo musical, durante décadas remunerou-se compositores e artistas por execuções em rádio e eventos sem medir cada reprodução individual, recorrendo a amostragem estatística e gestão coletiva via entidades como o ECAD. Ninguém deixaria de pagar direitos musicais apenas porque não se pode contar quantas vezes exata cada canção tocou em cada bar ou festa; cria-se um sistema de estimativas e distribuições proporcionais. Por que com a IA seria diferente? Se o obstáculo é não saber o peso de cada obra no modelo, pode-se pensar em métodos de repartição por outros critérios (quantidade de obras de cada autor utilizadas no dataset, importância da obra medida por frequência de aparecimento, etc.) ou taxas globais cobradas das empresas e depois distribuídas coletivamente.

O relatório do Reglab praticamente não explora essas e outras saídas tão tecnicamente viáveis quanto treinar um modelo para piratear livros, mantendo uma visão rígida de que sem rastreamento milimétrico não há saída justa – visão esta que pende para o interesse tecnológico (facilitar a vida das empresas) em detrimento do interesse cultural (garantir alguma remuneração aos criadores). Considero essa postura parcial, uma vez que toma a limitação tecnológica atual quase como sentença definitiva, em vez de estimular soluções técnicas ou jurídicas para contorná-la.

Do ponto de vista dos autores e do mercado editorial, há um princípio inegociável: “a cópia de obras autorais para treinar IA implica direitos exclusivos dos autores que não podem ser ignorados”. Em outras palavras, independentemente da dificuldade, existe um direito de base que precisa ser respeitado.

Lideranças do livro no Brasil, como os presidentes do SNEL e da Abrelivros, têm reforçado que as empresas que lucram com IA devem pagar pelo uso das obras alheias, sob pena de violarem os fundamentos do direito autoral. Ignorar esse princípio em nome da “viabilidade técnica” é visto como uma abordagem tecnocrática e reducionista, que submete valores jurídicos e culturais aos limites da engenharia do momento.

É importante lembrar que a tecnologia evolui: o que hoje é inviável, amanhã pode ser factível. Se aceitarmos não remunerar autores porque “hoje não dá para medir”, qual será o incentivo para desenvolver IA’s mais transparentes e rastreáveis no futuro? Vários especialistas argumentam que a dificuldade técnica não deve servir de desculpa para não proteger os criadores, mas sim como motivação para inovar também na área de governança e traçabilidade de dados.

Observo, assim, um desequilíbrio na consideração dos riscos. O estudo do Reglab destacou muito os potenciais impactos negativos de uma regulação protetiva (fuga de investimentos, encarecimento da IA, perda de competitividade), mas ponderou pouco sobre os riscos de não remunerar os autores. E esses riscos são reais: desvalorização do trabalho criativo, menos incentivo para escritores, artistas e jornalistas produzirem conteúdo (que ironicamente alimenta a própria IA), concentração de renda apenas nas big techs que apropriariam valor de obras sem retorno aos criadores, e um desequilíbrio na balança autoral que a longo prazo empobrece a cultura. Afinal, se os criadores deixam de ter meios de sustento, a produção cultural independente definha – o que pode levar a um monopólio de informações e estilos gerados apenas pela máquina, sem diversidade humana.

A visão do Reglab, embora embasada tecnicamente, carece de uma sensibilidade jurídica e cultural. Ela deve ser complementada por outras perspectivas para que a discussão não fique maniqueísta (IA vs. autores), mas caminhe para soluções de ganha-ganha. Nas palavras de artistas brasileiros que participaram do debate legislativo, “a tecnologia de IA pode ser benéfica, mas deve ser compensatória: ‘IA veio para trazer progresso, mas quem lucra bilhões com ela deve compensar pelos nossos dados e pela mineração de nossas obras’”. Ou seja, é possível abraçar a inovação, desde que acompanhada de contrapartidas justas aos criadores humanos.

Rastreabilidade, Transparência e Licenciamento Coletivo: Alternativas Viáveis

Se o relatório do Reglab expõe limites técnicos, por outro lado há caminhos concretos para implementar a proteção autoral na IA de forma viável. Vários mecanismos de rastreabilidade e modelos de remuneração podem ser adotados para contornar (ao menos parcialmente) os desafios apontados, criando um sistema mais transparente e equilibrado. Destacam-se três pilares: rastreabilidade dos dados, transparência das operações e negociação coletiva de direitos.

Rastreabilidade dos dados utilizados | Ainda que medir a contribuição de cada obra seja complexo, identificar quais obras foram efetivamente usadas no treinamento de um modelo é algo exequível tecnicamente. Isso significa que podemos exigir que os desenvolvedores de IA mantenham registros ou metadados das fontes de seu dataset de treinamento. Já existem abordagens de ciência de dados voltadas para data lineage (linhagem dos dados) e proveniência, que poderiam ser adaptadas para rastrear conteúdos.

No caso de grandes modelos de linguagem ou imagem, os desenvolvedores poderiam, por exemplo, conservar hashes ou referências das obras ingeridas e disponibilizar esse conjunto de referências para auditoria. O próprio projeto de lei brasileiro, sensível a essa necessidade, determinou obrigações de transparência – incluindo a divulgação pública das bases de dados usadas no treinamento.

Essa divulgação obrigatória dos conjuntos de obras é um primeiro passo fundamental: joga luz sobre quem está sendo usado pela IA, permitindo que autores e editoras saibam se seus conteúdos foram incluídos. Com a lista de obras em mãos, é possível ao menos atribuir crédito e enquadrar juridicamente o uso (por exemplo, distinguindo obras licenciadas das não licenciadas, ou aplicando remuneração proporcional à presença da obra no dataset). Em resumo, a rastreabilidade garante accountability – as empresas passam a responder pelo uso identificável de cada obra, em vez de tratar o dataset como uma massa anônima de informação.

Transparência e disclosure obrigatórios | Correlato à rastreabilidade, a transparência ativa é essencial. Não basta que a empresa tenha como rastrear internamente; é preciso tornar essas informações acessíveis a criadores e reguladores. A legislação em debate já prevê essa transparência, exigindo divulgação pública das obras usadas, e em outros países ideias semelhantes ganham força (como citado, nos EUA discute-se obrigar relatórios de treinamento de IA).

Transparência não apenas permite a fiscalização (autores podendo verificar se foram incluídos sem autorização), mas favorece negociações informadas: por exemplo, um autor ao saber que determinado modelo usou seus livros pode buscar diretamente a empresa para negociar um acordo, ou juntar-se a outros autores em situação similar. A transparência tende a inibir abusos – se uma companhia souber que terá de expor tudo o que usou, pensará duas vezes antes de incluir, por exemplo, obras inteiras de autores conhecidos sem licença. Poderá preferir licenciar previamente para evitar repercussão negativa ou litígios. Em suma, a regra do “diga-me com quais obras andas, que direi se deves pagar” cria incentivos à conformidade.

Negociação e licenciamento coletivo | Um dos caminhos mais promissores para tornar viável a remuneração é adotar modelos coletivos de licenciamento, inspirados em práticas já consolidadas em outras áreas. O próprio PL 2.338/23 sinaliza essa direção ao permitir negociação coletiva ou direta com os titulares, levando em conta porte e impacto econômico. Na prática, isso significa que as empresas de IA poderiam fechar acordos abrangentes com associações de autores ou entidades de gestão em vez de precisar tratar com cada autor individualmente. Por exemplo, uma organização representante do setor editorial poderia negociar com uma grande plataforma de IA um licenciamento de um catálogo extenso de obras para treinamento, estabelecendo um valor global pelo uso dessas obras.

Posteriormente, essa remuneração poderia ser distribuída entre os autores de forma proporcional (com critérios definidos em assembleia, podendo considerar número de obras utilizadas, tamanho das obras, etc.). Esse modelo lembra o funcionamento do ECAD na música, onde emissoras de rádio, TVs e plataformas pagam um montante que é distribuído aos artistas com base em amostragens e pesos de execução. No audiovisual também ocorre algo similar – roteiristas e diretores recebem quando suas obras são exibidas, sem precisar negociar cada exibição individualmente.

A gestão coletiva dilui a necessidade de medir uso individual exato, focando em uma remuneração mais macro e estatística, porém justa no agregado. Importante frisar: para o setor editorial, isso não significa abrir mão do controle – pelo contrário, significa unir forças para negociar de igual para igual com as big techs, evitando acordos leoninos. A criação de uma plataforma de licenciamento dedicada, até sugerida como experimental no texto legal, facilitaria esse encontro entre oferta (conteúdos de milhares de autores/editores) e demanda (dados para IA), com transparência nos termos e eventual supervisão de um órgão regulador.

Direito de opt-out e consentimento | Outra alternativa viável é garantir aos criadores o direito de escolher se suas obras podem ou não ser usadas em IA, ao invés de presumir liberação automática. O modelo europeu citado é emblemático: lá, se o autor manifestar que não consente, a empresa de IA tem que negociar individualmente para usar aquela obra. O projeto brasileiro incorporou ideia semelhante, assegurando aos autores o direito de proibir o uso de suas obras ou receber remuneração caso elas sejam utilizadas em IA comerciais.

Do ponto de vista técnico, implementar um opt-out é factível: podem-se usar metadados em arquivos digitais indicando “IA não treinável”, ou bancos de dados onde autores registrem suas obras a serem excluídas, integrados a robôs de coleta (crawlers) das IA. Já há iniciativas setoriais assim – por exemplo, alguns artistas plásticos inserem em sites marcadores para que suas imagens não sejam indexadas em datasets de IA. Fundamental é que esse direito de veto esteja amparado por lei, para que as empresas sejam obrigadas a respeitá-lo. Com opt-out, os autores ganham poder de barganha: podem optar por licenciar mediante pagamento (em vez de simplesmente serem “raspados” sem retorno) ou retirar suas obras de alcance, se julgarem que o uso pela IA traz mais prejuízo que benefício. Esse mecanismo introduz consentimento e negociação caso a caso na equação, o que é um equilíbrio possível – ainda que não resolva a remuneração de quem aceita ser usado, pelo menos protege quem não quer.

Em síntese, rastreamento, transparência e acordos coletivos formam um arsenal de soluções que provam que há, sim, caminhos técnicos e jurídicos para proteger os autores na era da IA. Nenhum desses mecanismos é trivial de implementar, mas tampouco são utópicos: vários já estão previstos na lei em discussão e outros setores culturais já os aplicam com sucesso. Combinados, eles podem mitigar a “impossibilidade” apontada pelo Reglab – talvez não consigamos saber o miligrama exato de contribuição de cada obra em um modelo, mas podemos saber quais autores foram usados e garantir que recebam algo em troca desse uso, de forma proporcional e negociada. Trata-se de mudar a pergunta de “é possível remunerar de forma perfeita?” para “como remunerar de forma razoável e exequível?”. E para esta segunda pergunta, as respostas começam a aparecer.

IA como Aliada na Proteção dos Direitos Autorais

Curiosamente, a mesma tecnologia de IA que gera o problema pode fazer parte da solução. Assim como ferramentas automatizadas revolucionaram a identificação de infrações em outras áreas (basta lembrar do Content ID do YouTube, que usa algoritmos para detectar uso não autorizado de músicas e vídeos), as IAs podem ser desenvolvidas como aliadas na proteção dos direitos autorais no setor editorial. Vejamos algumas possibilidades:

  • Detecção de padrões e traços de obras protegidas | Algoritmos de IA podem analisar saídas de modelos generativos (textos, imagens) e verificar semelhanças marcantes com obras existentes protegidas por direito autoral. Por exemplo, uma IA “fiscal” poderia identificar se um texto gerado está muito próximo do estilo ou trechos de um certo autor, ou se uma imagem segue detalhadamente a arte de um ilustrador específico. Isso ajudaria a apontar casos em que a geração de IA extrapola para um plágio ou derivação indevida, fornecendo evidências objetivas para reclamação de direitos. Grandes modelos de linguagem já conseguem resumir e comparar estilos, logo é plausível usá-los para mapear influências.
  • Watermarking e marcas d’água digitais | Pesquisas em IA já estudam incluir marcas invisíveis em conteúdos gerados para identificar sua origem. Uma extensão dessa ideia seria inserir identificadores que referenciem quais dados de treinamento mais contribuíram para certa saída (ainda um desafio, mas conceptualmente possível). Alternativamente, pode-se marcar os dados de treinamento (as obras originais) com watermarks sutis que a IA acaba absorvendo; depois, ao analisar o conteúdo gerado, detecta-se esses vestígios para saber se determinada obra fez parte do aprendizado. Embora inicial, esse tipo de técnica poderia automatizar a atribuição de crédito a autores cujas obras influenciaram um output de IA.
  • Sistemas de licenciamento automatizado | A IA pode ser usada também para facilitar a vida dos criadores na gestão de seus direitos. Imaginemos plataformas onde um autor registra suas obras e define os termos para uso em IA (por exemplo: “pode usar para treinamento desde que não gere obra derivada comercial” ou “pode usar mediante pagamento de X reais”). Uma IA poderia atuar como um agente automatizado de licenciamento, lendo esses termos e interagindo com sistemas de empresas de IA para liberar ou bloquear conteúdo conforme as preferências do autor, e até executar microtransações quando necessário. Seria algo como contratos inteligentes (smart contracts) geridos por IA, garantindo que cada uso respeite as condições estipuladas pelo autor.
  • Monitoração em larga escala | Apenas a IA tem capacidade de vasculhar a internet e bancos de dados em busca de usos indevidos em escala massiva. Ferramentas de varredura automatizada podem detectar se trechos de livros protegidos estão circulando em conjuntos de treinamento divulgados (por exemplo, se alguém vazou ou compartilhou um dataset), ou se alguma aplicação de IA está fornecendo textos que são cópias de obras conhecidas. Isso permite agir pró-ativamente na proteção, enviando notificações ou atuando legalmente antes que o dano se amplie.

O importante é perceber que, longe de ser apenas um embate humanos vs. máquinas, podemos integrar a IA na defesa do próprio direito autoral. Já se discute, inclusive, a possibilidade de modelos de IA auditáveis e explicáveis – se os algoritmos puderem explicar de onde veio determinada informação gerada, será mais fácil atribuir participação de obras específicas. Essa transparência algorítmica é um campo de pesquisa em inteligência artificial explicável (XAI) que pode convergir com as demandas de copyright.

a tecnologia pode e deve ser usada para aprimorar a gestão de direitos, tornando viável o que hoje parece difícil. Com a pressão regulatória certa, as empresas de IA teriam incentivo para desenvolver essas funcionalidades protetivas. Como afirmaram criadores brasileiros, a IA “veio para trazer progresso, mas quem lucra bilhões com ela deve compensar pelo uso dos nossos dados”. Ou seja, espera-se não só que a IA gere novos produtos, mas também novas soluções para assegurar que esse progresso não ocorra à custa dos autores.

Rumo a uma Regulação Equilibrada: Boas Práticas e Caminhos Possíveis

Diante de todos esses pontos – potencial tecnológico, direitos dos criadores e necessidade de inovação – fica claro que a melhor saída é uma regulação equilibrada, que combine proteção efetiva aos autores com a viabilidade do desenvolvimento de IA. Esse equilíbrio requer medidas práticas que podem ser adotadas desde já por autores, editoras, empresas de IA e legisladores. A seguir, elencamos boas práticas e caminhos possíveis para concretizar essa regulação justa e sustentável, garantindo a valorização dos criadores humanos frente à inovação tecnológica:

  • Cláusulas contratuais claras sobre IA | Autores e editoras devem incluir nos contratos de cessão de direitos cláusulas específicas sobre uso de conteúdo em sistemas de IA. Por exemplo, ao licenciar um livro para publicação, o contrato pode prever se aquela obra pode ou não ser utilizada em treinamento de IA, e em quais condições. Assim, evita-se a ambiguidade e protege-se o autor contra usos não autorizados em novas tecnologias. Entidades do livro no Brasil já alertam que, sem regulamentação clara, editores e escritores correm o risco de ter seus direitos subutilizados, daí a importância de fixar essas regras por escrito. Os advogados do setor recomendam desenvolver códigos de conduta e práticas recomendadas para orientar tais contratos, garantindo que nenhum contrato force o autor a abrir mão de direitos de forma despercebida.
  • Plataformas de licenciamento e gestão coletiva | Como discutido, a criação de plataformas especializadas para licenciar conteúdo para IA pode tornar o processo eficiente e seguro. Essas plataformas podem ser administradas por consórcios de editoras e associações de autores, funcionando como um marketplace de direitos autorais para treinamento de IA. Em vez de cada empresa de IA bater de porta em porta, haveria um canal único de negociação coletiva, onde pacotes de obras são oferecidos sob certas tarifas e condições. A experiência do setor musical com o ECAD e da área de reprografia com a ABDR mostra que a gestão coletiva bem organizada assegura pagamento aos titulares de forma prática. No contexto de IA, uma plataforma experimental nesse molde chegou a ser cogitada no projeto de lei, evidenciando que é uma ideia concreta. Essa abordagem também facilita a transparência – todas as partes sabem quais obras foram licenciadas e por quanto, evitando o uso oculto de conteúdo.
  • Opt-out técnico e legal para autores | Instituir formalmente o direito de opt-out – já garantido no texto aprovado pelo Senado – é crucial. Mas além da lei, é necessária uma implementação técnica: por exemplo, a criação de um registro nacional (ou internacional) de obras não autorizadas para IA, onde autores cadastrem suas obras com um sinal de “não treine em IA”. Esse registro seria público e as empresas de IA teriam obrigação de consultá-lo e excluir tais obras de seus datasets, sob pena de sanção. Em paralelo, poderia haver um padrão de metadados (em arquivos EPUB, PDF, JPEG etc.) indicando a preferência do autor. O opt-out empodera os criadores, pois quem não quiser participar desse ecossistema de IA pode se proteger, e quem quiser pode negociar voluntariamente. Na União Europeia, como citado, já se desenha algo nessa linha de permissão prévia para uso de conteúdo protegido, e é um exemplo de boa prática que o Brasil tende a seguir.
  • Obrigatoriedade de disclosure e auditoria | Boa prática regulatória é exigir não apenas transparência passiva, mas relatórios regulares das empresas de IA sobre suas fontes de dados e mecanismos de compliance com direitos autorais. A lei poderia estabelecer, por exemplo, que empresas mantenham um banco atualizado das obras utilizadas e submetam a órgãos competentes (ou deixem disponível para consulta pública) uma lista auditável. Isso se alinha à tendência global de divulgação das bases de treinamento. Com a auditoria, garante-se que a transparência não será mera promessa. Mecanismos de fiscalização automatizados (com uso das “IA fiscalizadoras” mencionadas na seção anterior) podem ser empregados pelos reguladores para conferir se uma empresa está ocultando uso de determinados acervos. Essa combinação de disclosure obrigatório + auditoria tecnológica aumentará a confiança na regulação e criará um ambiente de respeito aos criadores.
  • Fomento à tecnologia pró-direitos | O poder público, possivelmente em parceria com universidades e startups, pode incentivar o desenvolvimento de ferramentas de IA voltadas à proteção de direitos autorais. Isso incluiria financiar pesquisas em rastreabilidade de dados de treinamento, sistemas de identificação de trechos protegidos em corpora, algoritmos de repartição de conteúdo, etc. Ao invés de deixar somente as big techs inovarem (geralmente priorizando performance dos modelos), é salutar que se invista em IA do bem para a cultura, capaz de entregar soluções que tornem viável a remuneração. Por exemplo, prêmios ou editais para soluções de blockchain de direitos autorais para IA ou softwares que implementem opt-out de forma eficiente. Essas inovações podem posteriormente ser incorporadas como ferramentas padrão das empresas.
  • Engajamento multissetorial e contínuo | uma boa prática essencial é manter aberto o diálogo entre todos os atores – setor editorial, autores, desenvolvedores de IA, governo e academia – numa espécie de fórum permanente sobre IA e direito autoral. A tecnologia de IA evolui rapidamente, e a legislação precisará de ajustes ao longo do tempo. Se criarmos espaços de discussão contínua, evita-se tanto o descompasso técnico (regulação atrasada ou impraticável) quanto a falta de proteção (lacunas legais). O caso do Marco Legal da IA mostrou a importância de ouvir diversos lados: as audiências públicas no Senado e na Câmara receberam contribuições de autores, editores, juristas, bem como de técnicos – embora em alguns momentos a representação técnica tenha sido menor do que o ideal, como notou o Reglab. Aprendendo com isso, um equilíbrio melhor na próxima fase deve ser buscado, onde decisões sejam informadas tanto pelo conhecimento de engenharia quanto pela experiência de quem produz e vive de conteúdo. Regulamentações flexíveis (por exemplo, revisões periódicas, comissões técnicas consultivas) também são caminhos para adaptar-se a novas descobertas e assegurar um balanço saudável entre promover inovação e resguardar a cultura.

A remuneração por direitos autorais em sistemas de IA é um desafio complexo, mas não intransponível; se podemos treinar modelos para fazer pesquisa profunda, criar textos, criar imagens, criar vídeos, podemos treinar os modelos para respeitar os Direitos Autorais. Requer abandonar posturas extremas – nem um tecnicismo paralisante que descarta os direitos autorais por dificuldade de cálculo, nem um idealismo jurídico que ignora por completo as limitações técnicas atuais. A saída está no meio-termo dinâmico: reconhecer os limites e, ao mesmo tempo, superá-los com criatividade regulatória e inovação tecnológica.

Os criadores humanos são e continuarão sendo a fonte primária de toda produção cultural – até mesmo as IAs dependem das obras deles – por isso valorizá-los e protegê-los é garantir a própria matéria-prima da inovação. Regulamentar de forma equilibrada, com remuneração justa e regras claras, não é apenas fazer justiça aos autores, mas assegurar a sustentabilidade cultural e econômica do setor editorial na era da inteligência artificial.

Como resumiu um movimento internacional de artistas: “as empresas de IA devem seguir três regras básicas dos direitos autorais – não roube; se o conteúdo não é seu, peça permissão; e se você precisa desse dado, pague por ele”. Seguindo esses princípios, e com diálogo entre tecnologia e cultura, podemos transformar a IA de ameaça em aliada, fomentando tanto a criatividade digital quanto a criatividade humana de forma harmônica e sustentável.

Minha Conclusão Até Agora

A travessia entre a criatividade humana e a inteligência artificial já começou — e o setor editorial está no epicentro dessa travessia. Na Parte 1 deste meu artigo mostro que a proteção autoral não é apenas um direito individual; é a infraestrutura cultural que sustenta a produção de conhecimento e de narrativas que alimentam a própria IA. Já a Parte 2 revelo que, embora os desafios técnicos de rastreamento e mensuração sejam reais, considerá-los intransponíveis significa capitular diante de uma tecnologia que se apoia justamente em nossas obras.

O que eu demonstro neste meu artigo demonstra, portanto, é que inovação e remuneração não são polos opostos. Há caminhos práticos — rastreabilidade de dados, transparência ativa, licenciamento coletivo, opt-out técnico e auditoria algorítmica — capazes de conciliar a velocidade da IA com a justiça autoral. Ignorar esses mecanismos em nome de uma suposta inviabilidade é abdicar do futuro da criação intelectual; adotá-los é transformar a IA em aliada, não em adversária.

Para autores e editoras, a mensagem é clara: organizar-se coletivamente e negociar em bloco é a chave para equilibrar força diante das big techs. Para legisladores, o alerta é inequívoco: regulação descolada da técnica fracassa, mas regulação omissa empobrece a cultura. E às empresas de IA cabe reconhecer que a sustentabilidade do seu próprio modelo de negócio depende de um ecossistema criativo vibrante — e criadores vibram quando são respeitados e devidamente compensados.

Se quisermos um mercado editorial próspero na era da inteligência artificial, precisaremos de coragem para experimentar modelos de remuneração novos, abertura para ajustes regulatórios periódicos e compromisso ético de todas as partes envolvidas. O futuro que emerge é híbrido: algoritmos potentes, sim, mas ancorados em contratos justos, metadados transparentes e sistemas de redistribuição que mantenham vivos os autores que abastecem a máquina.

Em síntese, o dilema IA × direito autoral não exige escolhas de soma zero. Exige visão sistêmica, cooperação multissetorial e, sobretudo, a convicção de que ninguém inova sozinho: a tecnologia avança sobre os ombros de gigantes — e esses gigantes atendem pelo nome de escritores, ilustradores, tradutores e editores. Que a remuneração justa seja, então, o combustível da próxima geração de histórias — humanas ou artificiais — que ainda temos a contar.

E não se esqueça: If you copy, copyright!

últimos artigos

explore mais