Imagine um mundo onde suas criações artísticas, músicas ou artigos jornalísticos são usados sem permissão para treinar máquinas superinteligentes, gerando bilhões em lucros para gigantes da tecnologia, enquanto criadores ficam de mãos vazias. Essa não é ficção científica, mas uma realidade que já impacta o ecossistema criativo global. No Brasil, o senador Eduardo Gomes (PL-TO) soou o alarme durante um talk sobre regulação da inteligência artificial, destacando os riscos do uso indiscriminado de obras protegidas no treinamento de sistemas de IA.

A inteligência artificial generativa, como o ChatGPT e ferramentas de imagem como Midjourney, revolucionou a produção de conteúdo, mas levanta questões éticas e jurídicas profundas. O treinamento desses modelos depende de vastos datasets compostos por bilhões de imagens, textos e sons extraídos da internet, muitas vezes sem consentimento dos detentores de direitos. No Brasil, onde a economia criativa movimenta bilhões e emprega milhões, essa tensão ganha contornos urgentes, especialmente com o avanço de projetos legislativos para regulamentar a IA.

Neste artigo, mergulhamos no alerta do senador Gomes, contextualizando o debate no cenário nacional e internacional. Exploraremos o funcionamento técnico do treinamento de IA, os impactos na cadeia produtiva criativa, exemplos reais de controvérsias e as perspectivas para uma regulação equilibrada. Ao final, refletiremos sobre como o Brasil pode liderar uma abordagem que equilibre inovação e proteção aos direitos fundamentais.

PUBLICIDADE

De acordo com dados globais, o mercado de IA deve atingir US$ 1,8 trilhão até 2030, impulsionado por aplicações generativas. No Brasil, a economia da cultura e mídia representa cerca de 3% do PIB, equivalente a R$ 300 bilhões anuais, segundo estimativas do setor. Proteger esses ativos é crucial para manter a competitividade nacional em um mundo cada vez mais digitalizado.

O evento em questão foi o talk 'Qual o caminho da regulação justa e responsável da IA?', promovido pelo Metrópoles. Nele, o senador Eduardo Gomes, vice-presidente do Senado e relator do PL 2338/2023, que trata da regulamentação da IA no Brasil, abordou especificamente a relação entre direito autoral e inteligência artificial. Ele enfatizou que as grandes plataformas digitais já remuneram direitos autorais por conteúdos exibidos, mas alertou para a necessidade de diferenciar o uso comercial de obras protegidas no treinamento de modelos de IA.

Gomes apresentou um novo parecer para o projeto de lei, que se mostra mais rigoroso em relação à proposta inicial do presidente do Senado, Rodrigo Pacheco (PSD-MG). Seu texto propõe mecanismos para garantir a remuneração aos criadores cujas obras forem utilizadas no desenvolvimento de sistemas de IA, além de proibições claras contra o uso não autorizado que viole direitos autorais.

Para entender o cerne do problema, é essencial compreender como funcionam os modelos de IA generativa. Esses sistemas, baseados em redes neurais como transformers, são treinados com técnicas de aprendizado de máquina supervisionado ou não supervisionado. Durante o treinamento, algoritmos analisam padrões em datasets massivos, como o Common Crawl, que scrapeia a web inteira, incluindo livros, artigos, fotos e músicas protegidas por lei.

No Brasil, a Lei de Direitos Autorais (Lei 9.610/1998) protege obras intelectuais por 70 anos após a morte do autor, mas não contempla explicitamente o scraping para IA. Internacionalmente, casos como o processo do New York Times contra a OpenAI ilustram o conflito: jornais alegam que trechos de suas reportagens foram copiados verbatim nos outputs da IA.

Historicamente, o direito autoral evoluiu para equilibrar incentivo à criação e acesso público. Com a internet, surgiram desafios como pirataria e streaming, resolvidos por leis como a Lei 12.485/2011 (quotas de conteúdo nacional). Agora, a IA representa o próximo fronteira, onde o 'uso justo' (fair use) nos EUA é questionado em tribunais, com juízes analisando se o treinamento constitui transformação criativa ou mera reprodução.

No mercado global, gigantes como Google (Gemini), Microsoft (Copilot) e Meta investem bilhões em IA, mas enfrentam ações judiciais de artistas visuais e escritores. No Brasil, entidades como ABRAMUS e ABERT promovem seminários, como o 'Direito Autoral e o Desafio da IA', onde Gomes reforçou a importância de levar contribuições ao Congresso para uma regulação equilibrada.

Os impactos são profundos para a cadeia criativa brasileira. Jornalistas, músicos e ilustradores veem seus trabalhos 'devorados' por IAs sem remuneração, potencialmente desincentivando novas criações. Empresas de mídia, como Folha e Estadão, já expressam preocupações com perda de tráfego e receita publicitária, pois usuários optam por respostas geradas por IA em vez de sites originais.

Além disso, há riscos éticos: deepfakes e conteúdos falsos gerados por IA podem difamar autores ou plagiar estilos. Para profissionais de tecnologia, isso implica necessidade de compliance em desenvolvimento de modelos locais, como os da startup brasileira Tera e startups de IA em São Paulo.

Implicações econômicas incluem desigualdade: big techs dominam dados, enquanto criadores brasileiros lutam por voz. Uma regulação falha poderia afastar investimentos em IA ética no país, enquanto uma bem-sucedida atrairia hubs de inovação com foco em direitos humanos.

Exemplos práticos abundam. Nos EUA, autores como Sarah Silverman processam OpenAI por uso de livros em treinamento. Na França, artistas plásticos acionam Stability AI. No Brasil, embora sem mega-processos ainda, associações de compositores pressionam por cláusulas no PL 2338, exigindo opt-in para uso de obras e royalties por geração de conteúdo similar.

Outro caso: ferramentas como DALL-E geram imagens no estilo de artistas famosos, levando a demandas por atribuição e pagamento. Para programadores brasileiros desenvolvendo chatbots, isso significa auditar datasets para evitar violações, usando licenças Creative Commons ou dados sintéticos.

Especialistas em direito digital, como professores da FGV Direito SP, defendem um modelo híbrido: licenças coletivas gerenciadas por ECAD para música e agências para imagens, similar ao que ocorre com YouTube. Gomes ecoa isso, propondo fiscalização e autorregulação pelas plataformas.

Analistas de mercado preveem que regulamentações como a EU AI Act influenciarão o Brasil, classificando IAs por risco e impondo transparência em dados de treinamento. No parecer de Gomes, há lista de proibições, como indução a comportamentos criminosos, e garantias para direitos autorais de jornalistas e artistas.

No Brasil, o debate avança com audiências públicas. O senador destaca mitos sobre regulação frear inovação, argumentando que proteção a direitos fomenta ecossistemas sustentáveis, atraindo talentos para hubs como o de Florianópolis.

Tendências globais apontam para watermarking digital em conteúdos gerados por IA e blockchain para rastrear origens. No Brasil, espera-se aprovação do PL até 2025, alinhado à OCDE, com foco em soberania de dados e diversidade cultural.

Players como Nubank e Magazine Luiza já integram IA em apps, mas demandam clareza regulatória para escalar. Internacionalmente, Adobe Firefly usa apenas dados licenciados, modelo que poderia ser padrão no Brasil.

Em síntese, o alerta de Eduardo Gomes sintetiza um momento pivotal: a IA não pode avançar às custas da criatividade humana. Seu parecer fortalece o PL 2338, propondo remuneração justa e proibições contra abusos, diferenciando-se da versão inicial de Pacheco por maior rigor em copyrights.

Olhando ao futuro, o Brasil tem chance de criar uma regulação modelo, equilibrando inovação e proteção. Com contribuições de seminários e entidades, o Congresso pode aprovar texto que posicione o país como líder em IA ética na América Latina.

Para o mercado brasileiro, isso significa oportunidades para startups desenvolverem IAs locais com dados nacionais licenciados, gerando empregos em curadoria de conteúdo e auditoria ética. Profissionais de tech devem se preparar para compliance rigoroso.

Reflita: como sua empresa ou carreira será impactada? Participe do debate, acompanhe o PL 2338 e apoie iniciativas que valorizem o criador humano por trás da máquina. O futuro da IA no Brasil depende de ações hoje.