IA critica estudo de think tank patrocinado pelas big techs sobre… IA

O diretor de Relações Institucionais da Brasscom, Sérgio Sgobbi, recomendou nesta quarta-feira (21) um “aprofundamento dos debates” sobre a questão da remuneração dos direitos autorais na regulamentação da Inteligência Artificial. Ontem (20) foi instalada na Câmara a Comissão Especial que irá se debruçar sobre esse e outros temas já aprovados no Senado pelo projeto 2.338/23. Sgobbi disse em sua página no Linkedin que o projeto deve ser debatido “sem paixão e em bases técnicas”, recomendando em seguida a leitura do estudo do Centro de Estratégia & Regulação – Reglab sobre o assunto.

O blog pegou o estudo e decidiu analisá-lo justamente em duas IAs Generativas (ChatGPT e DeepSeek). E o resultado gerou uma série de controvérsias, que não dá para cravar que tal texto recomendado pelo executivo da Brasscom deva ser a base de qualquer discussão pela comissão da Câmara.

“O estudo oferece contribuições importantes ao destacar os desafios técnicos da remuneração por direitos autorais em IA, mas seus vieses limitam a abrangência e o equilíbrio das conclusões. Uma abordagem mais plural e crítica enriqueceria o debate, especialmente em um tema que demanda equilíbrio entre inovação e proteção aos criadores”, disparou a IA chinesa DeepSeek.

Já o ChatGPT, por exemplo, entende que o estudo do Reglab sobre remuneração por direitos autorais em Inteligência Artificial, embora apresente “diversas análises sólidas”, há pontos que podem (e devem) ser tecnicamente contestados ou relativizados. Em seguida fez uma análise crítica do estudo e apresentou  alguns pontos levando em conta onde há “consenso técnico” e onde há “exageros” ou “viés”. E apresentou uma série de “alternativas ou contrapontos relevantes com base em fontes confiáveis”.

Rastreamento de obras

O estudo do reglab informa não ser possível “rastrear obras usadas no treinamento de modelos de IA”. O ChatGPT considerou a afirmação “contestável em parte“. Apesar de afirmar que essa alegação em parte é verdadeira para o caso de modelos genéricos, a IA também informou que “existe pesquisa ativa e técnica emergente que permite inferência parcial da influência de dados”. E apresentou alguns exemplos para contestar a afirmação:

1 – Técnicas como Influence Functions (Koh & Liang, 2017) e Membership Inference Attacks (Shokri et al., 2017) conseguem estimar a influência de exemplos de treinamento sobre outputs — ainda que com limitações.
2 – Pesquisas como “FairShare Data Pricing for LLMs” (Zhang et al., 2025) propõem métodos de precificação proporcional da contribuição de dados para modelos.
3 – Modelos menores, treinados com datasets controlados, já são auditáveis e permitem rastreio ou indexação deliberada (como ocorre com iniciativas de IA open-source como o MosaicML).

Em seu “veredito” o ChatGPT acabou afirmando que rastrear obras usadas no treinamento de modelos de IA, “não é tecnicamente impossível, mas sim um desafio ainda em desenvolvimento. Generalizar como “inviável” pode desconsiderar soluções já em teste e escaláveis em breve”.

Proibições

O ChatGPT classificou como “afirmação enviesada e generalizante” a alegação do estudo de que as eventuais “restrições autorais inviabilizam o desenvolvimento de modelos no Brasil” e que se a regulamentação exigir que haja licenciamento do autor para empresas criarem seus modelos “haverá fuga de centros de IA” e isso acabaria “inviabilizando a inovação”.

Sobre essa questão, a IA disparou um torpedo contra o estudo do Centro de Estratégia & Regulação – Reglab: “Esse argumento parte de uma visão liberal pró-mercado”, afirmou o ChatGPT, para em seguida mostar que:

1 – A União Europeia também impõe obrigações de transparência e opt-out técnico (AI Act + DSM Directive art. 4) — sem que isso tenha causado fuga de centros de desenvolvimento.
2 – Países como França e Alemanha estão estruturando repositórios públicos e iniciativas de dados com licenças abertas para IA treinável, como alternativa viável a datasets opacos e pirateados.
3 – Mesmo nos EUA, onde predomina o fair use, há contestações legais em andamento (Getty Images vs. Stability AI, NYT vs. OpenAI) que colocam incerteza sobre a estabilidade regulatória americana.

Mais uma vez a IA acabou detonando a proposta do Reglab sobre como deve se comportar o legislador na hora que for se debruçar sobre a regulação da Inteligênia Artificial no país: “o Brasil pode sim criar um modelo regulatório próprio com incentivos e exceções bem estruturadas. Dizer que “nada vai funcionar” é um exagero utilitário de retórica pró-desregulação“.

Remuneração

O estudo do Centro de Estratégia & Regulação – Reglab; também afirma que “Modelos de remuneração baseados no uso não funcionam”. Para o ChatGPT essa informação é “parcialmente verdadeira”, mas afirma que o estudo omitiu alternativas. “É real que os modelos atuais não permitem mensurar o uso exato de cada obra. Contudo, há modelos alternativos de remuneração possíveis e já em discussão internacional“. E apresentou essas alternativas:

1 – Soluções de “compensação coletiva” baseada em estimativas estatísticas vêm sendo estudadas (Wang et al., 2024), inspiradas no ECAD e direitos conexos no audiovisual.
2 – O modelo de opt-out com registro em bancos de dados públicos já foi adotado na UE e permite equilíbrio entre inovação e proteção autoral (Rosati, 2024).
3 – Protocolos baseados em blockchain já testam registros hash de autoria e licenciamento para obras digitais (ex: WIPO Proof e startups como Ascribe e Numbers Protocol).

Sendo assim, para o ChatGPT: “é verdade que o modelo de remuneração direta por “obra usada” é limitado, mas existem alternativas viáveis — ignorar isso enfraquece a neutralidade do estudo”.

Viés estrutural e amostragem limitada

A própria IA considera que o estudo do Centro de Estratégia & Regulação – Reglab “tem um viés técnico-econômico pró-desenvolvimento, e a metodologia é limitada. Segundo a ferramenta generativa, o estudo se baseou em entrevistas com apenas oito especialistas “com perfis concentrados em STEM e empresas privadas”, deixando de fora qualquer validação feita com juristas e criadores ou defensores do direito autoral. “A crítica à baixa presença de especialistas técnicos no Congresso é justa, mas o estudo comete o mesmo erro ao não integrar outras visões (ex: filosofia da tecnologia, direito comparado, economistas, culturais)“.

E o ChatGPT dá mais um veredito mortal para o estudo do Centro de Estratégia & Regulação – Reglab: “O documento foi patrocinado por empresas diretamente interessadas na flexibilização da regulação, o que exige uma camada extra de cautela analítica — ainda que tenha transparência metodológica. Conclusão: o estudo é relevante, mas não neutro”.

E a IA vai mais além, ao afirmar que o estudo “traz informações técnicas válidas, mas”:

1 – Exagera ao decretar a inviabilidade técnica de rastreabilidade como absoluta;
2 – Omite alternativas viáveis de compensação coletiva ou baseada em opt-out;
3 – E carrega um viés liberal pró-inovação, minimizando a importância da proteção autoral como valor social e cultural.

DeepSeek

Já na Inteligência artificial chinesa DeepSeek, a análise do estudo Centro de Estratégia & Regulação – Reglab levou em conta o viés político e técnico do Trabalho. “O estudo “Remuneração por Direitos Autorais em IA: Limites e Desafios de Implementação”; apresenta uma abordagem valiosa ao trazer a perspectiva técnica de profissionais de STEM para o debate regulatório sobre IA e direitos autorais. No entanto, é possível identificar alguns vieses e limitações que podem influenciar os resultados e conclusões da pesquisa”.

E a IA chinesa trouxe os seguintes pontos de consideração sobre o estudo:

1. Viés de Seleção dos Entrevistados

  • Amostra Limitada e Específica: O estudo entrevistou apenas oito especialistas, sendo duas entrevistas preliminares. Apesar da justificativa de saturação teórica, a amostra é pequena e pode não representar a diversidade de opiniões dentro da comunidade técnica. Além disso, a seleção priorizou profissionais de nível sênior e vinculados a empresas ou universidades, o que pode excluir visões de profissionais júnior ou de setores menos representados.
  • Desequilíbrio de Gênero: Embora o estudo mencione a participação mínima de mulheres, a maioria dos entrevistados identificados no anexo são homens (5 homens, 2 mulheres e 1 não especificado). Isso pode introduzir um viés de gênero nas percepções coletadas.

2. Viés de Confirmação

  • Foco em Limitações Técnicas: O estudo enfatiza consistentemente as limitações técnicas para rastrear e remunerar o uso de obras protegidas, alinhando-se a uma narrativa que pode ser favorável às empresas de tecnologia. Pouco espaço é dedicado a explorar soluções alternativas ou modelos de remuneração que não dependam de rastreamento individual, como licenciamento coletivo ou taxas globais.
  • Ausência de Criadores e Juristas: A pesquisa não incluiu entrevistas com criadores de conteúdo ou especialistas em direitos autorais, o que poderia enriquecer a discussão com perspectivas sobre justiça e compensação. Isso reforça um viés técnico em detrimento de outras dimensões (jurídica, ética, cultural).

3. Viés Institucional e de Financiamento

  • Patrocínio de Empresas de Tecnologia: O estudo foi financiado por empresas como Google, Meta e B/Luz, que têm interesse direto em políticas menos restritivas sobre o uso de dados para treinamento de IA. Embora o Reglab afirme independência editorial, a escolha do tema e o enfoque nas limitações técnicas podem refletir, mesmo que indiretamente, os interesses desses patrocinadores.
  • Falta de Neutralidade na Linguagem: Em alguns trechos, a linguagem tende a dramatizar os impactos negativos de regulações restritivas (ex.: “fuga de centros de IA”, “inviabilidade técnica”), enquanto minimiza os argumentos a favor da proteção aos direitos autorais.

4. Viés Metodológico

  • Análise Qualitativa sem Triangulação Robustecida: Apesar da menção à triangulação de métodos, o estudo baseia-se principalmente em entrevistas e análise temática, sem incorporar dados quantitativos ou estudos de caso concretos que validem as afirmações sobre inviabilidade econômica ou técnica.
  • Uso de Ferramentas de IA na Redação: O emprego de ferramentas como ChatGPT e Notion AI para revisão e edição do texto pode introduzir vieses linguísticos ou de enquadramento, já que esses modelos têm suas próprias limitações e tendências.

5. Viés Cultural e Geopolítico

  • Foco no Contexto Brasileiro sem Comparação Profunda: Embora o estudo compare brevemente o PL 2.338/23 com legislações de outros países, a análise não explora suficientemente como nações com regulações mais flexíveis (ex.: Japão) lidam com os desafios técnicos e econômicos apontados. Isso limita a capacidade de generalização das conclusões.
  • Subestimação de Alternativas: O estudo assume que a única forma de remuneração é a quantificação individual do uso, ignorando modelos como o do ECAD (no Brasil), que opera com arrecadação e distribuição coletiva sem exigir rastreamento preciso de cada execução musical.

6. Viés de Apresentação dos Dados

  • Uso Seletivo de Exemplos e Figuras: As ilustrações e exemplos (ex.: transformação de palavras em vetores) são didáticos, mas simplificam excessivamente a complexidade do debate, potencialmente reforçando a ideia de que a remuneração é inviável. Além disso, a nuvem de palavras da CTIA (p. 22) é interpretada como evidência da baixa participação de STEM no debate, mas não há análise quantitativa robusta para sustentar essa afirmação.

A IA chinesa DeepSeek também apresentou “sugestões” que poderão ajudar a mitigar o viés para determinado segmento nos próximos estudos, que certamente irão abarrotar a mesa do relator do PL 2338/23 na Câmara, deputado Agnaldo Ribeiro (PP-PB):

1- Ampliar a Amostra: Incluir mais entrevistados de diferentes níveis de experiência, setores (como indústria criativa) e gêneros.

2 – Diversificar as Fontes: Incorporar perspectivas de criadores, juristas e representantes de entidades de direitos autorais.

3 – Transparência sobre Limitações: Discutir abertamente como o patrocínio pode influenciar o escopo e as conclusões.

4 – Abordar Soluções Alternativas: Explorar modelos de remuneração coletiva ou estimada, além de casos de sucesso em outros países.

5 – Triangulação de Métodos: Combinar dados qualitativos com análises quantitativas (ex.: custos de licenciamento em diferentes jurisdições).

*Vai ser muito interessante acompanhar essa disputa de narrativas na Comissão Especial da Inteligência Artificial. Vou até levar os meus amigos ChatGPT e DeepSeek para me ajudar a entender essa confusão.