Conselho Polêmico de Eric Schmidt sobre Ética em IA Gera Debate sobre Direitos Autorais e Uso Justo no Vale do Silício
Brief news summary
Em abril de 2024, o ex-CEO do Google, Eric Schmidt, aconselhou estudantes de Stanford que estão lançando startups no Vale do Silício a estarem preparados para cruzar fronteiras éticas, especialmente no desenvolvimento de IA. Esse conselho vem em meio a 19 processos judiciais contra empresas de IA generativa, como OpenAI e Anthropic, por suposto infringimento de direitos autorais, pois treinaram modelos de IA usando livros e mídias protegidos por direitos autorais sem permissão. Schmidt recomendou primeiro construir protótipos de IA baixando grandes conjuntos de dados e só buscar aconselhamento jurídico após atingir sucesso, destacando a priorização da inovação sobre a estrita conformidade às leis de direitos autorais no Vale do Silício. Essas empresas de IA invocam “uso justo” para justificar suas práticas de dados, mas simultaneamente aplicam restrições rigorosas ao reúso de conteúdo gerado por IA, revelando um padrão duplo. Documentos internos da própria empresa mostram que há conhecimento da oposição de criadores e que propostas de divisão de lucros foram descartadas. Críticos argumentam que o treinamento de IA explora de forma injusta materiais protegidos por direitos autorais, sem compensar os criadores originais, reproduzindo conteúdo de forma próxima às origens em alguns casos. Vozes da indústria, como o ex-vice-presidente da Stability AI, Ed Newton-Rex, defendem o uso de dados licenciados. Enquanto isso, grandes empresas de tecnologia protegem rigorosamente seus direitos autorais de software, mas deixam de proteger os artistas cujas obras alimentam o desenvolvimento da IA. No geral, a cultura do Vale do Silício favorece a inovação rápida, muitas vezes às custas de normas éticas e legais.Em abril de 2024, o ex-CEO do Google e defensor da IA, Eric Schmidt, ministrou uma palestra privada em Stanford, dizendo aos futuros empreendedores do Vale do Silício para estarem prontos a cruzar limites éticos. Apesar de 19 processos judiciais contra empresas de IA generativa como Anthropic e OpenAI por infração de direitos autorais devido a livros e mídias roubados utilizados para treinar modelos de IA, Schmidt aconselhou os estudantes a baixarem livremente conteúdos para construir protótipos, sugerindo que os problemas legais poderiam ser resolvidos posteriormente, caso o produto tivesse sucesso. Em agosto de 2024, Stanford publicou brevemente a palestra no YouTube, mas a removeu no dia seguinte sem comentários. A postura direta de Schmidt reflete uma atitude comum no Vale do Silício, muitas vezes mascarada por argumentos legais ou filosóficos. Seu porta-voz citou a confiança de Schmidt no “uso justo” como catalisador da inovação, ecoando o slogan tecnolibertário “a informação quer ser livre”, que trata a informação como um recurso que deve fluir sem restrições. Contudo, esse princípio raramente se aplica às informações proprietárias do Vale do Silício — dados pessoais e softwares — que são fortemente protegidos. Softwares como o Photoshop e invenções como o algoritmo de busca do Google ou o design do iPhone são patenteados e defendidos por equipes jurídicas de alto nível. A indústria tecnológica frequentemente participa de batalhas de propriedade intelectual de alto risco: a Waymo resolveu uma ação de US$ 245 milhões contra a Uber por segredos de carros autônomos roubados; a Apple ganhou mais de US$ 1 bilhão da Samsung após uma disputa de sete anos por patentes; e a Apple e a Qualcomm já processaram uma à outra diversas vezes ao redor do mundo. Na corrida pelo desenvolvimento de IA generativa, empresas têm visado com agressividade setores menos preparados, treinando IA com vastos conjuntos de dados frequentemente contendo conteúdo protegido por direitos autorais. Essas empresas justificam de formas distintas: a OpenAI afirma usar apenas dados disponíveis publicamente; a Anthropic diz usar livros, mas não comerciais; a Meta admite usar livros comercialmente, mas chama isso de “uso justo quintessential”. No entanto, essas mesmas empresas rejeitam alegações semelhantes de uso justo ao proteger suas próprias criações.
A OpenAI proíbe que usuários treinem modelos concorrentes com os outputs do ChatGPT; a Anthropic, Google e xAI têm regras semelhantes — basicamente, “podemos treinar com seu trabalho, mas você não pode treinar com o nosso”. Embora as pressões do mercado expliquem esses padrões egoístas, as contradições entre ações e valores proclamados são evidentes. A Meta, por exemplo, chama seus modelos de “abertos”, mas impede cópias online e exige sua remoção — postura incompatível com a generosidade típica do código aberto. O valor dos dados de treinamento é claro: em 2021, o CEO da Anthropic, Dario Amodei, escreveu sobre a importância de compensar os produtores de dados com participações nos lucros ou ações para evitar reações negativas dos criadores, que poderiam atrasar o avanço da IA. Ainda assim, a Anthropic agora afirma que usar conteúdo protegido por direitos autorais é uso justo, que não garante nada aos criadores, e não deu respostas às perguntas sobre essa contradição. As empresas argumentam que os resultados de IA são originais, não derivados dos dados de treinamento, mas relatórios indicam que chatbots e geradores de imagens podem produzir cópias quase exatas de obras como Harry Potter ou obras de arte existentes. Essas questões têm sido minimizadas pelas próprias empresas, que às vezes invocam preocupações de “corrida tecnológica” global como justificativa para alegações amplas de uso justo — a OpenAI alertou que, sem esse acesso, os EUA perderiam a competição de IA. Nem todos os insiders concordam. Ed Newton-Rex, ex-vice-presidente da Stability AI, saiu em 2023, criticando o treinamento atual de IA por ser incompatível com economias criativas baseadas em direitos autorais e fundou a Fairly Trained, uma certificadora de modelos treinados com dados devidamente licenciados. Enquanto isso, o próprio Vale do Silício há tempos sofre com roubos de propriedade intelectual decorrentes de pirataria, levando empresas a mudarem seus modelos de distribuição: a Adobe e a Microsoft agora exigem assinaturas com verificação de licença, e o Google não disponibiliza downloads. Essas estratégias protegem a propriedade intelectual, mas não atingem muitos criadores cujas obras são exploradas por empresas de IA. Esse duplo padrão levanta dúvidas sobre as alegações do Vale do Silício acerca do uso justo — seriam princípios verdadeiros ou uma cortina de fumaça legal?A IA generativa traz, de fato, questões inéditas sobre direitos autorais, mas as táticas agressivas do setor — avançar rápido, quebrar regras e confiar nos advogados para resolver problemas — refletem normas de negócios de longa data no Vale do Silício, e não uma inovação baseada em princípios.
Watch video about
Conselho Polêmico de Eric Schmidt sobre Ética em IA Gera Debate sobre Direitos Autorais e Uso Justo no Vale do Silício
Try our premium solution and start getting clients — at no cost to you