El controvertido consejo de Eric Schmidt sobre ética en la IA genera debate sobre derechos de autor y uso justo en Silicon Valley
Brief news summary
En abril de 2024, el ex CEO de Google, Eric Schmidt, aconsejó a los estudiantes de Stanford que lanzan startups en Silicon Valley que estén preparados para cruzar límites éticos, especialmente en el desarrollo de inteligencia artificial. Este consejo llega en medio de 19 demandas contra empresas de IA generativa como OpenAI y Anthropic por presunto incumplimiento de derechos de autor, ya que entrenaron modelos de IA utilizando libros y medios protegidos por derechos sin obtener permiso. Schmidt recomendó primero construir prototipos de IA descargando grandes conjuntos de datos y solo buscar asesoramiento legal tras lograr el éxito, destacando que en Silicon Valley se prioriza la innovación sobre el cumplimiento estricto de las leyes de derechos de autor. Estas empresas de IA invocan el “uso justo” para justificar sus prácticas de datos, pero al mismo tiempo imponen restricciones estrictas en la reutilización de contenido generado por IA, revelando un doble estándar. Documentos internos de la compañía muestran conciencia de la oposición de creadores y un rechazo a las propuestas de reparto de beneficios. Los críticos argumentan que el entrenamiento de IA explota injustamente materiales protegidos por derechos sin compensar a los creadores originales, reproduciendo a veces contenido de manera muy cercana. Voces de la industria, como el ex vicepresidente de Stability AI, Ed Newton-Rex, abogan por el uso de datos con licencia en su lugar. Mientras tanto, las principales empresas tecnológicas protegen rigurosamente sus derechos de autor sobre el software, pero pasan por alto las protecciones para los artistas cuyo trabajo alimenta el desarrollo de IA. En general, la cultura de Silicon Valley favorece la innovación rápida, a menudo en detrimento de las normas éticas y legales.En abril de 2024, el ex CEO de Google y defensor de la IA, Eric Schmidt, dio una conferencia privada en Stanford, en la que aconsejó a los aspirantes a emprendedores de Silicon Valley estar listos para cruzar límites éticos. A pesar de haber 19 demandas contra empresas de IA generativa como Anthropic y OpenAI por infracción de derechos de autor, relacionadas con libros y medios robados usados para entrenar modelos de IA, Schmidt sugirió a los estudiantes que descargaran libremente contenido para construir prototipos, insinuando que los problemas legales podrían resolverse más adelante si el producto tiene éxito. Stanford publicó brevemente la charla en YouTube en agosto de 2024, pero la eliminó al día siguiente sin hacer comentarios. La postura franca de Schmidt refleja una actitud común en Silicon Valley, a menudo disfrazada con argumentos legales o filosóficos. Su portavoz afirmó que la creencia de Schmidt en la “uso justo” es un impulsor de la innovación, evocando el eslogan techno-libertario “la información quiere ser libre, ” que trata la información como un recurso que debe fluir sin restricciones. Sin embargo, este principio rara vez se aplica a la información propietaria de Silicon Valley—datos personales y software—que están altamente protegidos. Programas como Photoshop y inventos como el algoritmo de búsqueda de Google o el diseño del iPhone de Apple están patentados, defendidos por equipos legales poderosos. La industria tecnológica frecuentemente participa en disputas de propiedad intelectual de alto riesgo: Waymo resolvió una demanda de 245 millones de dólares contra Uber por secretos robados sobre autos autónomos; Apple ganó más de mil millones de dólares a Samsung en una pelea de patentes que duró siete años; y Apple y Qualcomm se han demandado repetidamente en todo el mundo. En la carrera por desarrollar IA generativa, las empresas han dirigido agresivamente sus esfuerzos a industrias menos preparadas, entrenando IA con conjuntos de datos vastos que a menudo contienen contenido protegido por derechos de autor. Las justificaciones varían: OpenAI afirma que solo usa datos públicos; Anthropic dice que usa libros, pero no con fines comerciales; Meta admite que usa libros con fines comerciales pero lo califica como “uso justo por excelencia. ” Sin embargo, estas mismas empresas rechazan reclamaciones similares de uso justo cuando protegen sus propias creaciones. OpenAI prohíbe a los usuarios entrenar modelos competidores con las salidas de ChatGPT; Anthropic, Google y xAI tienen reglas parecidas—básicamente, “podemos entrenar con tu trabajo, pero tú no puedes entrenar con el nuestro. ” Mientras las presiones del mercado explican estos estándares egoístas, las contradicciones entre acciones y valores proclamados son evidentes.
Meta, por ejemplo, llama a sus modelos “abiertos” pero impide copias en línea, exigiendo su eliminación—una postura incompatible con la generosidad del código abierto. El valor de los datos de entrenamiento es claro: en 2021, el CEO de Anthropic, Dario Amodei, escribió sobre compensar a los productores de datos con participaciones en beneficios o acciones para evitar la reacción de los creadores, que podría ralentizar el avance de la IA. Sin embargo, Anthropic ahora afirma que usar trabajo con derechos de autor es uso justo, sin otorgar nada a los creadores, y no quiso comentar sobre esta inconsistencia. Las empresas argumentan que las salidas de IA son originales y no derivadas del entrenamiento, pero informes muestran que los chatbots y generadores de imágenes pueden reproducir copias casi exactas de obras como Harry Potter o arte existente. Las compañías han minimizado estos problemas, incluso invocando preocupaciones geopolíticas sobre la “carrera de IA” para justificar reclamaciones amplias de uso justo—OpenAI advirtió que sin este acceso, Estados Unidos perdería la competencia en IA. No todos los expertos están de acuerdo. Ed Newton-Rex, ex vicepresidente de Stability AI, renunció a finales de 2023, criticando que el entrenamiento actual de IA es incompatible con las economías creativas basadas en derechos de autor. Llevó adelante Fairly Trained, que certifica modelos de IA entrenados con datos debidamente licenciados. Por otro lado, Silicon Valley lleva mucho tiempo sufriendo el robo de propiedad intelectual por piratería de software, lo que ha llevado a las empresas a cambiar sus modelos de distribución: Adobe y Microsoft ahora exigen suscripción y verificación de licencias, y Google no permite descargas. Estos métodos protegen la propiedad intelectual, pero están fuera del alcance de muchos creadores cuyos trabajos son explotados por las empresas de IA. Esta doble moral genera dudas sobre las afirmaciones de Silicon Valley en torno al uso justo—¿son principios sinceros o solo una estrategia legal?La IA generativa plantea indeed nuevas preguntas sobre derechos de autor, pero las tácticas agresivas de la industria—avanzar rápido, romper cosas y confiar en los abogados para resolver problemas—reflejan las normas comerciales históricas de Silicon Valley más que una innovación basada en principios.
Watch video about
El controvertido consejo de Eric Schmidt sobre ética en la IA genera debate sobre derechos de autor y uso justo en Silicon Valley
Try our premium solution and start getting clients — at no cost to you