lang icon En
March 21, 2026, 10:28 a.m.
269

El controvertido consejo de Eric Schmidt sobre ética en la IA genera debate sobre derechos de autor y uso justo en Silicon Valley

Brief news summary

En abril de 2024, el ex CEO de Google, Eric Schmidt, aconsejó a los estudiantes de Stanford que lanzan startups en Silicon Valley que estén preparados para cruzar límites éticos, especialmente en el desarrollo de inteligencia artificial. Este consejo llega en medio de 19 demandas contra empresas de IA generativa como OpenAI y Anthropic por presunto incumplimiento de derechos de autor, ya que entrenaron modelos de IA utilizando libros y medios protegidos por derechos sin obtener permiso. Schmidt recomendó primero construir prototipos de IA descargando grandes conjuntos de datos y solo buscar asesoramiento legal tras lograr el éxito, destacando que en Silicon Valley se prioriza la innovación sobre el cumplimiento estricto de las leyes de derechos de autor. Estas empresas de IA invocan el “uso justo” para justificar sus prácticas de datos, pero al mismo tiempo imponen restricciones estrictas en la reutilización de contenido generado por IA, revelando un doble estándar. Documentos internos de la compañía muestran conciencia de la oposición de creadores y un rechazo a las propuestas de reparto de beneficios. Los críticos argumentan que el entrenamiento de IA explota injustamente materiales protegidos por derechos sin compensar a los creadores originales, reproduciendo a veces contenido de manera muy cercana. Voces de la industria, como el ex vicepresidente de Stability AI, Ed Newton-Rex, abogan por el uso de datos con licencia en su lugar. Mientras tanto, las principales empresas tecnológicas protegen rigurosamente sus derechos de autor sobre el software, pero pasan por alto las protecciones para los artistas cuyo trabajo alimenta el desarrollo de IA. En general, la cultura de Silicon Valley favorece la innovación rápida, a menudo en detrimento de las normas éticas y legales.

En abril de 2024, el ex CEO de Google y defensor de la IA, Eric Schmidt, dio una conferencia privada en Stanford, en la que aconsejó a los aspirantes a emprendedores de Silicon Valley estar listos para cruzar límites éticos. A pesar de haber 19 demandas contra empresas de IA generativa como Anthropic y OpenAI por infracción de derechos de autor, relacionadas con libros y medios robados usados para entrenar modelos de IA, Schmidt sugirió a los estudiantes que descargaran libremente contenido para construir prototipos, insinuando que los problemas legales podrían resolverse más adelante si el producto tiene éxito. Stanford publicó brevemente la charla en YouTube en agosto de 2024, pero la eliminó al día siguiente sin hacer comentarios. La postura franca de Schmidt refleja una actitud común en Silicon Valley, a menudo disfrazada con argumentos legales o filosóficos. Su portavoz afirmó que la creencia de Schmidt en la “uso justo” es un impulsor de la innovación, evocando el eslogan techno-libertario “la información quiere ser libre, ” que trata la información como un recurso que debe fluir sin restricciones. Sin embargo, este principio rara vez se aplica a la información propietaria de Silicon Valley—datos personales y software—que están altamente protegidos. Programas como Photoshop y inventos como el algoritmo de búsqueda de Google o el diseño del iPhone de Apple están patentados, defendidos por equipos legales poderosos. La industria tecnológica frecuentemente participa en disputas de propiedad intelectual de alto riesgo: Waymo resolvió una demanda de 245 millones de dólares contra Uber por secretos robados sobre autos autónomos; Apple ganó más de mil millones de dólares a Samsung en una pelea de patentes que duró siete años; y Apple y Qualcomm se han demandado repetidamente en todo el mundo. En la carrera por desarrollar IA generativa, las empresas han dirigido agresivamente sus esfuerzos a industrias menos preparadas, entrenando IA con conjuntos de datos vastos que a menudo contienen contenido protegido por derechos de autor. Las justificaciones varían: OpenAI afirma que solo usa datos públicos; Anthropic dice que usa libros, pero no con fines comerciales; Meta admite que usa libros con fines comerciales pero lo califica como “uso justo por excelencia. ” Sin embargo, estas mismas empresas rechazan reclamaciones similares de uso justo cuando protegen sus propias creaciones. OpenAI prohíbe a los usuarios entrenar modelos competidores con las salidas de ChatGPT; Anthropic, Google y xAI tienen reglas parecidas—básicamente, “podemos entrenar con tu trabajo, pero tú no puedes entrenar con el nuestro. ” Mientras las presiones del mercado explican estos estándares egoístas, las contradicciones entre acciones y valores proclamados son evidentes.

Meta, por ejemplo, llama a sus modelos “abiertos” pero impide copias en línea, exigiendo su eliminación—una postura incompatible con la generosidad del código abierto. El valor de los datos de entrenamiento es claro: en 2021, el CEO de Anthropic, Dario Amodei, escribió sobre compensar a los productores de datos con participaciones en beneficios o acciones para evitar la reacción de los creadores, que podría ralentizar el avance de la IA. Sin embargo, Anthropic ahora afirma que usar trabajo con derechos de autor es uso justo, sin otorgar nada a los creadores, y no quiso comentar sobre esta inconsistencia. Las empresas argumentan que las salidas de IA son originales y no derivadas del entrenamiento, pero informes muestran que los chatbots y generadores de imágenes pueden reproducir copias casi exactas de obras como Harry Potter o arte existente. Las compañías han minimizado estos problemas, incluso invocando preocupaciones geopolíticas sobre la “carrera de IA” para justificar reclamaciones amplias de uso justo—OpenAI advirtió que sin este acceso, Estados Unidos perdería la competencia en IA. No todos los expertos están de acuerdo. Ed Newton-Rex, ex vicepresidente de Stability AI, renunció a finales de 2023, criticando que el entrenamiento actual de IA es incompatible con las economías creativas basadas en derechos de autor. Llevó adelante Fairly Trained, que certifica modelos de IA entrenados con datos debidamente licenciados. Por otro lado, Silicon Valley lleva mucho tiempo sufriendo el robo de propiedad intelectual por piratería de software, lo que ha llevado a las empresas a cambiar sus modelos de distribución: Adobe y Microsoft ahora exigen suscripción y verificación de licencias, y Google no permite descargas. Estos métodos protegen la propiedad intelectual, pero están fuera del alcance de muchos creadores cuyos trabajos son explotados por las empresas de IA. Esta doble moral genera dudas sobre las afirmaciones de Silicon Valley en torno al uso justo—¿son principios sinceros o solo una estrategia legal?La IA generativa plantea indeed nuevas preguntas sobre derechos de autor, pero las tácticas agresivas de la industria—avanzar rápido, romper cosas y confiar en los abogados para resolver problemas—reflejan las normas comerciales históricas de Silicon Valley más que una innovación basada en principios.


Watch video about

El controvertido consejo de Eric Schmidt sobre ética en la IA genera debate sobre derechos de autor y uso justo en Silicon Valley

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

March 21, 2026, 2:28 p.m.

¿Es el motor AI Picture Pro del nuevo LG C4 OLED …

La serie C4 OLED de LG para 2024 introduce un avance notable en tecnología de pantallas con su nuevo motor 'AI Picture Pro', diseñado para abordar la preocupación común de las pantallas OLED: la quemadura.

March 21, 2026, 2:24 p.m.

10 principales empresas de IA que deberías conocer

El CEO de Nvidia, Jensen Huang, destacó recientemente la inmensa escala de los avances tecnológicos actuales, afirmando que la expansión en curso de la infraestructura de inteligencia artificial constituye la mayor construcción de infraestructura en la historia de la humanidad.

March 21, 2026, 2:23 p.m.

Las técnicas de compresión de video con inteligen…

En una era de consumo acelerado de contenido digital, los servicios de streaming están aprovechando la inteligencia artificial (IA) para mejorar la entrega de videos, siendo la compresión de video impulsada por IA un avance notable que está a punto de transformar las experiencias en medios en línea.

March 21, 2026, 10:22 a.m.

PREXA365 lanza Agentes de IA para Alquiler en ARA…

PREXA365, una de las principales plataformas de software de gestión de alquileres, anuncia con orgullo el lanzamiento de sus Agentes de Alquiler AI en la Exposición de la Asociación Americana de Alquileres (ARA) 2026.

March 21, 2026, 10:21 a.m.

El anuncio navideño generado por inteligencia art…

En diciembre de 2025, McDonald’s Países Bajos lanzó un anuncio navideño titulado "Es la época más terrible del año", creado mediante inteligencia artificial, marcando uno de los primeros usos de contenido generado por IA en campañas festivas de una marca global de comida rápida.

March 21, 2026, 10:19 a.m.

El Gran Debate: ¿Qué papel debería tener la intel…

Este artículo, parte de la Semana de la IA, presenta una discusión entre Daniel Griliopoulos, periodista convertido en escritor de videojuegos conocido por su trabajo en Total War: Warhammer 3 y coautor de Diez Cosas que los Videojuegos Nos Pueden Enseñar Sobre la Vida, y Thomas Keane, cofundador de Meaning Machine, creadores del juego impulsado por IA Dead Meat.

March 21, 2026, 6:37 a.m.

Verificador de ingredientes para cuidado de la pi…

La vigilancia regulatoria en cuidado de la piel es esencial, ya que un solo ingrediente pasado por alto puede provocar retiradas de productos, baja de listas o rechazo por parte del consumidor.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today