Kontrowersyjne porady Erica Schmidta na temat etyki sztucznej inteligencji wywołują debatę na temat praw autorskich i dozwolonego użytku w Dolinie Krzemowej
Brief news summary
W kwietniu 2024 roku były dyrektor generalny Google, Eric Schmidt, doradzał studentom Stanforda, którzy zakładają startupy w Dolinie Krzemowej, aby byli przygotowani na przekraczanie granic etycznych, szczególnie w rozwoju sztucznej inteligencji. Ta rada pojawia się w kontekście 19 pozwań przeciwko firmom zajmującym się generatywną AI, takim jak OpenAI i Anthropic, za domniemaną naruszenie praw autorskich, ponieważ trenowały modele AI na chronionych książkach i mediach bez uzyskania zgody. Schmidt zalecał najpierw budowanie prototypów AI poprzez pobieranie dużych zestawów danych, a dopiero po osiągnięciu sukcesu zwrócenie się o poradę prawną, podkreślając, że w Dolinie Krzemowej priorytetem jest innowacja, a nie ściśle przestrzeganie przepisów dotyczących praw autorskich. Te firmy AI powołują się na "dozwolony użytek", aby uzasadnić swoje praktyki zbierania danych, ale jednocześnie nakładają surowe ograniczenia na ponowne wykorzystywanie treści generowanych przez AI, co ujawnia podwójne standardy. Dokumenty wewnętrzne firm pokazują świadomość sprzeciwu ze strony twórców oraz odrzucenie propozycji podziału zysków. Krytycy argumentują, że szkolenie AI niesprawiedliwie wykorzystuje chronione materiały bez rekompensaty dla oryginalnych twórców, momentami reprodukując treści blisko z nimi związane. W branży pojawiają się głosy, takie jak były wiceprezes Stability AI Ed Newton-Rex, wzywające do korzystania z danych na licencji. Tymczasem główne koncerny technologiczne bardzo rygorystycznie chronią swoje prawa autorskie do oprogramowania, ale ignorują prawa artystów, których prace napędzają rozwój AI. Ogólnie kultura Doliny Krzemowej faworyzuje szybkie innowacje, często kosztem norm etycznych i prawnych.W kwietniu 2024 roku były CEO Google i zwolennik sztucznej inteligencji Eric Schmidt wygłosił prywatny wykład na Stanfordzie, mówiąc aspirującym przedsiębiorcom z Doliny Krzemowej, że muszą być gotowi na przekraczanie granic etycznych. Pomimo 19 pozwów przeciwko firmom generatywnej AI, takim jak Anthropic i OpenAI, z powodu naruszeń praw autorskich związanych z kradzieżą książek i mediów wykorzystywanych do trenowania modeli AI, Schmidt doradzał studentom, aby swobodnie pobierali treści do tworzenia prototypów, sugerując, że kwestie prawne można rozwiązać później, jeśli produkt odniesie sukces. Stanford zamieścił krótko nagranie tego wystąpienia na YouTube w sierpniu 2024, ale usunął je następnego dnia bez komentarza. Stanowisko Schmidta odzwierciedla powszechne podejście w Dolinie Krzemowej, często maskowane argumentami prawnymi lub filozoficznymi. Rzecznik Schmidt’a podkreślił jego przekonanie, że „fair use” napędza innowacje, nawiązując do techno-libertariańskiego sloganu „informacja chce być wolna”, który traktuje informacje jako zasób, który powinien płynąć nieograniczenie. Jednak ta zasada rzadko ma zastosowanie do własności intelektualnej w Dolinie Krzemowej — danych osobowych i oprogramowania, które są mocno chronione. Oprogramowanie, takie jak Photoshop, czy wynalazki, jak algorytm wyszukiwania Google albo projekt iPhone’a Apple, są opatentowane i broni je silna drużyna prawników. Branża technologiczna często bierze udział w wysokostawkowych bataliach o własność intelektualną: Waymo zawarło ugodę o wartości 245 milionów dolarów z Uberem w sprawie kradzieży tajemnic związanych z samochodami autonomicznymi, Apple wygrało ponad miliard dolarów od Samsunga w siedmioletniej batalii patentowej, a Apple i Qualcomm wielokrotnie pozwały się nawzajem na całym świecie. W wyścigu o rozwijanie generatywnej AI firmy agresywnie celują w mniej przygotowane branże, trenując AI na ogromnych zbiorach danych, często zawierających treści chronione prawem autorskim. Firmy tłumaczą to różnie: OpenAI twierdzi, że używa wyłącznie danych dostępnych publicznie; Anthropic mówi, że korzysta z książek, ale nie komercyjnie; Meta przyznaje, że używało książek w celach komercyjnych, ale nazwało to „kwintesencją fair use”. Jednak te same firmy odrzucają podobne roszczenia fair use w przypadku własnych dzieł.
OpenAI zabrania użytkownikom trenowania konkurencyjnych modeli na podstawie wyników ChatGPT; Anthropic, Google i xAI mają podobne zasady — w istocie „możemy trenować na twojej pracy, ale ty nie możesz na naszej”. Choć presja rynkowa tłumaczy te egoistyczne standardy, sprzeczności między działaniami a deklarowanymi wartościami są oczywiste. Na przykład Meta określa swoje modele jako „otwarte”, lecz uniemożliwia ich kopiowanie online, domagając się ich usunięcia — co stoi w sprzeczności z typową otwartością open-source. Wartość danych treningowych jest jasna: w 2021 roku CEO Anthropic, Dario Amodei, pisał o konieczności rekompensowania twórcom danych poprzez udziały w zyskach lub akcje, aby uniknąć sprzeciwu twórców, który mógłby spowolnić postęp AI. Jednak obecnie Anthropic twierdzi, że korzystanie z chronionych prawem dzieł jest fair use, co nie daje twórcom żadnych praw, i odmówiło komentarza w tej sprawie, podkreślając sprzeczność. Firmy argumentują, że wyniki AI są oryginalne, a nie pochodne od danych treningowych, ale raporty pokazują, iż chatboty i generatory obrazów potrafią odtwarzać niemal dokładne kopie dzieł takich jak Harry Potter czy istniejąca sztuka. W branży bagatelizowano te problemy, nawet odwołując się do geopolitycznych „wyścigów AI”, by uzasadnić szerokie roszczenia fair use — OpenAI ostrzegało, że bez takiego dostępu Ameryka straci przewagę w konkurencji na polu AI. Nie wszyscy wewnątrz branży się z tym zgadzają. Ed Newton-Rex, były wiceprezes Stability AI, odszedł pod koniec 2023 roku, krytykując obecną metodę trenowania AI jako niezgodną z ustalonymi zasadami opartymi na prawie autorskim i uruchomił Fairly Trained — inicjatywę certyfikującą modele AI wytrenowane na odpowiednio licencjonowanych danych. Tymczasem sama Dolina Krzemowa od dawna cierpi z powodu kradzieży własności intelektualnej związanej z piractwem oprogramowania, co zmusiło firmy do zmiany modelu dystrybucji: Adobe i Microsoft obecnie wymagają subskrypcji z weryfikacją licencji, a Google nie oferuje żadnych pobrań. Te metody chronią własność intelektualną, ale są niedostępne dla wielu twórców, których dzieła są wykorzystywane przez firmy AI. Ta podwójna moralność podnosi wątpliwości co do szczerości deklaracji Doliny Krzemowej na temat fair use — czy są to zasady rzeczywiście wyznaczające kierunek, czy jedynie prawniczy pretekst?Generatywna AI stawia przed prawem autorskim nowe, ważne pytania, ale agresywne taktyki branży — szybkie działanie, łamanie zasad i poleganie na prawnikach do rozwiązywania problemów — odzwierciedlają długotrwałe normy biznesowe Silicon Valley, a nie zasady oparte na zasadach innowacji.
Watch video about
Kontrowersyjne porady Erica Schmidta na temat etyki sztucznej inteligencji wywołują debatę na temat praw autorskich i dozwolonego użytku w Dolinie Krzemowej
Try our premium solution and start getting clients — at no cost to you