Контроверзниот совет на Ерик Шмид за етичките прашања на вештачката интелигенција ја предизвика дебатата за авторското право и фер употреба во Силиконската долина
Brief news summary
Во април 2024 година, поранешниот извршен директор на Google, Ерик Шмид, советуваше студентите од Стенфорд кои го започнуваат својот бизнис во Силицијална Долина да бидат спремни да преминат преку етичките граници, особено во развојот на вештачката интелигенција. Овој совет доаѓа во време кога најавуваат 19 судски процеси против компании за генеративна вештачка интелигенција како OpenAI и Anthropic, поради наводно кршење на авторските права, бидејќи тренирале модели на вештачка интелигенција користејќи книги и медиуми за кои немале дозвола. Шмид препорача прво да се градат прототипи на ВИ со преземање на големи бази податоци и да се побара правен совет дури по постигнување на успех, нагласувајќи дека Силицијалната Долина ја прифаќа иновацијата пред строгото почитување на авторските права. Овие компании за ВИ се оправдуваат со „фер употреба“ за нивната пракса за податоци, но во исто време воведуваат строги ограничувања за повторна употреба на содржини создадени од ВИ, што создава двојни стандарди. Внатрешни документи од компанијата откриваат свест за противењето од страна на автори и одбивање на предлози за делба од профит. Критичарите тврдат дека тренирањето на ВИ неправедно ги искористува авторските материјали без да ги компенсира оригиналните автори, понекогаш реплицирајќи содржини блиску до оригиналите. Гласовите од индустријата, како поранешниот потпретседател на Stability AI, Ед Нјутоун-Рекс, повикуваат наместо тоа да се користат лиценцирани податоци. Во меѓувреме, големите технолошки компании строги ги штитат авторските права за својот софтвер, но ги запоставуваат заштитите за уметниците чија работа ја поттикнува развојот на ВИ. Вкупно, културата во Силицијална Долина фаворизира брза иновација често на ризик од етичките и правните норми.Во април 2024 година, поранешниот извршен директор на Гугл и застапник за вештачка интелигенција, Ерик Шмид, одржа приватна лекција на Стенфорд, каде што на амбициозните претприемачи од Силиконската долина им порача да бидат подготвени да преминат преку етичките граници. И покрај 19 судски процеси против генеративните фирми за вештачка интелигенција како што се Anthropic и OpenAI поради кршење на авторските права за stolen книги и медиуми што се користеле за тренирање на моделите, Шмид советуваше студентите слободно да преземаат содржини за да создадат прототипи, сугерирајќи дека легалните прашања можат да се решат подоцна ако производот успее. Во август 2024 година, Стенфорд кратко постави говорот на YouTube, но го отстрани наредниот ден без никакво коментарирање. Цврстиот став на Шмид одразува честа оска од ставови во Силиконската долина, често маскирани со правни или филозофски аргументи. Негов претставник потврди дека Шмид верува во „фер употреба“ како движечка сила за иновации, одговарајќи на техно-либертаријанскиот слоган „информацијата сака да биде слободна“, кој ја третира информацијата како ресурс што треба да тече без ограничувања. Сепак, овој принцип ретко важи за својствените информации во Силиконската долина—личните податоци и софтверот—кои се силно заштитени. Софтвери како Photoshop и иновации како пребарувачкиот алгоритам на Google или дизајнот на iPhone на Apple се патентирани и заштитени од моќни правни тимови. Технолошката индустрија често учествува во високо ризични правни битки околу интелектуална сопственост: Waymo реши судска постапка со Uber за украдени тајни за самовозечки автомобили за 245 милиони долари, Apple победи над Samsung со преку 1 милијарда долари по седумгодишна битка за патенти, а Apple и Qualcomm постојано водат судски спорови ширум светот. Во трката за развој на генеративна вештачка интелигенција, компаниите агресивно нападнаа помалку подготвени индустрии, тренирајќи AI на огромни датасети често со содржини заштитени со авторски права. Тие го оправдуваат ова поразлично: OpenAI тврди дека користи само јавни податоци; Anthropic вели дека користи книги, но не комерцијално; Meta признава дека користи книги за комерцијални цели, но смета дека тоа е „квинтеценцијална фер употреба“. Сепак, овие компании одбиваат слични тврдења за фер употреба кога заштитуваат свои креации. OpenAI забранува на корисниците да обучуваат конкурирачки модели врз оригиналите од ChatGPT; Anthropic, Google и xAI имаат слични правила—буквално „можеме да тренираме врз вашата работа, но вие не можете врз нашата“. Додека пазарните притисоци ги објаснуваат овие себични стандарди, несогласувањата меѓу практиките и изјавените вредности се очигледни.
На пример, Meta ги нарекува своите модели „отворени“, но спречува нивно онлајн копирање и бара нивното отстранување—став што е во спротивност со обемната отворена грана на софтвер. Јасно е дека вредноста на обучувачките податоци е голема: во 2021 година, извршниот директор на Anthropic, Dario Amodei, напиша за компензација за податоците преку делење од профитот или сопственост, за да се избегнат реакции од креирачите што можат да забават напредокот на AI. Сепак, Anthropic сега тврди дека користењето заштитени со авторски права е фер употреба, што на крајот ништо не им дава на креирачите, а за оваа противречност не даде коментар. Компаниите тврдат дека производите од AI се оригинални, а не производ од тренинг податоци, но извештаи покажуваат дека чатботовите и генераторите на слики можат да реплицираат скоро совршени копии на делови како Harry Potter или веќе постоечка уметност. Фирмите ги омаловажуваат овие проблеми, па дури користат и геополитички „трка на AI“ за да оправдаат широка фер употреба—OpenAI предупреди дека без ваков пристап, Америка ќе загуби во натпреварот за AI. Не сите внатрешни соговорници се согласуваат. Ед Нютон-Рекс, поранешен вицепретседател на Stability AI, поднесе оставка крајот на 2023 година, критикувајќи го сегашниот тренинг на AI како несовместлив со создавање на креативни економии базирани на авторското право, и претстави Fairly Trained, сертифицирајќи модели обучени на правилно лиценцирани податоци. Во меѓувреме, самата Силиконска долина долго време страда од кражба на интелектуална сопственост преку пиратерија со софтвер, што ги натера компаниите да ја менуваат моделот на дистрибуција: Adobe и Microsoft сега бараат претплатнички пристап со потврда за лиценца, а Google понудија дека нема превземања. Овие методи заштитуваат интелектуална сопственост, но се недостапни за многу креирачи чии дела ги искористуваат компаниите за AI. Овој двојствен третман ја подигнува дилемата дали тврдењата на Силиконската долина за фер употреба се искрени принципи или правна маска. Генеративната AI навистина поставува нови прашања околу авторските права, но агресивните тактики на индустријата—брзо дејствување, кршење и потпирање на правници за решавање на проблемите—ги одразуваат долгогодишните норми во бизнисот на Силиконската долина наместо принципиелен иновативен дух.
Watch video about
Контроверзниот совет на Ерик Шмид за етичките прашања на вештачката интелигенција ја предизвика дебатата за авторското право и фер употреба во Силиконската долина
Try our premium solution and start getting clients — at no cost to you