Erika Šmita pretrunīgās atziņas par AI ētiku izraisa debates par autortiesībām un godīgu lietošanu Silīcija Alā](https://www.example.com)
Brief news summary
Aplī 2024. gada noslēgumā bijušais Google izpilddirektors Eriks Šmits iedrošināja Stanford universitātes studentus, kuri uzsāk Silicon Valley jaunizveidotas uzņēmumus, gatavotos pārkāptētētiskas robežas, īpaši AI izstrādē. Šis padoms nāk līdz ar 19 tiesas procesiem pret ģeneratīvās AI uzņēmumiem, piemēram, OpenAI un Anthropic, kuri tiek apsūdzēti autortiesību pārkāpumos, jo mācīja AI modeļus, izmantoot aizsargātus grāmatu un media materiālus bez atļaujas. Šmits ieteica vispirms izveidot AI prototipus, lejuplādējot lielus datu kopumus, un tikai pēc tam meklēt juridisku padomu, uzsverot Silicon Valley prioritāti uz inovācijām pār stingru autortiesību ievērošanu. Šie AI uzņēmumi izmanto “godīgu lietošanu”, lai pamatotu savu datu apstrādi, bet tajā pat laikā stingri ierobežo AI ģenerēta satura atkārtotu izmantošanu, kas atklāj dubultstandartu. Iekšēji uzņēmumu dokumenti atklāj apziņu par pretestību no autoru puses un noraidījumu peļņas sadales priekšlikumiem. Kritiķi apgalvo, ka AI apmācības process netaisnīgi izmanto autortiesību aizsargātos materiālus bez atlīdzības tiem, reizēm padarot līdzīgu saturu. Nozares pārstāvji, piemēram, bijušais Stability AI viceprezidents Eds Njutons-Reks, aicina izmantot licences datu vietā. Tikmēr lielie tehnoloģiju uzņēmumi stingri aizsargā savas programmatūras autortiesības, taču neievēro aizsardzību māksliniekiem, kuru darbi ir pamats AI attīstībai. Kopumā Silicon Valley kultūra bieži ir orientēta uz strauju inovāciju, nereti apgrūtinot ētikas un juridisko normu ievērošanu.APRĪLĪ 2024. gadā bijušais Google vadītājs un mākslīgā intelekta aizstāvis Eriks Šmits aizstāvēja privātu lekciju Stanfordā, aicinot aspirējošos Silīcija ielejas uzņēmējus būt gataviem pārkāpt ētikas robežas. Neskatoties uz 19 tiesas prāvām pret ģeneratīvā mākslīgā intelekta uzņēmumiem kā Anthropic un OpenAI par autortiesību pārkāpumiem saistībā ar zagtiem grāmatām un medijiem, lietotiem AI modeļu apmācībai, Šmits iedrošināja studentus brīvi lejuplādēt saturu, lai veidotu prototipus, norādot, ka juridiskas problēmas var tikt atrisinātas pēc tam, ja produkts gūst panākumus. Stanford īsu brīdi augustā 2024. publiskoja šo lekciju YouTube, taču nākamajā dienā to dzēsa bez komentāriem. Šmita tieša attieksme atspoguļo bieži sastopamu Silīcija ielejas attieksmi, kas bieži tiek maskēta ar juridiskiem vai filozofiskiem argumentiem. Viņa pārstāvis norādīja uz Šmita uzskatu par “godīgu lietošanu” kā inovāciju veicinātāju, atsaucoties uz techno-libertāro sauklīti “informācija vēlas būt brīva, ” kas traktē informāciju kā resursu, kam jāplūst bez ierobežojumiem. Tomēr šis noteikums reti attiecas uz Silīcija ielejas privātajām informācijām—personas datiem un programmatūru—kas ir stingri aizsargātas. Programmatūra kā Photoshop vai izgudrojumi kā Google meklēšanas algoritms vai Apple iPhone dizains ir patentēti, tos aizstāv augsta līmeņa juridiskas komandas. Tehnoloģiju nozare bieži iesaistās augsta riska intelektuālā īpašuma (IP) tiesāšanās: Waymo samaksāja 245 miljonus dolāru par zaudētu tiesas prāvu pret Uber par zagtiem autonomās braukšanas tehnoloģiju noslēpumiem, Apple uzvarēja pār Samsung ar vairāk nekā miljardu dolāru lielā patentu tiesā, un Apple ar Qualcomm atkārtoti iesūdz viena otru tiesā visā pasaulē. Lielajā konkurencē uz ģeneratīvā mākslīgā intelekta izstrādi uzņēmumi agresīvi ir pievērsušies mazāk sagatavotajām nozarēm, apmācot AI uz milzīgiem datu kopumiem, bieži saturot autortiesību aizsargātu materiālu. Uzņēmumi šos strīdīgus jautājumus attaisno dažādi: OpenAI apgalvo, ka izmanto tikai publiski pieejamus datus; Anthropic saka, ka izmanto grāmatas, bet ne komerciāli; Meta atzīst, ka izmanto grāmatas komerciāli, bet to sauc par “ideālu godīgu lietošanu. ” Tomēr šīs paša uzņēmumi noraida līdzīgas godīgas lietošanas prasības, aizsargājot savus radījumus. OpenAI aizliedz lietotājiem trenēt konkurējošus modeļus uz ChatGPT izvadiem; Anthropic, Google un xAI ir līdzīgas prasības — būtībā “mēs varam trenēt uz jūsu darba, bet jūs nevarat trenēt uz mūsu. ” Lai arī tirgus spiedieni skaidro šos pašatbalsta standartus, pretrunas starp darbiem un publiski izteiktajām vērtībām ir acīmredzamas.
Piemēram, Meta sauc savus modeļus par “atvērtajiem, ” taču tie ir aizliegti tiešsaistes kopijās, un tiek pieprasīta to noņemšana—pozīcija, kas ir pretrunā ar pašas atvērtā koda ģenerozitāti. Apmācības datu vērtība ir skaidra: 2021. gadā Anthropic vadītājs Dario Amodei rakstīja par to, kā maksāt datu izstrādātājiem ar peļņas daļām vai kapitāla daļu, lai izvairītos no radītāju pretestības, kas varētu palēnināt AI attīstību. Taču tagad Anthropic apgalvo, ka autortiesību aizsargāts darbs ir “godīga lietošana, ” kas radītājiem neko neliedz, un nav komentējuši šo pretrunu. Uzņēmumi apgalvo, ka AI rezultāti ir oriģināli, nevis uz apmācības datiem balstīti pārstrādājumi, taču ziņojumi rāda, ka čatboti un attēla ģeneratori var reproducēt gandrīz identiskas kopijas no piemēram, “Harry Potter” vai esošās mākslas darbiem. Uzņēmumi ir minimizējuši šīs problēmas, pat invokedot ģeopolitiska “AI sacensību” bažas, lai pamatotu plašo godīgu lietošanu—OpenAI brīdināja, ka bez šādas piekļuves Amerikas ir apdraudēta pozīcija AI sacensībās. Ne visi iekšieni piekrīt. Eds Njufton-Reks, bijušais Stability AI viceprezidents, 2023. gada nogalē atkāpās, kritizējot esošo AI apmācību kā nesaderīgu ar jau esošo autortiesību balstītu radošo ekonomiku, un uzsāka Fairly Trained, sertificējot AI modeļus, kas ir apmācīti uz pareizi licencētiem datiem. Tikmēr Silīcija ieleja jau ilgu laiku ir ciešusi no programmatūras pirātisma un intelektuālā īpašuma zādzībām, kas liek uzņēmumiem mainīt izplatīšanas modeļus: Adobe un Microsoft tagad pieprasa abonēšanas piekļuvi ar licences pārbaudi, bet Google nesniedz lejupielādes. Šīs metodes aizsargā IP, taču daudziem radītājiem, kuru darbus AI uzņēmumi izmanto, tās nav pieejamas. Šī divējāda standarta izraisīto šaubas par Silīcija ielejas apgalvojumiem par “godīgu lietošanu”—vai tie ir patiesi principi vai juridiska maskēšanās?Ģeneratīvais mākslīgais intelekts patiešām rada jaunas jautājumu par autortiesībām, bet šīs industrijas agresīvā pieeja—steidzas, pārkāpj un cer uz juristiem, kas atrisinās problēmas—atspoguļo ilglaicīgas Silīcija ielejas uzņēmējdarbības normas vairāk nekā principu veidošanu.
Watch video about
Erika Šmita pretrunīgās atziņas par AI ētiku izraisa debates par autortiesībām un godīgu lietošanu Silīcija Alā](https://www.example.com)
Try our premium solution and start getting clients — at no cost to you