lang icon Lithuanian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
3

Diskusija dėl dirbtinio intelekto ateities: apokalipsė ar įprastas gyvenimas? Pagrindinių ekspertų įžvalgos

Praėjusiame pavasarį Daniel Kokotajlo, dirbęs „OpenAI“ AI saugumo tyrėjas, pasitraukė protestuodamas, įsitikinęs, kad įmonė nėra pasirengusi ateities, kurioje dominuos dirbtinis intelektas, ir siekdamas įspėti apie galimus pavojus. Pokalbyje telefonu jis pasirodė draugiškas, bet nerimastingas, aiškindamas, kad pažanga „suderinimo“ srityje — metodų, užtikrinančių, kad dirbtinis intelektas laikytųsi žmogaus vertybių — lėtėja, smarkiai atsiliekant nuo intelektinių pasiekimų. Jis įspėjo, kad mokslininkai skubina kurti galingas sistemas, kurių valdyti tampa vis sudėtingiau. Kokotajlo, kuris perėjo iš filosofijos magistrantūros į dirbtinį intelektą, savarankiškai išmokęs sekti AI pažangą ir prognozuoti kritinius intelektinius etapus, po to, kai AI pažanga įsibėgėjo greičiau nei tikėtasi, nusprendė peržiūrėti savo laikotarpius dešimtmečiais į priekį. Jo 2021 metų scenarijus „Kaip atrodys 2026 metai“ išsipildė anksti, daugelis prognozių pasitvirtino, ir tai paskatino jį įsivaizduoti, kad 2027-aisiais ar anksčiau gali būti ta „negrįžimo taškas“, kai dirbtinis intelektas gali pranokti žmogų daugelyje svarbių užduočių ir įgyti didžiulę galią. Jis jautė baimę. Tuo pačiu metu Princeton kompiuterių mokslo specialistai Sayash Kapoor ir Arvind Narayanan rengė savo knygą „AI Vargučių aliejus“, kuri labai kontrastuojanti su Kokotajlo požiūriu. Jie teigė, kad AI laikotarpiai yra pernelyg optimistiški; dažnai dirbtinio intelekto naudingumas yra dezinformuojamas ar apgaulingas; o sudėtingas realaus pasaulio pobūdis reiškia, kad AI poveikis bus lėtas. Pavyzdžiais jie paminėjo klaidas medicinoje ir įdarbinimo srityje, pabrėždami, kad net naujausios sistemų versijos kenčia nuo founding nesuderinamumo su realybe. Neseniai visi trys iš naujo sugriežtino savo pozicijas naujais ataskaitomis. Kokotajlo ne pelno siekiančios organizacijos AI Futures Project išleido „AI 2027“, detalią ir dažnai cituojamą ataskaitą, aprašantį niūrią scenarijų, kad superintelektas galimai dominuos arba išnaikins žmoniją iki 2030 metų — rimtas įspėjimas. Tuo tarpu Kapoor ir Narayanan straipsnyje „AI kaip įprasta technologija“ teigiama, kad praktinės kliūtys — nuo teisės aktų ir saugumo standartų iki fizinių pasaulinių apribojimų — sulėtins AI diegimą ir sukels mažesnį revoliucinį poveikį. Jie teigia, kad AI išliks „įprasta“ technologija, kurią galima valdyti per įprastus saugumo būdus — nuo atjungimo perjungiklių iki žmogaus priežiūros, ir lygina ją labiau su branduoline energija nei su branduoliniais ginklais. Tad kas bus: įprastas verslas ar apokaliptinis kataklizmas?Šie du absoliučiai skirtingi, itin kompetentingų ekspertų pateikti išvados — tai tarsi diskusija apie dvasingumą su Richardu Dawkinu ir popiežiumi. Sunku išspręsti, nes dalis problemos kyla iš pačios AI naujumo — kaip aklieji, apžiūrintys skirtingas gyvūno dalis, — ir dalis iš gilių pasaulėžiūrinių skirtumų. Paprastai Vakaruose technologijų mąstytojai įsivaizduoja greitą pokytį, o Rytų pakrantės akademikai yra skeptiškesni. AI tyrėjai vertina greitą eksperimentinę pažangą; kiti kompiuterių mokslininkai siekia teorinio išmanymo. Pramonės atstovai trokšta rašyti istoriją; outsideriai atmeta technologijų šou. Politinės, žmogaus ir filosofinės nuomonės apie technologijas, progresą ir protą dar labiau gilina atskirtį. Šis įdomus diskursas pats tampa problema. Pramonės atstovai daugiausia sutinka su „AI 2027“ prielaidomis, tačiau ginčijasi dėl terminų, — tai panašu į ginčus dėl laiko, kai planeta-žudikė artėja. O vidutinės pozicijos, kaip „AI kaip įprasta technologija“, kurios siūlo laikyti žmones įtrauktus į procesus, yra tokia nuosaiki, kad ją beveik ignoruoja visuomenėje dažniau pasireiškiantys apokaliptiniai analitikai. Kadangi AI tampa vis svarbesnė visuomenės gyvenimui, dialogas turi pereiti iš specialistų diskusijos į bendrą sutarimą, kuris galėtų būti pagrindas veiksmams. Trūksta vieningos ekspertų nuomonės, todėl sprendėjai dažnai ignoruoja rizikas — tai panašu į nesusitarti, kada planetos naikinimo prognozės yra tikros. Tuo pačiu, nuo šiol „AI kaip įprasta technologija“ ir toliau siūlo galimybę palaukti ir stebėti, o jų nuosaikesnės pozicijos dažnai laikomos kiek per atsargesnėmis ir mažai pastebimos. Kadangi AI tampa vis labiau socialiai reikšminga, būtina, kad diskusijos iš specialistų lygio pereitų į praktinį priėmimą ir sutartį. Trūksta bendro patarimo ir krypties, todėl sprendėjai dažnai ignoruoja realius iššūkius ir pažeidžiamumus. Šiuo metu „AI kompanijos“ ir toliau labiausiai nusiteikusios prieš visą stipresnį saugumo ir rizikos dėmenį.

Tuo pačiu, naujos teisės aktai neleidžia valstybės reguliuoti AI modelių ir automatizuotų sprendimų sistemų dešimt metų — tai potencialiai leidžia AI reguliuoti ir žmoniją, jei pasitvirtins blogiausias scenarijus. Saugumo sprendimų nebeužtenka atidėlioti — tai skubus iššūkis. Numatyti AI ateitį naudojant naratyvinius sprendimus reiškia daryti pasiūlymus, kuriuose tramdomos mažai tikėtinos rizikos, tačiau didinama netikėta ar fantastiška galimybė. Tad netgi būdami įžvalgiesni, dažno autoriaus prognozės, tokios kaip Williamo Gibsono romanų futuristinės, dažnai būna apskaičiuotos pagal pačias svajones, ne jis nepasitikėjimą realybe. „AI 2027“ yra ryškiai vaizduojama ir spekuliatyvi, kaip mokslo fantastika su išsamiais grafikais. Ji prognozuoja netolimą intelektų sprogimą aplink 2027 metų vidurį, kurį sukelia „rekursinė savęs tobulinimo“ (RSI) procesas, kai AI sistemos pažindinasi su pačiomis savimi ir patobulina save, sukuria vis protingesnius palikuonis, kurie atsiduria spartėjančiuose grįžtamuosiuose ryšiuose, pranokstančiuose žmogaus kontrolę. Tai galėtų iššaukti geopolitinius konfliktus, pvz. , Kinija statydama didelius duomenų centrus Takajame arba kitus veiksmus siekiant valdyti AI. Šios scenarijaus detalės sustiprina įtikinamumą, tačiau yra lankstesnės — svarbiausia yra matyti, kad netrukus gali įvykti intelektų sprogimas ir įsibėgės galios kovos. RSI yra hipotetinė ir pavojinga idėja; AI įmonės ją pripažįsta, tačiau planuoja siekti jos įgyvendinimo, kad automatizuotų savo darbą. Sėkmė priklauso nuo technologinių veiksnių, tokių kaip mastelis, kurie gali susidurti su ribojimais. Jei RSI pavyks, gali atsirasti superintelektas, pranokstantis žmogaus protą — tai mažai tikėtina, jei pažanga sustos šiek tiek virš žmogaus lygio. Pasekmės galėtų būti karinės ginkluotės lenktynės, AI manipuliavimas ar išnaikinimas žmonijos, arba geranoriškas superintelektas, sprendžiantis suderinamumo problemas. Neapibrėžtumas išlieka dėl nuolat kintančios AI prigimties, privačių tyrimų slaptumo ir spekuliacijų. „AI 2027“ tikrai aprašo scenarijų, kai technologijoms ir žmonijai nepavyksta, nes įmonės siekia RSI, nors trūksta aiškių mechanizmų interpretacijai ir kontrolei. Kokotajlo teigia, kad tai yra sąmoningi sprendimai, kuriuos lemia konkurencija ir smalsumas, nepaisant žinomų pavojų, todėl įmonės patenka į nesuderinamas veiklos lauką. Priešingai, Kapoor ir Narayanan „AI kaip įprasta technologija“ remiasi konservatyvia Rytų pakrantės perspektyva, grindžiama istorine patirtimi. Jie skeptiškai žiūri į greitą intelektualų sprogimą, nes nurodo „greičio ribas“ — technines ir socialines kliūtis, tokias kaip aparatūros sąnaudos, duomenų trūkumas ir platesnės technologijų taikymo apimtys. Jie sako, kad revoliucinis poveikis užtruks laiko, ir bus galima imtis reguliavimo ir saugumo priemonių. Pasak jų, intelektas nėra svarbesnis už galią — gebėjimą keisti aplinką — ir net labai pažangios technologijos paprastai plinta lėtai. Tą iliustruoja vairavimo be vairuotojo automobilių sklaida ir Moderna vakcinos kūrimas: nors vakcinos dizainas buvo greitas, jos platinimas užtruko apie metus dėl biologinių ir institucinių aplinkybių. AI inovacijos nepanaikins realių, reguliavimo ar fizinių kliūčių įvesti naujoves. Be to, Narayanan pabrėžia, kad orientacija į intelektą sumenkina srities specifiką — ekspertizę ir jau esamus saugumo mechanizmus inžinerijoje, kaip avarijos stabdžiai, atsarginiai sprendimai ar formalūs patikrinimai, kurie jau dabar užtikrina saugumą kartu su žmogaus priežiūra. Technologinis pasaulis yra gerai reguliuojamas, ir AI turi būti įjungtas į šią struktūrą lėtai. Jie neapima karinės AI, kuri turi savo dinamiką ir įslaptintus aspektus, ir perspėja, kad AI karinizacija, kaip viena iš pagrindinių „AI 2027“ baimių, reikalauja specialaus dėmesio. Jie pataria imtis prevencinių valstybinės valdžios priemonių: reguliatoriai ir organizacijos neturėtų laukti tobulos AI suderinamumo, bet pradėti stebėti realų jos naudojimą, rizikas ir klaidas, stiprinti taisykles ir pasirengimo galimybes. Gilių pasaulėžiūrinių skirtumų priežastis iš dalies yra pažadinusi AI provocuoti reakciją, sukūrusi įsišaknijusias grupes ir ciklus. Visgi, galima įsivaizduoti bendrą požiūrį įveikiantį skirtingus nemalonumus — kaip „kognityvinės gamyklos“ modelį: erdvę, kurioje žmonės su saugumo priemonėmis valdo mašinas, skirtas produktyvumui ir saugumui, turinčias aiškų kokybės kontrolės sistemą, palaipsniui įtraukiant naujoves ir aiškią atsakomybę. Nors AI leidžia automatizuoti tam tikras smegenų funkcijas, žmogaus valia ir atsakomybė išlieka svarbiausios. Augant AI reikšmei, ji nesumažina žmogaus gebėjimų, o priešingai — stiprina atsakomybę, nes papildyti asmenys turi didesnę įsipareigojimų naštą. Atsitraukti nuo kontrolės yra pasirinkimas, kuriuo įrodomas žmogaus galios ir atsakomybės esmės svarbumas — galutinis sprendimas visada lieka žmogaus rankose. ♦



Brief news summary

Praeito pavasario dirbtinio intelekto saugumo tyrėjas Daniel Kokotajlo paliko „OpenAI“ įmonę, įspėdamas, kad AI suderinamumas nesugeba išlaikyti sparčiai teikiamų technologinių pokyčių ritmo ir prognozuodamas „negrįžtamumo tašką“ iki 2027 metų, kai dirbtinis intelektas gali pranokti žmones daugelyje užduočių. Jis pabrėžė rizikas, susijusias su nuolatiniu savęs tobulinimu ir eskaluojančia geopolitine konkurencija, kas galėtų sukelti katastrofiškus padarinius. Priešingai, Princetono mokslininkai Sayash Kapoor ir Arvind Narayanan, kurie yra knygos *AI Snake Oil* autoriai, tvirtina, kad AI poveikis vystysis pamažu, būdamas veikiamas reguliavimo, praktinių ribų ir lėto priėmimo. Jų studija „AI kaip įprasta technologija“ palygina dirbtinį intelektą su branduoline energija — sudėtinga, tačiau valdoma per įprastas saugumo sistemas. Ši diskusija atskiria dvi nuostatas: Vakaruose optimizmas dėl technologijų stiprina greitą eksperimentavimą, o Rytų pakrantės atsargumas akcentuoja išsamias teorijas ir valdymą. Kokotajlo ragina nedelsti ir imtis veiksmų dėl neatpažįstamų rizikų, kurias kelia konkurencija ir neaiškios sistemos, o Kapoor ir Narayanan palaiko aktyvų valdymą bei saugią AI integraciją, išskyrus karinį AI dėl unikalių pavojų. Visa ši diskusija pabrėžia skubios vieningos ir atsakingos priežiūros būtinybę, akcentuojant budrumą, žmogaus kaip valdytojo vaidmenį ir atsakomybę, nes AI vis labiau įsilieja į visuomenę.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 28, 2025, 2:51 p.m.

„„Google“ vėl įžengia į išmanesniųjų akinių rinką…

„Google“ grįžta į išmaniųjų akinių rinką po daugiau nei dešimtmečio, kai jos pirmosios „Google Glass“ nesugebėjo plačiai išplisti.

May 28, 2025, 2:15 p.m.

EvianCX vadovas Victor Sandoval atskleidžia vizij…

DUBAI, Jungtiniai Arabų Emyratai, 2025 m.

May 28, 2025, 1:13 p.m.

Patvirtinamųjų specialistų darbo praradimai dėl d…

Dario Amodei, „Anthropic“ vadovas, žinomos dirbtinio intelekto įmonės, išreiškė rimtą įspėjimą apie greitos AI pažangos galimas pasekmes.

May 28, 2025, 12:38 p.m.

Finansai pasiruošę blockchain perkeitimui

Šiuolaikinė finansų sistema patiria pagrindinį išbandymą, kuriame išbandoma pasaulinės ekonominės stabilumo galimybės.

May 28, 2025, 11:31 a.m.

Dirbtiniu intelektu paremti pokalbių robotai stip…

Dirbtinis intelektas (DI) keičia daugelį kasdienio gyvenimo aspektų, tačiau kibernetiniai nusikaltėliai naudojasi šiuo progreso pasiekimu, kad plėstų sukčiavimo atakas.

May 28, 2025, 10:52 a.m.

Blockchain Asociacija ragina SEC taikyti lankstes…

Blockchain asociacija, kuri atstovauja didžiausias kriptovaliutų įmones, tokias kaip Coinbase, Ripple ir Uniswap Labs, neseniai pateikė oficialius komentarus JAV Vertybinių popierių ir biržos komisijai (SEC), kurią dabar vadovauja pirmininkas Paul S. Atkins.

May 28, 2025, 9:46 a.m.

Dirbtinio intelekto vaidmuo sprendžiant sveikatos…

„Axios Future of Health“* * (Svečių susitikimas) gegužės 14 d

All news