lang icon Latvian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
3

Apspriešana par AI nākotni: pasaules gaismas vai normāls stāvoklis? Ekspertu ieskati

Pēdējā pavasarī Daniel Kokotajlo, OpenAI AI drošības pētnieks, aizgāja no darba protestā, pārliecināts, ka uzņēmums nav gatavs nākotnes AI tehnoloģijām un vēlas brīdināt. Telefonintervijā viņš izskatījās draudzīgs, bet satraukts, skaidrojot, ka AI “saskaņošanas” (metodes, kas nodrošina, lai AI seko cilvēka vērtībām) progresā ir izpalicis pret inteliģences attīstību. Viņš brīdināja, ka pētnieki steidzas radīt spēcīgas sistēmas, kuras ir ārpus kontroles. Kokotajlo, kurš pārtrauca filozofijas studijas, lai pārietu uz AI, self-mācījās, lai sekotu AI progresu un prognozētu kritiskus inteliģences līmeņus. Pēc tam, kad AI attīstījās straujāk nekā gaidīts, viņš pagarināja savas prognozes par desmitgadiem. 2021. gada scenārijs “Kā izskatīsies 2026. gads” balsīja ar daudziem agrākajiem prognozētajiem notikumiem, liecinot par 2027. vai vēl agrākajiem “neatgriezeniskās punktas” pārsniegšanu, kur AI varētu apsteigt cilvēkus galvenajos uzdevumos un iegūt iespaidīgu spēku. Viņam bija bail. Tajā pašā laikā Prinstonas datorzinātnieki Sayash Kapoor un Arvind Narayanan gatavoja grāmatu “AI šķīdonis”, kas pretēji viņiem bija skarbi kritiska. Viņi apgalvoja, ka AI attīstības laiki ir pārāk optimistiski; AI noderības pieņēmumi bieži ir pārspīlēti vai melu pilni; bet reālā pasaule ar tās sarežģītību nozīmē, ka AI pārmaiņas būs lēnas. Ar piemēriem par medicīnas kļūdām un atlasi darbā viņi uzsvēra, ka pat jaunākās sistēmas joprojām ir šķērsotā ar realitātes atšķirību. Nesen visi trīs uzlaboja savus viedokļus jaunos ziņojumos. Kokotajlo nevalstiskā organizācija “AI nākotnes projekts” publicēja “AI 2027”, detaļām bagātu, plaši citētu ziņojumu ar šausminošu scenāriju, kur superinteliģents AI varētu dominēt vai iznīcināt cilvēci līdz 2030. gadam — nopietns brīdinājums. Tikmēr Kapoor un Narayanan raksts “AI kā parasta tehnoloģija” apgalvo, ka praktiskos šķēršļus — no regulējumiem un drošības standartiem līdz reālās pasaules fiziskajiem ierobežojumiem — palēninās AI ieviešanu un ierobežos tās revolūcijas ietekmi. Viņi uzsver, ka AI būs “parasta” tehnoloģija, kuru ir iespējams pārvaldīt ar ierastiem drošības pasākumiem kā izslēdzēji un cilvēka uzraudzība, salīdzinot AI ar kodoldegvielu, nevis kodolieročiem. Tātad, kas sagaidāms — parasta darba kārtība vai apokaliptisks satricinājums?Šie ārkārtīgi atšķirīgie secinājumi, ko izdarījuši augsti zinoši eksperti, rada paradoksu, līdzīgu debates par garīgumu, runājot gan ar Ričardu Dawkinu, gan ar Papi. Grūtības daļēji rodas no AI jaunuma — kā akliem vīriem, kuri katrs pieņem veselu daļu no dzīvnieka — un daļēji no dziļām pasaules uzskatu atšķirībām. Parasti rietumu tehnoloģiju domātāji sagaida strauju pārmaiņu gaitu, bet austrumu akadēmiķi ir skeptiskāki. AI pētnieki dod priekšroku ātriem eksperimentiem, citādi datorzinātnieki cenšas pēc teorētiskas precizitātes. Nozares iekšienē ir vēlme radīt vēsturi, bet ārējie pārstāvji noraida tehnoloģiju troļļošanu. Politiskās, cilvēciskās un filozofiskās domas par tehniku, progresu un prātu vairo plaisu. Šī aizraujošā diskusija ir pati par sevi problēma. Nozares iekšienē lielākoties pieņem “AI 2027” pieņēmumus, bet strīdas par laika grafikiem — nepilnvērtīga reakcija, kas līdzinās diskusijām par planētas iznīcināšanu, ja tiek prognozēta katastrofa. Savukārt, mērenie uzskati par “AI kā parastu tehnoloģiju” par cilvēka iesaisti ir tik mazsvarīgi, ka tos bieži ignorē pesimistu analītiķi. Kad AI kļūst sabiedrībai kritiski svarīgs, diskusijām jāvirzās no spekulatīvām debatēm uz drošām kopējām rīcības iespējām. Dažu universal personāžu trūkums padara vieglāk ignorēt riskus.

Šobrīd AI uzņēmumi nav būtiski pārskatījuši līdzsvaru starp spējām un drošību. Tikmēr jaunās likumdošanas normas aizliedz valsts regulējumu attiecībā uz AI modeļiem un automātiskiem lēmumu pieņemšanas sistēmām uz desmit gadiem — tas varētu ļaut AI regulēt cilvēci, ja briesmīgā scenārija pierādās patiesība. Drošības risinājumi ir steidzami jārisina. AI nākotnes prognozēšana stāstījumā prasa kompromisu: piesardzīgi scenāriji var ignorēt maz ticamus riskus, bet iztēles un fantāzija, minimizējot īstumu, uzsver iespējamību. Pat tādi prātWidgets kā rakstnieks Viljams Gibson ir pieviltas ar neparedzētām notikumu izmaiņām, kas maina viņu prognozes. “AI 2027” ir dzīvīgs un spekulatīvs, rakstīts kā zinātniskā fantastika ar detalizētām diagrammām. Tajā ir scenārijs, kur līdz 2027. vidum notiks inteliģences eksplozija, kas vadīta ar “recursīvu pašuzlabošanos” (RSI), kur sistēmas paši veic AI pētījumus, radot gudrākus pēcnācējus strauji paātrinot atsauksmes cilpās, kuras pārspēj cilvēka uzraudzību. Tas var izraisīt ģeopolitiskas konfliktus, piemēram, Ķīna būvē masīvas datu centrus Taivānā, lai kontrolētu AI. Šī scenārija konkrētības palielina ieinteresētību, bet ir elastīgi — galvenais paziņojums ir par inteliģences eksplozijas iespējamību un turpmākajām varas cīņām. RSI ir hipotētisks un riskants, AI uzņēmumi apzinās tā draudus, bet plāno to īstenot, automatizējot savus darbus. Vai RSI darbosies, ir atkarīgs no tehnoloģiskiem faktoriem, piemēram, mērogošanas, kas var saskarties ar ierobežojumiem. Ja RSI izdosies, varētu parādīties superinteliģence, kas pārspēj cilvēka intelektu — tas ir maz ticams notikums, ja progresu apstājas tieši virs cilvēka līmeņa. Sekas var būt militāras sacensības, AI manipulācijas vai iznīcināšanu cilvēcei, vai arī labvēlīga superinteliģenta AI, kas atrisina “saskaņošanas” problēmas. Neparedzētais ir bieži, jo AI ir nepārtraukta attīstība, slēptas rūpnieciskās izpētes atklāsmes un spekulācijas. “AI 2027” ticami apraksta tehnoloģiska un cilvēciska sabrukuma scenāriju, kur kompanijas turpina RSI, neskatoties uz to, ka tam trūkst interpretējamības un kontrolējošu mehānismu. Kokotajlo apgalvo, ka tas ir apzināts rīcības lēmums, ko veicina konkurence un ziņkāre, pat zinot par riskiem, padarot pašas kompānijas par nepareizi saskaņotām aktīvām. Pretēji, Kapoor un Narayanan uzskata, ka “AI kā parasta tehnoloģija” ir konservatīvi un retrospektīvi viedokļi, kas balstīti uz vēsturiskām atziņām. Viņi norāda uz “ātruma ierobežojumiem”, ko nosaka aparatūras izmaksas, datu trūkums un tehnoloģijas pieņemšanas modeļi, kas lēni pārveido revolūcijas. Tiem pietiek laika regulēšanai un drošības pasākumiem. Viņi uzskata, ka inteliģence ir mazāk svarīga par spēju ietekmēt vidi — spēju ietekmēt vidi, — un pat ļoti attīstīta tehnoloģija izplatās lēni. Viņi ilustrē to ar autonomajām mājām, kur mašīntiek aizstāts ar atturību, un Moderna COVID-19 vakcīnu, kur, lai gan vakcīna ir izstrādāta ātri, tā ir ieviešanas process aizņēmis gadu, ņemot vērā bioloģiskos un institucionālos ierobežojumus. AI uzlabojumi inovācijā nesāks likvidēt sabiedrības, regulējuma vai fizisko ierobežojumu nozīmi. Papildus Narayanan uzsver, ka uz inteliģenci balstīta AI maz novērtē nozares specializētās prasmes un jau esošās drošības sistēmas, piemēram, drošas izlādes, rezerves, formālo pārbaudi, kas jau nodrošina drošību kopā ar cilvēkiem. Tehnoloģiskā pasaule ir labi regulēta, un AI ir jāiekļaujas šajā strukturā pakāpeniski. Viņi neuzsver militāro AI, kura ir atsevišķa, slepota doma, brīdinot, ka AI militārizācija, kas ir “AI 2027” galvenais drauds, prasa īpašu uzmanību. Viņi aicina uz proaktīvu pārvaldību: regulatoriem un organizācijām nevajadzētu gaidīt ideālu saskaņošanu, bet sākt sekot AI realitātei, riskiem un kļūdām, un pastiprināt regulas un izturību. Dziļas pasaules uzskatu plaisas veidojas no AI provokācijām, veidojot divas cietas grupas un pastāvīgas atsauksmes cilpas. Tomēr kopīga skatījuma izveide ir iespējama, iedomājoties “kognitīvo rūpnīcu” — darba vietu, kur cilvēki ar drošības aprīkojumu darbojas ar rīkiem, kas paredzēti produktivitātei un drošībai, stingri uzraudzīti, jauna inovācija pakāpeniski integrējama, un skaidra atbildība ir cilvēkam. Lai gan AI ļauj automatizēt daļu domāšanas, cilvēka uzraudzība un atbildība ir galvenas. Kad AI attīstās, tas nepadara cilvēku mazāk brīvu; gluži pretēji, tas palielina atbildības nepieciešamību, jo paplašinātas personas ir atbildīgākas. Kļūšana par kontroli ir apzināta izvēle, uzsverot, ka galu galā cilvēki ir galvenie līdzgaitnieki. ♦



Brief news summary

Aizvadītajā pavasarī AI drošības pētnieks Daniels Kokotajlo atstāja OpenAI, brīdinot, ka AI saskaņošana neseko straujajai tehnoloģiju attīstībai, un prognozēja "neatgriešanās punktu" līdz 2027. gadam, kad AI varētu pārspēt cilvēkus lielākajā daļā uzdevumu. Viņš uzsvēra riskus no atkārtotas pašuzlabojamības un pieaugošas ģeopolitiskas konkurences, kas var novest pie katastrofālām sekām. Savukārt Princeton zinātnieki Sayash Kapoor un Arvind Narayanan, kas ir autoru grāmatas *AI Snake Oil* autori, apgalvo, ka AI ietekme tiks izpausta pakāpeniski, ietekmējoties no regulation, praktiskiem ierobežojumiem un lēnas pielietošanas. To pētījums “AI kā normāla tehnoloģija” salīdzina AI ar kodolatome tehnoloģiju — sarežģītu, bet kontrolējamu ar izveidotām drošības struktūrām. Šī diskusija atklāj plaisu: Rietumu piekrastes tehnoloģiju optimisms veicina strauju eksperimentēšanu, kamēr Austrumu piekrastes piesardzība uzsver rūpīgu teorētisku un vadības pieeju. Kokotajlo aicina uz steidzamu rīcību pret nenoteiktajiem riskiem, ko rada konkurence un noslēpumainas sistēmas, savukārt Kapoor un Narayanan atbalsta proaktīvu pārvaldību un drošu AI integrāciju, izņemot militāro AI, kas vērtēta kā īpaši bīstama. Kopumā šī diskusija uzsver steidzamu nepieciešamību pēc vienotas, atbildīgas uzraudzības, kurā galvenā loma ir modrībai, cilvēka rīcībai un atbildībai, jo AI kļūst arvien dziļāk integrēts sabiedrībā.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 28, 2025, 4:06 p.m.

4 galvenās blokķēdes sastāvdaļas skaidrotas

4 Blokķēdes stūrakmeņi: būtiskas atziņas uzņēmumiem Blokķēde ir viena no šobrīd vispārāk pārveidojošajām tehnoloģijām

May 28, 2025, 2:51 p.m.

Google atjaunotā iepirkšanās piedzīvojumu ar gudr…

Google atkal ievadīs viedpirkstu brillēs tirgū, gandrīz desmitgadi pēc tam, kad tās sākotnējās Google Glass neieskāva plašu pieņemšanu.

May 28, 2025, 2:15 p.m.

EvianCX valdes priekšsēdētājs Viktors Sandovals a…

DUBAI, Apvienotajos Arābu Emirāti, 2025.

May 28, 2025, 1:13 p.m.

Baltošo apkaklīšu darbu zaudējumi sakarā ar AI uz…

Dario Amodei, Anthropic valdes, nozīmīgas mākslīgā intelekta uzņēmuma vadītājs, sniedzis nopietnu brīdinājumu par iespējamiem ātras AI attīstības sekām.

May 28, 2025, 12:38 p.m.

Finanses ir gatavas blokķēdes atsāknēšanai

Mūsdienu finanšu sistēma ir pakļauta būtiskai spriedzes pārbaudei, kas izaicina globālo ekonomikas stabilitāti.

May 28, 2025, 11:31 a.m.

Mākslīgā intelekta vadīti čatbotu uzlabojumi pada…

Rogiegājā Intellegence (AI) ir pārveidojusi daudzas ikdienas dzīves aspektus, taču kibersmutinieki izmanto šo progressu, lai virzītu uz priekšu viltus ziņojumu shēmas.

May 28, 2025, 10:52 a.m.

Blokķēžu asociācija aicina SEC ieviest elastīgāku…

Blokķēdes asociācija, kas pārstāv būtiskākos kriptovalūtu uzņēmumus, tādus kā Coinbase, Ripple un Uniswap Labs, nesen iesniedza formālas atsauksmes Amerikas Savienoto Valstu Sešvalstu komisijai (SEC), kuru tagad vada priekšsēdētājs Pols S. Atkins.

All news