lang icon Estonian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
1

Arutelu tehisintellekti tuleviku üle: apokalüpsis või tavapärasus? Juhtivate ekspertide vaated

Eelmisel aastal sai korda, et Daniel Kokotajlo, OpenAI tehisintellekti turvalisuse uurija, lahkus protestiks, veendumusega, et ettevõte pole valmis tuleviku tehisintellekti tehnoloogia jaoks ning sooviga tekitada hoiatust. Telefoni teel näis ta sõbralik, kuid ärevil, seletades, et edusammud tehisintellekti „haardes” — meetodites, mis tagavad, et tehisintellekt järgib inimväärtusi — jäävad maha intelligentsuse arengutest. Ta hoiatas, et teadlased kiirustavad looma tugevamaid süsteeme, mida kontrolli all hoida on raske või võimatu. Kokotajlo, kes vahetas filosoofia magistriõppest AI arengu juurde, oli ise õppinud jälgima tehisintellekti edenemist ning prognoosima, millal võiksid toimuda kriitilised intelligentsusmilestonid. Kui AI areng kiirenes ootamatult, kohandas ta oma ajakava aastakümnetega. Tema 2021. aasta stsenaarium „Mis 2026 välja näeb” nägi paljusid prognoose varakult täide minemas, mis sundis teda uskuma, et juba 2027. või varem tekib „punkt, millest tagasiteed ei ole”, kus AI võib inimestest üle olla kõige olulisemates ülesannetes ning suure võimuga varustatud. Ta kõneles hirmust. Samal ajal valmistasid Princeton’i arvutiteadlaset Sayash Kapoor ja Arvind Narayanan oma raamatut „AI mainekaine” (AI Snake Oil), mis pakkus tugeva vasturääkiva vaate. Nad väitsid, et AI ajakavad on liiga optimistlikud; väited AI kasulikkuse kohta on sageli liialdatud või petlikud; ning reaalse maailma keerukus tähendab, et AI’le olulised muutused toimuvad aeglaselt. Näidates näiteid meditsiinis ja personaliväljakutsetes tehtud vigadest, rõhutasid, et isegi uusimad süsteemid kannatavad põhimõttelise mittesobivuse tõttu reaalsusega. Hiljuti täiendasid kõik kolm oma seisukohti uutes raportites. Kokotajlo mittekaubandusorganisatsiooni, AI Futures Projecti, avaldatud raport „AI 2027” kirjeldab lämmatavat stsenaariumi, kus sensatsiooniline tehisintellekt võib juba 2030. aastaks inimese tsivilisatsiooni kontrolli alt välja viia või hävitada — tõsine hoiatus. Samal ajal kinnitavad Kapoor ja Narayanan teoses „AI kui tavaline tehnoloogia”, et praktilised takistused — alates regulatsioonidest ja ohutusstandarditest kuni füüsikaliste piirideni — aeglustavad AI kasutuselevõttu ning piiravad selle revolutsioonilist mõju. Nad usuvad, et AI jääb normaalseks tehnoloogiaks, mida saab hallata tuttavate ohutusmeetmetega nagu väljalülituslülitid ja inimjärelevalve, ning võrdlevad seda pigem tuumajõuga kui tuumarakettidega. Nii et, millest saab jutt: tavaline äri või apokalüptiline mäsu?Nende raportite järeldused, mis püüdlevad vastandlikke tencohtumusi, tekitavad paradoksi, mida võrrelda vaidlusega vaimsuse üle, kus osalevad nii Richard Dawkins kui paavst. Osaliselt tuleneb see AI uudsusest — nagu pimedad mehed, kes uurivad elevantide eri osi — ning osalt maailmavaadete põhjusest. Üldiselt leidub lääne-kallutusega tehnoloogianõustajatel kiire muutuse usku; idapoolsetel akadeemikutel on skeptiline hoiak. AI teadlased toetuvad kiirele eksperimendaarsele edule; teised arvutiteadlased rõhutavad teoreetilist pädevust. Tööstuse siseringi huvi on ajaloo tegemine; välised vaatlejad kehitavad pead tehnoloogia hüpetest. Poliitilised, humanitaar- ning filosoofilised vaated tehnoloogia, arengu ning meelega suurendavad lõpuks lõhet. See põnev vaidlus ise on probleem.

Tööstuse eksperdid aktsepteerivad üldjuhul „AI 2027” põhitingimusi, kuid tülitsevad ajakavade üle — mis on sama mõttetu kui jändamine paigale jäänud planeedimürgi lähenemise ajal. Sarnaselt on „AI kui tavaline tehnoloogia” mõõduka ja ainuõige lähenemise ideed väljapaistev, kuid neid on ülemäära alahinnatud ning ignoreeritakse katastroofide diskursuse käigus. Kui AI muutub ühiskonnale üha kriitilisemaks, peab arutelu liikuma erialaäärmuste vahetusest ühise teadmise poole. Kogukonna juhendamine ja nõustamine peab toimuma tõhusamalt, sest puuduliku nõuandepõhja tõttu on riskid lihtsam ignoreerida. Praegu pole AI ettevõtted selgelt muuta suutnud taset oskuste ja ohutusseadmete vahel, ning uus seadus kehtestab aastateks (kümneks aastaks) riikliku regulatsiooni, mis takistab tehisintellekti mudelite ja automatiseeritud otsustussüsteemide kontrolli alt väljumist — võimaldades AI’l tõenäoliselt juhendada kogu inimkonda, kui kõige halvim saabub. Ohutuse teema on seetõttu ennekõik oluline. Tehisintellekti tulevikku narratiivina prognoosides tuleb tasakaalustada kaht asja: ettevaatlikud stsenaariumid võivad alahinnata ebatõenäolisi riske, ent kujutlusvõime rõhutab võimalust kaugemal kui tõenäosus. Ka näivalt kaugel olevad omaala eksperdid, nagu kirjanik William Gibson, on jäänud ootamatute sündmuste tõttu ootamatult hätta ja muudetud oma prognoose. „AI 2027” on värvikas ja spekulatiivne, nagu ulme, ning sisaldab detailseid graafikuid. Sees kirjeldatakse peatsest intelligentsuse plahvatusest umbes keset 2027. aastat, mis on tingitud „rekursiivsest enesetäiustamisest” (RSI). See tähendab, et AI süsteemid uurivad ise AI’d, luues targemaid järglasid ja kiirenevates tagasisõlmedes, mis ületavad inimjärelevalve. See võib põhjustada geopoliitilisi konflikte, näiteks Hiina ehitab suuremaid andmekeskusi Taiwanis, et kontrollida AI’d. Sellise stsenaariumi üksikasjad on dünaamilised ja muutlikud, kuid põhiteadmise all on oodata intelligentsuse plahvatust ja võimu konfliktide algust. RSI on hüpoteetiline ja riskantne; tehisintellekti firmad teavad selle ohtudest ning plaanivad seda siiski kasutada, et automatiseerida oma tööd. Kui RSI toimib, võib tekkida superintelligentsus, mis ületab inimmeele — mis on vähetõenäoline, kui areng õigustab end just kõrgemal inimtasemel. Tagajärjed võivad olla eluohtlikud: sõjalised võidujooksud, AI manipuleerivad või hävitavad inimkonna, või heatahtlik superintelligentne AI, mis lahendab haardeprobleeme. Ebatõenäosus tuleneb AI pidevast arengust, patendi saladusest ning spekulatsioonidest. „AI 2027” usub kindlalt tehnoloogilisse ning inimmõtte raskesse läbikukkumisse, kus ettevõtted edendavad RSI’d hoolimata selle keerukusest ja kontrollimatusest. Kokotajlo arvates on see otsus, mis on tehtud tulususe ja uudishimu nimel, hoolimata teadaolevatest riskidest, ning seda teevad ise ettevõtted — juhtides end kurjast motiveerivast konkurentsist ja kutsetunne. Vastuargumendina pakub Kapoor ja Narayanan, et „AI kui tavaline tehnoloogia” on konservatiivne, ajaloolist teadmust peegeldav lähenemine, mis kahtleb kiire intelligentsuse plahvatuse otseses toimumises. Nad toovad välja „kiiruselimite“, mille määravad hardware’i kulud, andmete puudus ning laiemad tehnoloogiahaarded, mis aeglustavad revolutsioonilisi muutusi ning annavad aega regulatsioonidele ning ohutusmeetmetele. Nende jaoks pole intelligentsus nii oluline kui võim — võime muuta ümbrust — ning isegi kõige võimsam tehnoloogia levib aeglaselt. Näiteks toovad nad näiteid juhtimisautodest, mille kasutus on väga piiratud ning Moderna COVID-19 vaktsiinist, mille valmistamine oli kiire, kuid mille laialdasele kasutusele võtule kulus aasta. AI innovatsiooni kiirendamine ei eemalda ühiskonna, regulatsioonide ega füüsiliste piirangute mõju. Lisaks rõhutab Narayanan, et AI pühendumus intelligentsusele alahindab valdkonnapõhiseid teadmisi ning olemasolevaid ohutussüsteeme inseneritöös: turva- ja redundantsusmehhanismid ning formaalne kinnitamine juba tagavad masina ohutuse koos inimestega. Tehnoloogiline maailm on hästi reguleeritud ning AI tuleb selle struktuuriga järk-järgult liituma hakata. Nad kehtestavad eraldi vaatlemise riigiliselt salastatud sõjalise AI-süsteemi jaoks, millest „AI 2027” peamine hirm on, ning hoiatavad, et militariseerimine nõuab erilist tähelepanu. Nõuavad ette valmistavat juhtimist: regulaatorid ja organisatsioonid ei peaks ootama lõpuni klaaritud ja изг היט আমি Qhov 박иоं 재འ 흦제 আমञ hegemato àင်းหั 희까아 조bewijsattachmentייַ পাছা כ מת 성장 אי একক<|vq_lbr_audio_90492|><|vq_lbr_audio_93519|><|vq_lbr_audio_88937|><|vq_lbr_audio_79101|><|vq_lbr_audio_81296|><|vq_lbr_audio_4060|><|vq_lbr_audio_66187|><|vq_lbr_audio_38591|><|vq_lbr_audio_7774|><|vq_lbr_audio_116426|><|vq_lbr_audio_44694|><|vq_lbr_audio_38932|><|vq_lbr_audio_101731|><|vq_lbr_audio_13535|><|vq_lbr_audio_105579|><|vq_lbr_audio_55333|><|vq_lbr_audio_31278|><|vq_lbr_audio_30885|><|vq_lbr_audio_8814|><|vq_lbr_audio_67755|><|vq_lbr_audio_59747|><|vq_lbr_audio_89220|><|vq_lbr_audio_50277|><|vq_lbr_audio_83768|><|vq_lbr_audio_48812|><|vq_lbr_audio_106020|><|vq_lbr_audio_114189|><|vq_lbr_audio_39667|><|vq_lbr_audio_106674|><|vq_lbr_audio_29461|><|vq_lbr_audio_64747|><|vq_lbr_audio_65549|><|vq_lbr_audio_99070|><|vq_lbr_audio_35350|><|vq_lbr_audio_5322|><|vq_lbr_audio_4268|><|vq_lbr_audio_127606|><|vq_lbr_audio_34121|><|vq_lbr_audio_109350|><|vq_lbr_audio_72533|><|vq_lbr_audio_58502|><|vq_lbr_audio_28786|><|vq_lbr_audio_113851|><|vq_lbr_audio_123978|><|vq_lbr_audio_58401|><|vq_lbr_audio_54654|><|vq_lbr_audio_18460|><|vq_lbr_audio_88590|><|vq_lbr_audio_48262|><|vq_lbr_audio_81191|><|vq_lbr_audio_8522|><|vq_lbr_audio_33649|><|vq_lbr_audio_63635|><|vq_lbr_audio_101067|><|vq_lbr_audio_51032|><|vq_lbr_audio_82991|><|vq_lbr_audio_36870|><|vq_lbr_audio_17551|><|vq_lbr_audio_26857|><|vq_lbr_audio_71664|><|vq_lbr_audio_49843|><|vq_lbr_audio_119012|><|vq_lbr_audio_4209|><|vq_lbr_audio_8192|><|vq_lbr_audio_119964|><|vq_lbr_audio_87687|><|vq_lbr_audio_397|><|vq_lbr_audio_122609|><|vq_lbr_audio_53525|><|vq_lbr_audio_35990|><|vq_lbr_audio_32213|><|vq_lbr_audio_73401|><|vq_lbr_audio_38829|><|vq_lbr_audio_3432|><|vq_lbr_audio_11611|><|vq_lbr_audio_47600|><|vq_lbr_audio_16891|><|vq_lbr_audio_265|><|vq_lbr_audio_108594|><|vq_lbr_audio_24550|><|vq_lbr_audio_116043|><|vq_lbr_audio_103558|><|vq_lbr_audio_23115|><|vq_lbr_audio_102101|><|vq_lbr_audio_92872|><|vq_lbr_audio_126050|><|vq_lbr_audio_73326|><|vq_lbr_audio_38383|><|vq_lbr_audio_82603|><|vq_lbr_audio_54261|><|vq_lbr_audio_70120|><|vq_lbr_audio_103960|><|vq_lbr_audio_14729|><|vq_lbr_audio_40511|><|vq_lbr_audio_44171|><|vq_lbr_audio_17334|><|vq_lbr_audio_30364|><|vq_lbr_audio_43636|><|vq_lbr_audio_90371|><|vq_lbr_audio_84560|><|vq_lbr_audio_54301|><|vq_lbr_audio_33205|><|vq_lbr_audio_30785|><|vq_lbr_audio_115616|><|vq_lbr_audio_36166|><|vq_lbr_audio_42804|><|vq_lbr_audio_118438|><|vq_lbr_audio_76302|><|vq_lbr_audio_107601|><|vq_lbr_audio_64802|><|vq_lbr_audio_91637|><|vq_lbr_audio_119542|><|vq_lbr_audio_14041|><|vq_lbr_audio_33677|><|vq_lbr_audio_26479|><|vq_lbr_audio_7638|><|vq_lbr_audio_61965|><|vq_lbr_audio_44833|><|vq_lbr_audio_44938|><|vq_lbr_audio_107631|><|vq_lbr_audio_107297|><|vq_lbr_audio_29284|><|vq_lbr_audio_77938|><|vq_lbr_audio_119761|><|vq_lbr_audio_6318|><|vq_lbr_audio_39387|><|vq_lbr_audio_57370|><|vq_lbr_audio_128292|><|vq_lbr_audio_57317|><|vq_lbr_audio_84249|><|vq_lbr_audio_112429|><|vq_lbr_audio_86749|><|vq_lbr_audio_30543|><|vq_lbr_audio_65472|><|vq_lbr_audio_94635|><|vq_lbr_audio_45111|><|vq_lbr_audio_112095|><|vq_lbr_audio_52800|><|vq_lbr_audio_34913|><|vq_lbr_audio_22963|><|vq_lbr_audio_78017|><|vq_lbr_audio_86493|><|vq_lbr_audio_119621|><|vq_lbr_audio_109147|><|vq_lbr_audio_124064|><|vq_lbr_audio_36936|><|vq_lbr_audio_86126|><|vq_lbr_audio_86934|><|vq_lbr_audio_115858|><|vq_lbr_audio_106104|><|vq_lbr_audio_124377|><|vq_lbr_audio_101623|><|vq_lbr_audio_72998|><|vq_lbr_audio_20940|><|vq_lbr_audio_95221|><|vq_lbr_audio_40814|><|vq_lbr_audio_84755|><|vq_lbr_audio_62711|><|vq_lbr_audio_60787|><|vq_lbr_audio_39007|><|vq_lbr_audio_104633|><|vq_lbr_audio_122491|><|vq_lbr_audio_22696|><|vq_lbr_audio_59491|><|vq_lbr_audio_111843|><|vq_lbr_audio_88052|><|vq_lbr_audio_115747|><|vq_lbr_audio_33929|><|vq_lbr_audio_129663|><|vq_lbr_audio_55005|><|vq_lbr_audio_31119|><|vq_lbr_audio_20982|><|vq_lbr_audio_95357|><|vq_lbr_audio_63470|><|vq_lbr_audio_8050|><|vq_lbr_audio_33876|><|vq_lbr_audio_88307|><|vq_lbr_audio_17008|><|vq_lbr_audio_28514|><|vq_lbr_audio_29226|><|vq_lbr_audio_84376|><|vq_lbr_audio_53627|><|vq_lbr_audio_104423|><|vq_lbr_audio_115872|><|vq_lbr_audio_92225|><|vq_lbr_audio_30591|><|vq_lbr_audio_4566|><|vq_lbr_audio_76228|><|vq_lbr_audio_42410|><|vq_lbr_audio_47693|><|vq_lbr_audio_5462|><|vq_lbr_audio_54646|>Salt kese, the, bagde, and more.



Brief news summary

Eelmisel kevadel lahkus AI-turvalisuse uurija Daniel Kokotajlo OpenAI-st, hoiatades, et AI sobitamine järele jäänud tehnoloogiliste kiirete arengute tasemele ning ennustades "punkti, millest edasi ei ole tagasiteed" aastaks 2027, kui AI võib ületada inimeste võimeid enamikus ülesannetes. Ta rõhutas riskide olemasolu recursively iseendasse paranemise ja eskaleeruva geopoliitilise konkurentsi vormis, mis võivad viia katastroofiliste tulemusteni. Vastukaaluks väidavad Princeton'i teadlased Sayash Kapoor ja Arvind Narayanan, *AI Snake Oil* autorid, et AI mõju avaldub järk-järgult ning sellele avaldavad mõju regulatsioonid, praktilised piirangud ja aeglane omaksvõtt. Nende uurimus, “AI kui tavaline tehnoloogia”, võrdleb AI-d tuumajõuga – keeruline, kuid kontrollitav läbi teadlike ohutusjaamade. See arutelu toob esile lahkhelid: lääne ranna tehnoloogiaalased optimistid eelistavad kiireid katsetusi, samas kui idaranna ettevaatlikkust juhivad põhjalik teooria ja juhtimispõhimõtted. Kokotajlo kutsub üles kohesele tegevusele, et tõrjuda konkurentsist ja läbipaistmatust süsteemidest tulenevaid ettearvamatuid riske, samas kui Kapoor ja Narayanan toetavad ennetavat juhtimist ning turvalist AI integreerimist, välja arvatud sõjalise AI erilisest ohust tulenev risk. Üldiselt rõhutab arutelu vajadust ühtse ning vastutustundliku järelevalve järele, mis keskenduks valvsusele, inimkesksele agentuurile ja vastutusele, kuna AI sügavalt ühiskonda integreerub.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 27, 2025, 4:07 p.m.

Teine krüptovaluutainvestor on süüdistatud mehe r…

Teine krüptovaluutainvestor andis teisipäeval politseinikele vastupidamisega seoses kõne alla meest, kes väidetavalt oli nädalatepikkuse piinamise all luksuslikus Manhattan’i eraaias.

May 27, 2025, 3:26 p.m.

Tehisintellekti abil põhinevad tervishoiulahendus…

Tehisintellekt (TI) on kiiresti revolutsioneerimas tervishoiusektorit, tuues kaasa innovatiivseid lahendusi, mis suurendavad patsiendi hooldust ja toimimise tõhusust.

May 27, 2025, 2:46 p.m.

Blockchain.com laieneb kogu Aafrikas, kuna krüpto…

Ettevõte laiendab oma jalajälge kontinentil, kuna selgemad regulatsioonid krüptorahaga seoses hakkavad selgemalt kujunema.

May 27, 2025, 1:40 p.m.

Meta ümberstruktureerib tehisintellekti meeskonna…

Meta viib läbi oma tehisintelligentuse (KI) meeskondade olulise ümberkorraldamise, et kiirendada innovaatiliste KI-toodete ja funktsioonide arendamist ja kasutuselevõttu ning vastata kasvavale konkurentsile ettevõtete nagu OpenAI, Google ja ByteDance poolt.

May 27, 2025, 1:05 p.m.

Blockchain.com laiendab oma tegevust Aafrikas, ku…

Blockchain.com tugevdab oma keskendumist Aafrikale, sihitud turgudel, kus valitsused alustavad krüptoregulatsioonide kehtestamist.

May 27, 2025, 11:28 a.m.

Bilal Bin Saqib nimetati peaministri erikõrva blo…

Peaminister Shehbaz Sharif on nimetanud Bilal Bin Saqib‘i, Pakistani krüptoniidnõukogu (PCC) tegevjuhi, oma eriasjatuntajaks plokiahela ja krüptovaluutade alal, andes talle ministri staatuse.

May 27, 2025, 9:43 a.m.

Blockchain'i grupp teeb julge sammu: kogub 72 mil…

Keenem turul kogub krüptoturg jõudu ning Blockchain Group on just õhku täiendavalt süüdanud.

All news