Дебата за иднината на вештачката интелигенција: апокалипса или нормалност? Наводи од водечки експерти

Минатата пролет, Данил Кокотаиљо, истражувач за безбедност на вештачка интелигенција во OpenAI, напушти во протест, убеден дека компанијата не е подготвена за иднината на технологијата на вештачка интелигенција и сакајќи да предупреди. Во телефонски разговор, беше пријателски расположен, но вознемирен, објаснувајќи дека напредокот во „усогласувањето“ на AI—методите кои обезбедуваат дека AI следи човечки вредности—заостанува зад напредокот во интелигенцијата. Предупреди дека истражувачите брзаат кон создавање моќни системи надвор од контрола. Кокотаиљо, кој премина од студии по филозофија на AI, се научи самостојно да следи напредокот на AI и да предвиди кога можат да се случат клучните интелигентни прекршоци. По тоа што AI напредуваше побрзо од очекуваното, го прилагоди временскиот распон за децении. Неговата 2021 година сценарио, „Што изгледа 2026“, ја остварија многу предвидувања рано, што му дала основа да предвиди „точка на неизлез“ од 2027 или побргу, каде AI може да ги надмине луѓето во најважните задачи и да ја ужива големата моќ. Го чуваше страв. Покрај тоа, научниците од Принстона, Сајаш Капур и Арвинд Нарајанан, подготвија својата книга „Лажното масло за AI“, која презема контрастен став. Тие тврдеа дека временските рамки за AI се премногу оптимистички; дека тврденијата за корисноста на AI често се преценети или лажни; и дека сложеноста на реалниот свет ќе бара бавен трансформативен ефект од AI. Посочувајќи примери за грешки во медицина и вработување, нагласуваа дека дури и најновите системи страдаат од фундаментална оддалеченост од реалноста. Се долг период, сите тројца ги унапредуваа своите ставови во нови извештаи. Нестопанскиот проект AI Futures, кој е непрофитен, објави „AI 2027“, детално, со многу цитати, извештај што ја опишува страшната сценарио во која суперинтелигентна AI може да ја доминира или уништи човештвото до 2030 година—сериозно предупредување. Меѓутоа, стручњакот Kapoor и Narayanan, во нивниот труд „AI како обична технологија“, тврдат дека практичните пречки—од регулативи и безбедносни стандарди, до физички ограничувања во реалниот свет—ќе ги забават примена на AI и ќе го ограничат неговиот револуционерен потенцијал. Тие тврдат дека AI ќе остане „нормална“ технологија, управлива преку познати безбедносни мерки како прекинувачи и човечки надзор, слично на нуклеарната енергија наместо на нуклеарните оружја. Зошто, тогаш, тоа ќе биде: нормален бизнис или апокалиптична катастрофа?Драстично различните заклучоци—кои ги изведуваат експерти со големо знаење—создаваат парадокс сличен на дебата за духовноста со Ричард Даукинс и папата. Тешкотијата делумно се должи на новоста на AI—како слепите мажи што испитуваат различни делови од слон—и делумно на длабоките разлики во светогледите. Општо, технолошките мислители од Западниот брег ја гледаат брзата промена; академиците од Источниот брег се скептични. Истражувачите од AI ја претпочитаат брзата експериментална напредок; други научници се ориентираат кон теоретска цврстина. Индустриските актери сакаат да ја пишуваат историјата; критиците од другите сфери ги отфрлаат техниколошките хипе. Овој фасцинантен дебат претставува самиот проблем. Индустриските ги прифаќаат предвидувањата од „AI 2027“ во голема мера, но се караат за временските рамки—што е слабо решение како да се реагира кога планетата близу е до уривање. Наспроти, умерените ставови од „AI како обична технологија“ за задржување на луѓето во процесот се толку скромни што ги игнорираат аналитичарите фокусирани на пресметки за катастрофа. Како што AI станува социјално клучен, дискурсот мора да се префрли од специјалистички дебати кон конкретни акции. Недостигот од единствен експертски совет олеснува на одлучувачите да ги игнорираат ризиците. Засега, компаниите за AI не ги префрлиле формулите помеѓу можности и безбедност значително.
Меѓу тоа, нов закон забранува државна регулација на модели на AI и автоматизирани одлучувачки системи за десет години—што може да даде можност на AI целосно да ја регулира човештвото ако сценариото на катастрофа се оствари. Заштитата од сега е итна. Прогнози за иднината на AI со наративен пристап вклучуваат трговии: претпазливите сценарија можат да ги пропуштат малкуверојатните ризици; фантастичните сценарија ја нагласуваат можноста надверојатноста. Имено, дури и пророшки од светска класа како романсиерот Вилијам Гибсон, се наоѓале на удар од настани што ги менуваат предвидувањата. „AI 2027“ е живописен и шпекулативен, напишан како научна фантастика со детали и графици. Тврди дека до средина на 2027 година ќе се случи експлозија на интелигенција благодарение на „рекурзивното самопингување“ (RSI), при која системите автономно ќе ги истражуваат AI и создаваат помоќи побоќни потомци во зголемувачи на фидбек што ги надминува контролите на луѓето. Ова може да предизвика геополитички конфликти, на пример, Кина да гради големи дата-центри во Тајван за контрола на AI. Деталите го засилуваат интересот, но се флексибилни; основната порака е за потенцијалната почетна точка на експлозијата на интелигенција и борбите за моќ. RSI е хипотетички и ризичен; компаниите знаат за неговите опасности, но планираат да го продолжат за автоматизација на нивната работа. Дали RSI ќе успее, зависи од технолошки фактори како скала, што може да има граници. Ако успее, може да се појави суперинтелигенција што ги надминува човечките способности—кој е малку веројатен случај ако напредокот се застане точно над човековите граници. Последиците можат да бидат вооружени трки, манипулации или елиминирање на човештвото од страна на AI, или пак беневолентна суперинтелигенција која ќе ја реши проблематиката на усогласување. Несигурноста е неизбежна поради еволутивната природа на AI, тајноста на приватните истражувања и спекулациите. „AI 2027“ уверливо ја претставува сценариото на технолошки и човечки колапс, каде компаниите ќе продолжат со RSI без механизми за интерпретација и контрола. Кокотаиљо тврди дека ова е намерно решение, поддржано од конкуренцијата и љубопитноста, иако знае за ризиците, што прави самите компании да се оддалечени од целосно усогласување. За разлика, Капур и Нарајанан во „AI како обична технологија“ ја содржат конзервативната перспектива од Источниот брег, поткрепена со историско знаење, и се сомневаат во брзата експлозија на интелигенција. Се повикуваат на „граници на брзина“ што ги поставуваат трошоците за хардвер, недостигот од податоци и општите патеки на технологија што забавуваат револуционерните ефекти, давајќи време за регулаторни и безбедносни одговори. За нив, интелигенцијата е помалку важна од моќта—можноста да влијае врз околината—и високите технологии често се ширеат бавно. Го илустрираат ова со ограничената примена на автономните автомобили и со развојот на вакцината за COVID-19 од Moderna: иако проектот беше брз, неговото воведување траеше една година поради биолошки и институционални реалности. AI-поддржувањето на иновацијата нема да ги отстрани социјалните, регулаторните или физичките ограничувања на практичната реализација. Нарајанан нагласува дека фокусот на AI врз интелигенцијата ја потценува специјализираната експертиза и веќе постојните безбедносни системи во инженерството—фаталните мерки, вишоците, формалната проверка—кои веќе обезбедуваат сигурност на машините заедно со луѓето. Технолошкиот свет е добро регулиран, и AI постепено треба да се интегрира во таква структура. Тие ги исклучуваат воениот AI, што вклучува посебни, класифицирани ситуации, предупредувајќи дека милитаризацијата на AI, што е основна загриженост од „AI 2027“, бара фокусирано следење. Тие советуваат проактивна регулација: регулаторите и организациите треба да почнат да ги следат реалните употреби на AI и ризиците, да ја засилуваат правилата и отпорноста. Длабоките речници во светогледите произлегуваат од реактивната динамика на интелектот предизвикана од AI, создавајќи цврсти групи и контрапродуктивни циклуси. Меѓутоа, можна е единствена перспектива ако ја замислиме како „когнитивна фабрика“: работно место каде човека, со безбедносна опрема, раководи со машини дизајнирани за продуктивност и безбедност, под строги стандарди, постепена интеграција и јасна одговорност. Иако AI овозможува автоматизација на дел од размислувањето, човечката надзорност и одговорност остануваат врвни. Како што AI расте, тој не ја намалува човечката агенција; напротив, ја јакне потребата за отчетност, бидејќи подобрениот човек носи поголема одговорност. Отстапувањето од контролата е избор, што нагласува дека на крајот, луѓето остануваат највиновни. ♦
Brief news summary
Минатата пролет, истражувачот за безбедност на вештачката интелигенција, Даниел Кокотајло, го напушти OpenAI, предупредувајќи дека усогласувањето на вештачката интелигенција не успева да се држи чекор со брзите технолошки напредоци и предвидувајќи „точка без враќање“ до 2027 година, кога вештачката интелигенција би можела да ги надмине луѓето во повеќето задачи. Тој нагласи ризици од рекурзивно самопоправање и ескалирачка геополитичка конкуренција, што може да доведе до катастрофални исходи. За разлика од тоа, научниците од Принстон, Сајаш Капур и Арвинд Нарајанан, автори на *Вештачка интелигенција - лажен златен пазар*, тврдат дека влијанието на вештачката интелигенција ќе се развива постепено, под влијание на регулативата, практичните ограничувања и бавното прифаќање. Тие во нивната студија „Вештачка интелигенција како нормална технологија“ ја споредуваат ВИ со нуклеарната енергија - сложена, но управлива преку воспоставените безбедносни рамки. Овој дебат ја истакнува поделбата: оптимизмот од технолошкиот бран на Западната должина на Тие ја поддржува брзата експериментација, додека на Источната должина експертите инсистираат на темелна теорија и добра регулатива. Кокотајло повикува на итни акции против непредвидливите ризици од конкуренцијата и непрозирните системи, додека Капур и Нарајанан поддржуваат проактивно управување и безбедна интеграција на ВИ, исклучувајќи ја воената ВИ поради нејзините посебни опасности. Вкупно, овој дискурс нагласува итната потреба од единствен, одговорен надзор кој ги промовира будноста, човечката агенција и одговорноста кога ВИ ќе стане дел од длабоките структури на општеството.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

4 Клучни компоненти на блокчейн објаснети
Четири столба на блокчеинот: суштински увидenzи за бизнисите Блокчеинот е една од најпребрзувачките технологии денес

Обновената инвестиција на Гугл во паметните очила…
Гугл повторно значајно се враќа на пазарот на паметни очила речиси една деценија откако неговите први Гугл Гласови не успеаја да добијат широка прифатеност.

Премиерот на EvianCX, Виктор Сандуел, ја откри ви…
ДУБАИ, Обединети Арапски Емирати, 28 мај 2025 (ГЛОБ ЕУНУЗВИР) — Виктор Сандовал, извршен директор на иноваторот во областта на блокчејнот EvianCX, остави значителен печат на CryptoExpo Dubai 2025, одржана во Дубаи Ворлд Тrades Центер на 21–22 мај.

Губиток на работни места во белите яки поради нап…
Дарио Амодеи, извршен директор на Антропик, водечка компанија за вештачка интелигенција, издаде сериозно предупредување за можните последици од брзиот развој на вештачката интелигенција.

Финансите се подготвени за ресет на блокчейн техн…
Модерниот финансиски систем е подложен на фундаментален тест за стабилност, кој ја предизвикува глобалната економска стабилност.

Чатботи со вештачка интелигенција ја подобруваат …
Вештачката интелигенција (AI) ја трансформира различните аспекти на секојдневниот живот, но cyber криминалците искористуваат напредокот за да развијат измами со цел за фишинг.

Асоцијацијата за блокчейн повикува на СЕК да се п…
Здружението Blockchain, кое претставува големи компании за криптовалути како Coinbase, Ripple и Uniswap Labs, неодамна поднесе официјални коментари до американската Комисија за хартиени од вредност и берзи (SEC), која сега ја води претседателот Пол С. Аткинс.