მომავლის დისკუსია ხელოვნურ ინტელექტთან: აპოკალიფსური კატასტროფა თუ ნორმალური ვითარება? წამყვანი ექსპერტების დამოკიდებულებები

გაზაფხული, დანია კოკოტაილომ, OpenAI-ის AI უსაფრთხოების კვლევერმა, პროტესტის ნიშნად დატოვა სამუშაო ადგილი, დარწმუნებული იყო, რომ კომპანია მზად არ იყო AI-ის ტექნოლოგიის მომავლისთვის და მსურდა გაჩენილიყო აირტოლების სიგიჟის გაჩენა. ტელეფონზეც მიუბრუნდა სანდოდ და ამაღლებული განწყობით, ახსნა, რომ AI-ის „შეთავსების“—მეთოდები, რომლებიც უზრუნველყოფს AI-ს მიყოლა ადამიანის ღირებულებებს—მან წინსვლაზე ჩამორჩებოდა ინტელექტის განვითარებას. მან გააფრთხილა, რომ მკვლევარები უზარმაზარ და გაუკონტროლებელ სისტემებს ქმნიდნენ სწრაფად. კოკოტაილომ, რომელმაც ფილოსოფიის მაგისტრანტობიდან AI-ში გადაიტანა თავისი კარიერა, თვითნებურად ისწავლა AI-ის განვითარების მონიტორინგი და პროგნოზირება, როდის მოხდებოდა კრიტიკული ინტელექტუალური მილიანეების მიღწევა. როდესაც AI-ის წინსვლა გადააბიჯა მოსალოდნელ საზღვრებს, მან დაძლია დროის გრაფიკი ათეულობით წლით. მისი 2021 წლის სცენარი, “რა იქნება 2026-ში, ” უკვე შესრულდა ბევრ პროგნოზს ადრე, და ფიქრობდა, რომ 2027-ის ან უჩვენოდ ორყპირადი “შეწყვეტის წერტილი” შეიძლება გამოიწვიოს AI-ს ადამიანებზე შეთავაზებული უმთავრესი დავალებების გადაწონვა და ძალაუფლების მოპოვება. ის აფრთხილებდა, რომ ძრწოლა ჰქონდა. სიმხრივი, პრინსტന്റონის კომპიუტერულ მეცნიერებს საიაში კაპური და არვინ ნარაიანანი მოამზადეს წიგნი “AI-ს ნარკოტიკი, ” სადაც დეტალურად და კატეგორიულად გამოდიან წინააღმდეგ. ისინი დაასკვნეს, რომ AI-ის ფიქრებში ზედმეტად ოპტიმისტური ტემპები იწვევენ; რომ AI-ის გამოყენების გაპიარებები ხშირად პროვოკაციული ან მიკერძოებულია; და რომ რეალურ სამყაროში კომპლექსურობის გამო AI-ის ტრანსფორმაციული ეფექტები იქნება ნელი. ციტირებდნენ მაგალითებს სამედიცინო და დასაქმების შეცდომების შესახებ, სადაცვე ხაზს უსვამდნენ, რომ ბოლო სისტემებიც კი განიცდიან რეალობისა და მათში არსებულ დისკონექტს. ცოტა ხნის წინ, სამივე განაახლა ხედვები ახალი მიმოხილვებით. კოკოტაილოს არასამთავრობო ორგანიზაცია, AI Futures Project, გამოაქვეყნა “AI 2027, ” დეტალური და სილუეტური ანგარიში, რომელშიც ველით დამაშინებელ სცენარს, სადაც სუპერინტელექტუალური AI შესაძლოა დამონელდეს ან გაანადგუროს ადამიანი 2030-მდე—აღსანიშნავი გაფრთხილება. ამავე დროს, კაპური და ნარაიანანი საკუთარ “AI როგორც ნორმალურ ტექნოლოგიას” პუბლიკაციაში აცხადებენ, რომ პრაქტიკული ბარიერებიდან—რეგულაციებიდან და უსაფრთხოების სტანდარტებიდან დაწყებული რეალურ ფიზიკურ შეზღუდვებამდე—AI-ის განთავსება დამსუსტდება და მისი რევოლუციური გავლენა შეზღუდული იქნება. მათ считают, რომ AI რჩება “ნორმალურ” ტექნოლოგიად, რომელსაც მართვა შესაძლოა იყოს შეზღუდული ნაცნობი უსაფრთხოების ზომებით, მაგალითად, კლავიშის გამორთვით და ადამიანური კონტროლით, უფრო ახლოდან რომ მიახლოვდებიან nucléar power-ს, ვიდრე nuclear იარაღს. ამით, რათა დავგეგმოთ: იქნება ეს ჩვეულებრივი სამუშაო თუ აპოკალიფსური ზედაპირული მომავალი?ეს მკვეთრად გამოყოფილი დასკვნები, რომლებმაც დამუშავეს ამ გაცხადებებმა, ქმნის პარადოქსს, რომელიც ჰგავს იმის დებატს, თუ შემწეობის პირობებში ვართ თუ არა. და, სირთულე ნაწილობრივ გამოწვეულია AI-ის ახალი ხასიათით—როგორც თეთრი თვალები გხედავენ გველის სხვადასხვა ნაწილებს—და ნაწილობრივ, სიღრმისეულ განსხვავებებით მსოფლიო ხედვაში. ძირითადად, დასავლეთის ტექნოლოგიური მოღვაწეები სწრაფ ტრანსფორმაციას იკავებენ; აღმოსავლეთის მეცნიერები სერიოზულად გარე მხარე არიან. AI მკვლევარები უპირატესობას სცემენ სწრაფ ექსპერიმენტულ პროგრესს; სხვა კომპიუტერული მეცნიერები ზარალს უყენებენ თეორიულ საფუძვლებს. ინდუსტრიის ინტერნის მოსაზრებები ცდილობენ გლობალურ შეცვლას; საწინააღმდეგო მხარე უარყოფს ტექნოლოგიურ ყურებას. პოლიტიკური, სოციოლოგიური და ფილოსოფიური სამყაროს განსხვავებები აქ კიდევ უფრო ფართოა. ეს საინტერესო დებატიც თავად არის პრობლემა. ინდუსტრიის წევრებმა თითქმის მიიღეს “AI 2027” წინაპირობები, მაგრამ არ ეთანხმებიან დროის გრაფიკებს—რაც არაკავშირა პასუხია, როგორც პლანეტა ზემოთ მყოფი მავნე შემოაზრებების წინაშე. მეორე მხარიდან, “AI როგორც ნორმალურ ტექნოლოგიაში” გაცხადებები, რომ ადამიანები უნდა იყვნენ კონტროლში, იმდენად სუსტი და მოკლეა, რომ მჩაერებელი ანალიზი მათ ყურადღებას არ მიაქცია. როდესაც AI გარდამავალად საზოგადოებაზე ხდება, საუბარი უნდა გადავიდეს სპეციალიზებული დებატიდან პრაქტიკულ კონსესუსზე. ექსპერტული რჩევების შეუსრულებლობა ეხმარება გადაწყვეტილების მიმღებ ერიდოს რისკებს.
ამჟამად, AI კომპანიები არა უშიშრად გადააკეთებენ ახალ შესაძლებლობებს და უსაფრთხოებასთან მიმართებაში. ახალი კანონმდებლობა სამოქალაქო წესებს ავლენს AI მოდელებზე და ავტომატურ გადაწყვეტილებებზე ათწლეულის განმავლობაში—შესაძლოა, AI ჩამოაყალიბოს გვარდა, თუ საშიში სცენარი გამართლდა. უსაფრთხოებაზე ეხლა უნდა იფიქრო სასწრაფოს. AI-ის მომავლის პროგნოზირება წმინდად კომბინაციას აძლევს ხაფანგებს: ფრთხილი სცენარები იშვიათად იძლევა შემთხვევებს; ზოგადი და ფანტაზიური სცენარები ხაზს უსვამს შანსებს და არა ალბათობას. even პროგნოზების ავტორები, როგორიცაა უილემ გიბსონი, დაფეთებულან უცნაურ ფაქტებს, რომელი შეცვლიდა მათ წინასახედლებს. “AI 2027” არის ცოცხალი და ფანტასტიური, აღწერილი როგორც სამეცნიერო ფანტასტიკა, დეტალური გრაფიკებით. აჩვენებს უახლოესი ინტელექტის აფეთქებას around 2027, რასაც აწარმოებს “რეკურსიული თვითგამორჩევა” (RSI)—როდესაც AI სისტემები თვითონ ასწკრივებენ კვლევას და იცავენ გადმოსახედული სწრაფი უკუკავშური ჯაჭვებით, რომლებიც აჯობებენ ადამიანურ კონტროლს. ეს შეიძლება გამოიწვიონ გეოპოლიტიკურ კონფლიქტებს, მაგალითად, ჩინეთი აშენებს უზარმაზარ დათაცენტრებს ტაიվანს, რათა აკონტროლოს AI. სცენარის დეტალები ზრდიან დაინტერესებას, მაგრამ არ არის कठონელები; მთავარი გზავნილი მაინც არის შესაძლებლობა წარუმატებელი გამოვლენა და ძალაუფლების ბრძოლები. RSI არის თეორიული და საშიში; AI კომპანიები იციან ამის რისკები, მაგრამ მაინც გთავაზობენ მის მიღწევას საკუთარი საქმიანობის ავტომატიზაციისთვის. ჩამოყალიბება თუ არა RSI, დამოკიდებულია ტექნოლოგიურ ფაქტორებზე, როგორიცაა მასშტაბი, რომელიც შეიძლება შეზღუდული იყოს. თუ RSI მუშაობს, შეიძლება გამოიშვეს სუპერინტელექტი, რომელიც ადამიანს აჯობებს—რასაც მიუთითებს, რომ პროგრესი ბლოკირდება მაღალი დონეზე. შედეგებს შორის შეიძლება იყოს შეიარაღებული იერიშები, AI-მ ადამიანების მმართველობის ან განადგურებისთვის, ან, უკეთესი შემთხვევა, ანაჰრონული სუპერინტელექტი, რომელიც დგენს შეთანხმების პრობლემებს. ნაკლები ცნობიერების პირობები გამოიწვია AI-ის მუდმივი განვითარება, საკუთრებაში არსებული კვლევა-პროექტების საიდუმლოება და პოპულარული მოლოდინები. “AI 2027” იკავშირებს ტექნოლოგიურ და ადამიანურ მარცხთან, სადაც კომპანიები განაგრძობენ RSI-ს, მიუხედავად მისი უგულებელყოფისა და კონტროლის უქმნელობის. კოკოტაილომ ამბობს, რომ ეს არის გარდაუვალი და მიზანმიმართული, კონკურენციისა და ცნობისმოყვარეობის გამო, მიუხედავად ცნობილი რისკებისა, რაც კომპანიებს გართმევენ სავალდებულო მიზნები. სხვაგვარად, კაპური და ნარაიანანი, “AI როგორც ნორმალური ტექნოლოგია, ” თავის კლინიკურ და კონსერვატიულ ხედვაში, ვერ სჯერათ სწრაფინტელექტის აფეთქების; ისინი ასკვნიან hardware-ს ხარჯებს, მონაცემთა ნაკლებობას და ტექნოლოგიური ჩვევების დამკვიდრების ტემპებს, რომლებსაც ცვლიან რევოლუციურ გავლენას და რომ რეგულირების და უსაფრთხოების რეაგირება დიდ დროშია შესაძლებელი. მათთვის, ინტელექტი ნაკლებად მნიშვნელოვანია, ვიდრე სამოქმედო ძალა—ურთიერთქმედება გარემოსთან ცვლილებაზე—და ხშირად, ძლიერი ტექნოლოგიებიც თარიღდებიან ნელნელა. დას muestras, ეს ეხება მაგალითად, ავტონომიურ მანქანებს და Moderna-ს COVID-19-ით დამზადებული ვაქცინებს: ვერ ვიტყვით, რომ ვაქცინა სწრაფად შეიქმნა, მაგრამ გაუშვეს ერთი წლის განმავლობაში, იმის გამო, რომ ბიოლოგიური და ორგანიზაციული რეალობა ჭირდება. AI-ის ინოვაციები დამზადების პროცესებს ვერ გაურბის societal, რეგულაციურ ან ფიზიკურ შეზღუდვებს. სხვად, ნარაიანანი ხაზს უსვამს, რომ AI-ის მიმართვა სუბიექტურობის ნაკლებობაზეა, და წარმართავს ცნობიერებას იმ რკინეულ სპეციალიზებულ უსაფრთხო სისტემებსა და პირველადი რეაგირების ინსტრუმენტებით, რომლებიც უკვე უზრუნველყოფენ მანქანის უსაფრთხოებას ადამიანებთან ერთად. ტექნოლოგიური სფერო კარგად რეგულირებულია და AI-ის ინტეგრირება ხდება სიფრთხილით. მათზე აკრძალულია სამხედრო AI, რაც სპეციფიკურ და საიდუმლო დინამიკებად არის კლასიფიცირებული, და წინასწარ აფრთხილებენ, რომ სამხედრო AI-ს შეუძლია იყოს ერთმანეთისგან განსხვავებული, და ამ გზაზე სიფრთხილს სჭირდება ყურადღება. მდებარეობენ პროვექტორები წინასწარ მართულ ნორმებს: რომ არ საჭიროებს სრულিষ্ঠიაკ შეთანხმების მიღწევას, არამედ უნდა დაიწყოს რისკების, რეალური გამოყენებების და მარცხების მონიტორინგის პროცესი და რეგულაციების გამკაცრება. სამყარო, რომელიც განცხრომით მდიდარია, სხვადასხვა ხედვები გამოიწვია, და მის ბრაზს აძლევა AI-ის კითხვამ. მიუხედავად ამისა, შესაძლებელია ერთიანი ხედვა, როდესაც წარმოიდგენ მსგავს “კოგნიტური ქარხნის” მოდელს: სამუშო სივრცე სადაც ადამიანები, უსაფრთხოების აღჭურვილობილნი, მუშაობენ მანქანებზე, რომლებიც წარმოებისთვის და უსაფრთხოების მიხედვით მუშაობენ, строгი ხარისხის კონტროლით, ახალი ინოვაციების ეტაპობრივად დანერგვით და აშკარა პასუხისმგებლობით. მიუხედავად ხელოვნური ინტელექტის ავტომატიზებისა, ადამიანი პასუხისმგებელია და რჩება მთავარი. როგორც AI იზრდება, ის არ ამცნობს ადამიანურ უფლებებს; პირიქით, ის ზრდის პასუხისმგებლობის აუცილებლობას, რადგან გაფართოებული ადამიანები მეტ პასუხისმგებლობას იტევენ. კონტროლისგან სანტექნიკურად გადახრა არის თავისუფლება, და ეს სისწრაფეა ადამიანის მთავარი არჩევანი. საბოლოო ჯამში, ადამიანები მაინც პასუხისმგებლიანნი არიან.
Brief news summary
გასულ გაზაფხულზე, ხელოვნური ინტელექტის უსაფრთხოების მკვლევარმა დანიელ ქოკოტაჯლომ დატოვა OpenAI, მიუთითოს იმაზე, რომ AI-ის შეთანხმება ვერ იგდეაბრება სწრაფ ტექნოლოგიურ წინსვლებს და წინასწარმეტყვა 2027 წლის "წერტილი არასადარც" როდესაც AI შესაძლოა გადააჭარბოს ადამიანს უმეტეს სამუშაოებში. მან გაუსვა ხაზი რისკებსRecursive self-improvement-ისა და გლობალური კონკურენციის გამწვავების, რაც პოლიტიკურ და სამოქალაქო კრიზისებს გამოიწვევს. ამის საპირისპიროდ, პრინსტონის მეცნიერები საიაშ კაპური და არსვენ ნარიანიანი, რომლებიც ავტორებს *AI Snake Oil*-ის მიეკუთვნებიან, აღნიშნავენ, რომ AI-ის გავლენა თანდათანობით გაწეროს, შეგნებულად რეგულაციებით, პრაქტიკულ საზღვრებით და ნელი ათვისებით. მათი კვლევა, "AI როგორც ნორმალური ტექნოლოგია," იყენებს შედარებას ბირთვულ ენერგიასთან — გამორჩეული, მაგრამ კონტროლირებადი უსაფრთხოების სტანდარტებით. ეს დებატები წარმოგვიდგენს ორ სახეს: დასავლეთის დაახლოება სწრაფი ექსპერიმენტებითა და აღმოსავლეთის სიფრთხილე საფუძვლიან თეორიასა და მმართველობაში. ქოკოტაჯლო დuilleadh მოუწოდებს დაუყოვნებლივ მიუდგეს შეუცნობელი რისკების წინააღმდეგ, რომლებიც წარმოიშობა კონკურენციისა და გაურკვევლობის სისტემებისგან, მაშინ როცა კაპური და ნარიანიანი მხარწყულობენ პროვადადებულ მმართველობაზე და უსაფრთხო AI-ის ინტეგრაციაზე, გამორიცხავენ სამხედრო AI-ს, რადგან მასში გამომწვევი სენშვები გაქვთ განსაკუთრებული. მთლიანობაში, განხილვა ხაზს უსვამს ერთიან, პასუხისმგებელი ზედამხედველობის საჭიროებას, რის საფუძველზე უნდა იყოს ყურადღებას ვაქცევთ სიფხიზლეს, ადამიანთა სუბიექტურობას და ანგარიშგებას, როგორც AI-ი ღრმად სწრაფავს საზოგადოების ცხოვრებაში.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

გუგლის კვანტური: როგორ ახლის ვილო ბლოკჩეინის უსაფ…
დამზადება თქვენი Trinity Audio პლეერისთვის...

Salesforce შეიძენს Informatica-ს ადგილობრივად დაა…
Salesforce აპირებს მიიღოს ინფორმატიკა, წამყვანი ხელოვნური ინტელექტის მართულ კლაუდური მონაცემების მართვის კომპანია, მასობრივი 8 მილიარდ დოლარიან გარიგებაში, მიზნად ისახავს Salesforce-ის მონაცემების მართვის შესაძლებლობების გაძლიერებას და სოციალურს თავგამოყენებაში AI-სა და მონაცემებზე დაფუძნებული სერვისების გაღრმავებას.

როგორ ტესტავენ ცენტრალური ბანკები ბლოქჩეინის დაფუ…
რატომ სწავლობენ ცენტრალური ბანკები ბლოქ்சაინებს?

OnePlus იწყებს AI-ის დაფუძნებულ ფუნქციებს Plus Ke…
OnePlus, წამყვანი სმარტფონის მწარმოებელი, გამოაცხადა ახალი სტრატეგიული ყურადღება ხელოვნური ინტელექტის (AI) ინტეგრირებაზე, რათა გააუმჯობესოს მომხმარებლის გამოცდილება ყველა მისი მოწყობილობაზე.

გერმანული მილიარდერი შეიქმნა სტეროიდების ოლიმპიად…
© 2025 Fortune Media IP Limited.

სეილფോര്ს ახალეინფორმატიკას 8 მილიარდ დოლარად შეიძ…
Salesforce, წამყვანი კლაუდ-ბაზადი CRM პროგრამული ვერის კომპანია, გამოაცხადა სტრატეგიული 8 მილიარდი დოლარის შეძენა ინფორმატიკის, ცნობილ მონაცემების მართვის პლატფორმის.

ადამ ბექმა სარგებლობა დაუწერა ბლოკჩეინ ჯგუფს და მ…
ბლოქჩეინ ჯგუფმა ბანკის ფონდების განრცობისთვის 71