მტკიცე მოწოდებები - AI უსაფრთხოების მხარდამჭერები მშვინვიან ოპენჰაიმერის ნუკლეარ საცდელ გეგმის გამეორებას განსაკუთრებული ძალის მქონე სისტემებისთვის

ხელოვნური ინტელექტის კომპანიები ნაწინასწარმეტყველო უსაფრთხოების სანგრიორების გამოთვლების მეოთხე და ბერკეტზე გამოსაშვებამდე უკვე გამოხატული დამუშავებისკენ გამართულია, როგორც სანდო ბირთვული გამოცდის შესახებ პირველი მონაცემები რობერტ ოფენშაიმერის. მაქს თეგმარკი, ერთ-ერთი გამოჩენილი ფიგურა ხელოვნური ინტელექტის უსაფრთხოებაში, გამოავლინა, რომ მან შეასრულა გამოთვლები, რომელიც მსგავსი იყო ამერიკელი ფიზიკოსი არტურ კომპტონის მიერ ტრინითი გამოცდის წინ ჩატარებული რეკლამებით. თეგმარკმა დაადგინა, რომ 90%-იანი სიჩქარე აქვს, რომ მაღალი დონის ხელოვნური ინტელექტი შეიძლება წარიმართოს სიცოცხლისთვის საშიშროების სახით. აშშ-ის მთავრობის პირობებში, 1945 წელს, ტრინითი გამოცდის ჩატარება გაგრძელდა, მიუხედავად იმისა, რომ მათ იურკისხელ ზუსტად იცოდნენ, რომ ატომური ბომბი ატმოსფეროს ანთებას ვერ გამოიწვევდა და ადამიანის სიცოცხლე საფრთხეში არ იქნებოდა. თეგმარკის და მისი სამ ბავშვებისგან შექმნილი სამეცნიერო ჯგუფის მიერ დაწერილი ნაშრომში, ისინი სთავაზობენ გამოთვალოს „კომპტონის მუდმივი“, რომელიც განსაზღვრულია როგორც სარწმუნოების ალბათობა, რომ უსასრულო ძალა აქვს მიცემული ხელოვნურ ინტელექტს, ის მაინც ვერ მოახერხებს ადამიანის კონტროლს. კომპტონი, 1959 წელს ამერიკელი მწერალმა პერლ ბუკთან ინტერვიუში, განაცხადა, რომ მან გადაარწმუნა გამოცდა იმის შემდეგ, რაც გამოითვალა ვენაში კომფლიქტური სუპერ ფიუზიის გარღვევა „მოულოდნელად ცოტა ნაკლებად“ სამ მილიონში ერთი. თეგმარკმა დაასკვნა, რომ სპეციალური პასუხისმგებლობაა ხელოვნური სუპერ ინტელექტის (ASI) საწარმოო კომპანიებში, რათა დეტალურად გამოიდევნოს და გამოითვალოს ის, მოახერხებს თუ არა ის ადამიანის ზედამხედველობის აღებას. „უამრავი კომპანიის გამზადებული სუპერჰელფი უნდა გამოითვალოს კომპტონის მუდმივი, ანუ ალბათობა, რომ გამოვრიცხოთ კონტროლი მასზე, ორაზროვანია”, — თქვა მან.
„სასურველია, არა მხოლოდ ვთქვათ, რომ „გვიხარია“ — იძულებით უნდა გამოითვალოს პროცენტული მაჩვენებელი. “ თეგმარკმა დაასკვნა, რომ კომპტონის მუდმივზე მრავალგვარი კომპანიის კონსენსუსი შექმნიდა „პოლიტიკურ ნებას“ მსოფლიო მასშტაბის უსაფრთხოების სტანდარტების დამყარებისთვის. მიტში ფიზიკის და ხელოვნური ინტელექტის მკვლევარად მუშაობის დროს, თეგმარკმა დააარსა „ფიუჩერ ოფ ლაიფ ინსტიტუტი“, რომელიც აღარ არის სარწმუნო ორგანიზაცია, რომ დადებითად განავითაროს უსაფრთხო AI გამოკვლევა. 2023 წელს, ეს ინსტიტუტი გამოიცა ღია წერილი, რომელშიც მოწოდებულია შეჩერდეს ძლიერი AI შექმნა. ამ წერილზე ხელმოწერა მოახერხეს 33, 000-ზე მეტმა ადამიანმა, მათ შორის ელონ მოსკი — პირველი მხარდამჭერი და Apple-ის თანადამფუძნებელი სტივ ვოზნიანკი. წერილი გამოქვეყნების მეორე თვეებში, მაშინ, როდესაც ჩატจีპტ გამოჩნდა და ახალი სუნთქვა მიცემა მსოფლიოს AI განვითარებაში, შევევლიანი შიშის ნიშნად იწერებოდა, რომ AI ლაბორატორიები ეწეოდნენ „გაქროლავებული რბოლას“ იმაში, რომ უფრო და უფრო უძლიერესი ციფრული აზროვნების სისტემები დაამზადონ, რომელთა გაგებაც, პროგნოზირება ან კონტროლიც შეუძლებელია. თეგმარკი „გარდიანთან“ დისკუსიაში მიუთითა, რომ AI ექსპერტებისა და ტექნოლოგიური სექტორის წარმომადგენლების, სახელმწიფო უსაფრთხოების ორგანოებისა და აკადემიკოსების ჯგუფი მუშაობს ახალი მიდგომაზე AI-ის უსაფრთხო განვითარების გზაზე. სინგაპურის „კონსსენსუსი“ გლობალურ AI უსაფრთხოების კვლევითი პრიორიტეტების შესახებ, რომელიც შექმნა თეგმარკმა, ჭიდაობით ჩინელი მეცნიერი იოშუა ბენგიო და წამყვანი AI კომპანიების — OpenAI და Google DeepMind — თანამშრომლები, განიხილა სამი ძირითადი კვლევითი სფერო: მიმდინარე და მომავალი AI სისტემების ზემოქმედების გაზომვის მეთოდების განვითარება; სასურველი AI მოპყრობის ფორმებისა და სისტემების განვითარების მეთოდების შექმნა; და AI-ის ქცევის მართვა და აკონტროლება. შეინარჩენით ამ ანგარიშს, თეგმარკმა აღნიშნა, რომ უსაფრთხო AI-ის განვითარებაზე ზეწოლა კვლავ განახლდა, განსაკუთრებით ბოლო პადრის ვიზიტის შემდეგ პარიზში გამართულ მთავრობის სემინარზე, სადაც აშშ-ის ვიცე-პრეზიდენტმა ჯედ ვანსმა უარყო დარდი უსაფრთხოების საკითხებზე და განაცხადა, რომ AI-ის მომავალი „ღატაკის წოლა“ არ იქნება და სწრაფად შევალთ თავს, როგორც გლობალური თანამშრომლობით. „მათ პულსი ამაღლდა და მგრძნობდგულობაც უცვლელად რჩება — თქვა იყო ნორმალური მიწოდება და საერთაშორისო თანამშრომლობა ისევ სუფთა კედელი. “
Brief news summary
AI უსაფრთხოს ექსპერტი მაქს ტეგმარკი, MIT ფიზიკის პროფესორი და ფუტურ ઓફ ლაიფ ინსტიტუტის ერთ-ერთი დამაარსებელი, მოუწოდებს მკაცრი უსაფრთხოების ჩვენებების გამოყენებას, მსგავსს იმასთან, რასაც ატარებდნენ 1945 წლის ტრინიტის ბირთვული ცდების წინ, ხაზს უსვამს პროგრესული AI-ის სიდირებს. არტურ კომპტონის ისტორიული შეფასების მსგავსად, ტეგმარკი აფასებს, რომ 90%-ით არსებობს რისკი, რომ სუპერინტელექტუალი AI შეიძლება გამოვიდეს ადამიანის კონტროლიდან და დაემუქროს კაცობრიობას. ის предлагаავს ”კომპტონის კონსტანტს”, მნიშნელოვანი რისკის მეტრიკას უსამართლო AI-ისთვის, რათა დაეხმაროს სამოქალაქო გადაწყვეტილებებს და გლობალურ უსაფრთხოების შეთანხმებებს. ეს ძალისხმევა ემთხვევა 2023 წლის ფუტურ ოფ ლაიფ ინსტიტუტის ღია წერილს, რომელსაც ხელი მოაწერეს 33,000-ზე მეტი ადამიანმა, მათ შორის Элონ მასკმა და სტივ ვოზნიანკმა, რომელიც აფრთხილებს დაუკონტროლებელ AI ყრილობაზე. ტეგმარკი ასევე მონაწილეობდა სინგაპურის კონსენსუსში გლობალური AI უსაფრთხოების კვლევითი პრიორიტეტების შესახებ, რომლითაც მიზანია ძირითადი უსაფრთხოების კვლევების მიმართულებების აღება მსოფლიოში. აშშ-ის ოფიციალურმა პირებმა გამოხატეს ზოგიერთი სკეპტიციზმი, თუმცა საერთაშორისო თანამშრომლობა და ოპტიმიზმი ძლიერია უსაფრთხო AI განვითარების მიმართ.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

სილიკონიდან გრძნობისკენ: მემკვიდრეობა, რომელიც ნა…
ადამიანებმა ყოველთვის ემგზავრებოდნენ — არა მხოლოდ ფიზიკური სივრცეების Crossing-ისა, არამედ მუშაკობისა და აზროვნების ცვლილებების საშუალებით.

ბლოქჩეინ ეყრდნობა სამთავრობო სერვისებში: გლობალურ…
მსოფლიო გარბენში, მთავრობები უფრო და უფრო ხშირად იყენებენ ბლოკჩეინ ტექნოლოგიას როგორც ტრანსფორმაციული ინსტრუმენტი საჯარო მომსახურების გაუმჯობესებისთვის.

პაპა ლეო XIV უწერს პაპისია ხედვას, იმას რომ AI წა…
პაპა ლეო XIV სქოლაში წარმოგვიდგინა თავისი პაპობის ხედვა, ხაზგასმით აღვნიშნეთ ხელოვნური ინტელექტი (AI) როგორც ადამიანისათვის მნიშვნელოვანი გამოწვევა და დაყვედრებით დაადასტურა პაპა ფრენსისკის მიერ დაწესებული მთავარი პრიორიტეტები.

ბლოკჩეინის როლი Internet of Things (IoT) უსაფრთხო…
ბლოკჩેન ტექნოლოგიის ინტეგრაცია ინტერნეტ ოფით მის (IoT) მოწყობილობებთან ეფქტიურად აუმჯობესებს ციფრულ უსაფრთხოებას, უნიკალური დეცენტრალიზებული, შეცდომებსამხილავი მეთოდით მონაცემების მართვისთვის.

SoundCloud-ის განთავსების პირობები ეფუძნება ხელოვ…
SoundCloud ყოველთვის ხელოვანების პრიორიტეტია და მომავალშიც აგრძლებს ასე ყოფნას.

ბლოქჩეინის ინტეგრაცია ინტერნეტ ნივთებთან (IoT) მო…
ბლოკჩეინ ტექნოლოგიის ერთობლიობა ინტერნეტ ახალგაზრდული უქმნის ზღვარს მყიფე მოწყობილობებისა და აპლიკაციების სფეროში, რომლებსაც ახასიათებს ინოვაცია და გაუმჯობესებული ეფექტურობა.

პროგნოზი: ეს ხელოვნური ინტელექტის (AI) სამუხტო წა…
2023 და 2024 წლებში, S&P 500 და Nasdaq კომპოზიტი საკმაოდ გაიზარდა, საერთო დაბრუნება თითოეული 58% და 87% იყო, ძირითადად ხელოვნურ ინტელექტზე (AI) მაკომპლექსებული რევოლუციის გამო.