lang icon Albanian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
4

Avokatët e Sigurimit të Inteligjencës Artificiale kërkojnë riprodhimin e llogaritjeve të testit bërthamor të Oppenheimer për sistemet ultra të fuqishme

Kompani të inteligjencës artificiale janë inkurajuar të ripërpunojnë llogaritjet e sigurisë që informuan testin e parë bërthamor të Robert Oppenheimer-it para se të lëshojnë sisteme jashtëzakonisht të fuqishme. Max Tegmark, një figurë e njohur në sigurinë e AI-së, zbuli se kishte bërë llogaritje të ngjashme me ato të fizikantit amerikan Arthur Compton përpara testit të Trinity-s. Tegmark gjeti një probabilitet prej 90% që një AI shumë i përparuar mund të paraqesë rrezik ekzistencial. Qeveria e SHBA-së vazhdoi me testin Trinity në vitin 1945 pasi mori siguri se rreziku i ndezjes së bombës atomike në atmosferë dhe kërcënimi për njerëzimin ishte shumë i vogël. Në një letër të shkruar nga Tegmark dhe tre studentë të MIT, ata rekomandojnë të bëjnë llogaritjen e “ constants së Comptonit, ” e cila përcaktohet si probabiliteti që një AI gjithëfuqishme të largohet nga kontrolli i njeriut. Compton, në një intervistë të vitit 1959 me shkrimtaren amerikane Pearl Buck, deklaroi se kishte miratuar testin pasi kishte vlerësuar shanset për një reaksion fusion të arratisur që ishte “ pak më i vogël” se një në tre milionë. Tegmark argumentoi se kompanitë e AI-së duhet të marrin përgjegjësinë për të përcaktuar me kujdes nëse Super Inteligjenca Artificiale (ASI)—një sistem teorik që kapërcen inteligjencën njerëzore në të gjitha fusha—do të shmangë mbikëqyrjen njerëzore. “Kompanitë që ndërtojnë super-iturje duhet të llogarisin konstantën e Compton-it, probabilitetin që ne ta humbasim kontrollin mbi atë, ” tha ai.

“Është e pamjaftueshme të thuhet ‘ne ndjehemi mirë për të. ’ Ata duhet të llogarisin përqindjen. ” Tegmark sugjeroi që një konsensus mbi konstantën e Compton-it i nxjerrë nga shumë kompani të krijojë “vullnet politik” për të vendosur standarde globale për sigurinë e AI-së. Si profesor fizikë dhe hulumtues i AI-së në MIT, Tegmark bashkëtheu Institutin e së Ardhmes së Jetës, një organizatë jofitimprurëse që promovon zhvillimin e sigurt të AI-së. Instituti publikoi një letër të hapur në vitin 2023 duke kërkuar që të bëhet një ndalim për krijimin e AI-ve të fuqishme. Mbi 33, 000 individë nënshkruan letrën, përfshirë Elon Musk—një mbështetës i hershëm i institutit—dhe bashkëthemeluesin e Apple Steve Wozniak. Letra, e lëshuar disa muaj pas publikimit të ChatGPT-së që shënoi një epokë të re në zhvillimin e AI-së, paralajmëronte se laboratorët e AI-së ishin duke hyrë në një “garë jashtë kontrollit” për të përdorur “tru huaj digital” gjithnjë e më të fuqishëm, të cilët askush nuk mund ta “kuptojë, parashikojë, ose kontrollojë me siguri. ” Tegmark foli për Guardian-in ndërsa një grup ekspertësh të AI-së— përfshirë profesionistë të industrisë teknologjike, përfaqësues të agjencive të sigurisë të mbështetura nga shteti dhe akademikë—po zhvillonin një qasje të re për zhvillimin e sigurt të AI-së. Raporti “Konsensusi Singaporian mbi Prioritetet e Hulumtimit Global për Sigurinë e AI-së, ” i prodhuar nga Tegmark, shkencëtari kryesor i kompjuterëve Yoshua Bengio, dhe stafi nga ndërmarrje të mëdha të AI-së si OpenAI dhe Google DeepMind, përmblodhi tre fusha kryesore të hulumtimit: zhvillimin e metodave për matjen e ndikimit të sistemeve aktuale dhe të ardhshme të AI-së; përcaktimin e sjelljes së dëshiruar të AI-së dhe krijimin e sistemeve për ta arritur atë; dhe menaxhimin dhe kontrollin e sjelljes së AI-së. Duke iu përgjigjur raporteve, Tegmark tha se nxitja për zhvillimin e sigurt të AI-së kishte rifilluar pas samitit të fundit qeveritar për AI në Paris, ku zëvendës-presidenti i SHBA-së, JD Vance, hodhi poshtë shqetësimet për sigurinë, duke thënë se e ardhmja e AI-së “nuk do të fitohet duke u merakosur për sigurinë. ” Tegmark shtoi: “Më duket se trishtimi nga Parisi është zhdukur dhe bashkëpunimi ndërkombëtar është kthyer fuqishëm. ”



Brief news summary

Eksperti për sigurinë e inteligjencës artificiale Max Tegmark, profesor i fizikës në MIT dhe bashkëthemelues i Institutit të Kohës së Tjetër, bën thirrje për adoptimin e llogarive të rrepta të sigurisë, të ngjashme me ato që u kryen para testit bërthamor Trinity të vitit 1945, duke theksuar rreziqet ekzistenciale që paraqet AI-ja e përparuar. Duke bërë krahasime me vlerësimin historik të Arthur Compton, Tegmark vlerëson se ka 90% shanse që AI-ja superinteligjente të shpëtojë nga kontrolli i njeriut dhe të kërcënojë njerëzimin. Ai propozon një “konstantë Compton”, një parametr i vlerësuar i rrezikut për AI-në e egër, për të informuar vendimmarrjen politike dhe marrëveshjet globale të sigurisë. Përpjekja e tij është në përputhje me letrën e hapur të Vitit të Tjetër të Institutit të Kohës së Tjetër të 2023-s, nënshkruar nga më shumë se 33,000 persona përfshirë Elon Musk dhe Steve Wozniak, duke paralajmëruar kundër një gare të pashkurtuar për AI. Tegmark gjithashtu dha kontribut në Konsensusin e Singaporit mbi Prioritetet e Hulumtimit për Sigurinë Globale të AI-së, me qëllim që të drejtojë kërkime të domosdoshme për sigurinë në mbarë botën. Pavarësisht skepticizmit nga zyrtarët amerikanë, bashkëpunimi ndërkombëtar dhe optimizmi për zhvillimin e sigurt të AI-së mbeten të fuqishëm.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 12, 2025, 3:58 a.m.

Papa Lea XIV thotë se avancimi i inteligjencës ar…

Papa Leo XIV zbuloi se emri i tij zgjedhur pasipec u frymëzua pjesërisht nga sfidat në rritje që paraqet një botë gjithnjë e më e formësuar nga inteligjenca artificiale.

May 12, 2025, 2:33 a.m.

Roli i Blockchain në Verifikimin e Identitetit Di…

Verifikimi i identitetit digjital është i domosdoshëm për sigurinë në mjedisin e lidhur sot në internet, ndërsa sasia në rritje e të dhënave personale po ndahet ndërmjet shërbimeve dixhitale.

May 12, 2025, 2:30 a.m.

Si i krahasojnë agjentët e inteligjencës artifici…

Financial Times kohët e fundit realizoi një vlerësim të gjerë të agjentëve të inteligjencës artificiale të zhvilluar nga kompanitë kryesore të teknologjisë, duke përfshirë OpenAI, Anthropic, Perplexity, Google, Microsoft dhe Apple.

May 12, 2025, 1:09 a.m.

Ndikimi i Mjedisit të Blockchain: Balancimi i Ino…

Ndërsa teknologjia blockchain po avancojë shpejtësisht, ndikimi i saj në mjedis është bërë një shqetësim në rritje global.

May 12, 2025, 1:07 a.m.

Emiratet e Bashkuara Arabe do të prezantojnë mësi…

Emiratet e Bashkuara Arabe (EBA) janë duke u udhëhequr në fushën e arsimit duke prezantuar një kurrikulë për inteligjencën artificiale (IA) për fëmijët që nga vitet e para në shkollat shtetërore.

May 11, 2025, 11:44 p.m.

Po, inteligjenca artificiale në fund do të zëvend…

Si shumë profesionistë të biznesit, jam i interesuar për inteligjencën artificiale (IA) dhe kohët e fundit pashë ChatGPT për thënie të liderëve të teknologjisë rreth rëndësisë së IA-së për bizneset.

May 11, 2025, 11:35 p.m.

Përmirësimi i Rrjetit Bitcoin Cash i planifikuar …

Rrjeti Bitcoin Cash është Planifikuar për një përmirësim të madh më 15 maj 2025, duke prezantuar rregulla të reja konsensusi për të përmirësuar efikasitetin dhe shkallëzueshmërinë, duke adresuar sfidat në përpunimin e shpejtë dhe të besueshëm të transaksioneve.

All news