Anthropic pokreće Claude Opus 4 sa naprednim protokolima za AI sigurnost kako bi sprečio zloupotrebu

Dana 22. maja 2025. godine, Anthropic, vodeća firma za istraživanje veštačke inteligencije, predstavila je Claude Opus 4, svoj najnapredniji AI model do sada. Uz ovo izdanje, kompanija je uvela poboljšane protokole bezbednosti i stroge interne kontrole, vođene rastućim zabrinutostima u vezi sa potencijalnom zloupotrebom moćne veštačke inteligencije—posebno za kreiranje bioloških oružja i drugih štetnih aktivnosti. Claude Opus 4 predstavlja značajno unapređenje u odnosu na ranijeClaude modele, demonstrirajući primetno superiorne performanse na složenim zadacima. Interni testovi otkrili su njegovu zadivljujuću sposobnost da vodi čak i amatere kroz procedure koje bi mogle biti opasne ili neetičke, uključujući pomoć u kreiranju bioloških oružja—otkriće koje je uzbudilo i Anthropic i širu zajednicu veštačke inteligencije. Kao odgovor, Anthropic je primenio svoju Politiku odgovornog skaliranja (RSP), sveobuhvatni okvir za etičku upotrebu napredne veštačke inteligencije. To je uključivalo implementaciju protokola Bezbednosti AI nivo 3 (ASL-3), među najstrožim sigurnosnim i etičkim standardima u industriji. Mere prema ASL-3 uključuju pojačanu sajber bezbednost za sprečavanje neovlašćenog iskorišćavanja, sofisticirane sisteme za sprečavanje pokušaja zaobilaženja sigurnosnih ograničenja (anti-jailbreak sisteme) i specijalizovane klasifikatore podataka koji su osmišljenii da otkriju i neutrališu opasne ili zlonamerne zahteve.
Pored toga, Anthropic je uspostavio program nagrada (bounty) koji podstiče spoljne istraživače i hakere da identifikuju ranjivosti u Claude Opus 4, odražavajući kolaborativni pristup upravljanju rizicima u izazovima obezbeđivanja najnaprednijih AI sistema od novih pretnji. Iako je Anthropic odložio označavanje Claude Opus 4 kao inherentno opasnog—priznajući složenost procene rizika koji veštačka inteligencija može predstavljati—kompanija je izabrala oprezan stav primenom stroge kontrole. Ovaj model može postaviti važan presedan i za developere i za regulatore u upravljanju primenom moćnih AI sistema koji bi mogli izazvati štetu u slučaju zloupotrebe. Iako je Politika odgovornog skaliranja dobrovoljna, Anthropic želi da njene mere podstaknu šire industrijske standarde i promovišu zajedničku odgovornost među tvorcima AI. Kombinovanjem rigoroznih sigurnosnih zaštita sa konkurentnom ponudom proizvoda, Anthropic teži da uspostavi ravnotežu između inovacija i etičkog odgovornosti—težak balans s obzirom na to da projekcija godišnjeg prihoda Claude Opus 4 premašuje dva milijarde dolara i da se nalazi u snažnoj konkurenciji sa vodećim platformama AI kao što je ChatGPT od OpenAI. Ove zabrinutosti u vezi sa bezbednošću i politike javljaju se u okviru pojačane globalne rasprave o regulaciji veštačke inteligencije. Mnogi stručnjaci predviđaju da će vlade i međunarodne organizacije krenuti ka strožim pravilima za razvoj i upotrebu napredne AI. Sve dok takve regulative nisu široko usvojene i primenjivane, interne politike kao što je Anthropic-ova ostaju jedan od retkih efikasnih alata za upravljanje rizicima veštačke inteligencije. Ukratko, lansiranje Claude Opus 4 predstavlja značajan napredak u mogućnostima veštačke inteligencije, uz sve veću svest o etičkim i sigurnosnim izazovima. Proaktivna posvećenost Anthropic-a jačanju bezbednosnih mera pruža primer načina na koji će industrija verovatno oblikovati buduće norme i regulatorne okvire. Kako modeli veštačke inteligencije postaju sve snažniji i svestraniji, očuvanje od zloupotrebe postaje sve važnije, naglašavajući hitnu potrebu za koordiniranim naporima celokupnog tehnološkog ekosistema u cilju odgovornog razvoja i primene ovih transformativnih alata.
Brief news summary
Dana 22. maja 2025. godine, Anthropic je predstavio Claude Opus 4, svoj najnapredniji AI model do sada, što predstavlja veliki preokret u veštačkoj inteligenciji. Osmišljen za obavljanje složenih zadataka sa visokom efikasnošću, Claude Opus 4 takođe donosi značajne sigurnosne izazove, posebno u pogledu potencijalne zloupotrebe u osetljivim oblastima poput razvoja biološkog oružja. Kako bi se adresirali ovi rizici, Anthropic je implementirao stroge mere sigurnosti u okviru svoje Politike odgovornog skaliranja, uključujući protokole Sigurnosti AI nivo 3, koji obuhvataju pojačanu sajberbezbednost, zaštitu od jailbreak napada i brze klasifikatore za otkrivanje štetnog sadržaja. Kompanija je takođe pokrenula program nagrađivanja kako bi angažovala spoljnej stručnjake u identifikaciji ranjivosti. Iako Claude Opus 4 nije inherentno opasan, Anthropic ističe važnost pažljivog nadzora i etičke primene. Postavljen kao konkurencija rivalima poput ChatGPT-a od OpenAI-ja i sa očekivanim godišnjim prihodima od preko dve milijarde dolara, Claude Opus 4 ističe ključni balans između pionirskih inovacija u veštačkoj inteligenciji i odgovorne primene. Ovaj razvoj zahteva globalnu saradnju i regulative kako bi se osigurao siguran i etički napredak u AI tehnologiji.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Kupovina Jony Iveove start-up kompanije od strane…
OpenAI je napravio veliki napredak u svom naporu da pokrene veštačku inteligenciju napredovanjem tako što je kupio preostale akcije Jony Ive-ove dizajnerske startap kompanije io, u vrednosti od 5 milijardi dolara putem berzanske prodaje.

R3 i Solana udružuju snage za omogućavanje tokeni…
R3 i Fondacija Solana udružili su snage kako bi uveli regulisane stvarne digitalne aktive na javni blockchain.

Kako je lista za letošnje čitanje koju je napravi…
Nekoliko novina širom zemlje, uključujući Chicago Sun-Times i bar jedno izdanje The Philadelphia Inquirer, objavile su sindicirani letnji spisak knjiga s potpuno fiktivnim naslovima autoritativno pripisanim poznatim autorima.

Kraken će nuditi tokenizovane američke akcije na …
Kraken, kripto berza, planira da ponudi tokenizovane verzije popularnih američkih akcija putem novog proizvoda pod imenom xStocks, koji je pokrenut u saradnji sa Backed Finance.

OpenAI sklapaju sporazum sa dizajnerom iPhone-a J…
OpenAI, tvorac vodećeg umetničkog veštačkog inteligencije chatbota ChatGPT, priprema se za ulazak u svet fizičkog hardvera.

FIFA angažuje Avalanche za pokretanje posvećene b…
Međunarodna fudbalska federacija (FIFA) objavila je 22.

Sudija razmatra sankcije zbog lažnih citata gener…
Savezni sudija u Birmingemu, Alabama, razmatra da li će sankcionisati poznatu pravnu firmu Butler Snow nakon što je otkriveno pet lažnih pravnih citata u nedavnim sudskim podnescima vezanim za visokoprofilni slučaj u vezi sa sigurnošću zatvorenika u Zavodu za izvršenje kazni William E. Donaldson, gde je zatvorenik više puta napadnut nožem.