Anthropic го лансира Claude Opus 4 со напредни протоколи за безбедност на вештачката интелигенција за спречување на злоупотреба

На 22 мај 2025 година, Anthropic, водејка компанија за истражување на вештачка интелигенција, претстави Claude Opus 4, најнапредниот модел на вештачка интелигенција досега. Воедно, компанијата воведе подобрени протоколи за безбедност и строги внатрешни контроли, со цел да се спречат можните злоупотреби на моќната вештачка интелигенција—особено за создавање биолошки оружја и други опасни активности. Claude Opus 4 значително напредува во однос на претходните модели на Claude, покажувајќи далеку посупериорна способност при сложени задачи. Внатрешните тестови открија неговата неверојатна способност да води и почетници низ процедури кои можат да бидат опасни или етички спорни, вклучувајќи и помагање при создавање на биолошки оружја— откритие кое ги загрижи како Anthropic, така и пошироката заедница на вештачка интелигенција. Во одговор, Anthropic ја спроведе својата Политика за одговорно скалирање (RSP), сеопфатен рамков за етичко користење на напредната вештачка интелигенција. Ова подразбира употреба на протоколи за безбедност на вештачката интелигенција ниво 3 (ASL-3), меѓу најстрогите стандарди за безбедност и етика во индустријата. Мерките под ASL-3 вклучуваат напредна сајбер-сигурност за спречување неовластено искористување, сложени системи за спречување на експлоатација со практики како jailbreaking за избегнување на безбедносните ограничувања, и специјализирани класификатори за запишување на побуди, со цел да се детектираат и неутрализираат штетни или злонамерни прашања. Исто така, Anthropic воспостави програма за наградување (bounty) која ги поттикнува надворешните истражувачи и хакери да ги идентификуваат слабостите кај Claude Opus 4, што ја демонстрира соработката во управувањето со ризикот во услови на предизвиците околу заштитата на најсовремените АИ системи од нови закани. И покрај тоа што Anthropic не ја означи Claude Opus 4 како природно опасен—признавајќи ги комплексностите при проценката на ризиците од АИ—компанијата избра претпазлива позиција и воведе строги контроли.
Овој модел би можел да постави важен пример за развивачите и регулаторите при управувањето со употребата на моќни системи за АИ кои можат да предизвикаат штета ако се злоупотребат. Иако Политиката за одговорно скалирање е доброволна, Anthropic се надева дека нејзините мерки ќе инспирираат пошироки индустриски стандарди и одговорност меѓу создателите на АИ. Комбинирајќи строга безбедносна заштита со конкурентен производ, Anthropic се стреми да ги балансира иновацијата и етичкото одговорност, што е особено важно имајќи ја предвид проектната годишна приходност на Claude Opus 4 што надминува две милијарди долари, како и силната конкуренција од водечките платформи за АИ, како што е ChatGPT на OpenAI. Овие безбедносни загрижености и политики се јавуваат на патот на зголемените глобални дискусии за регулација на АИ. Многу експерти предвидуваат дека владите и меѓународните тела ќе се движат кон посериозни правила за развој и употреба на напредната АИ. Сè додека таквите регулативи не се широко усвоени и спроведени, внатрешните политики како оваа на Anthropic остануваат еден од малкуте вистински ефективни алатки за управување со ризиците од АИ. Во сумирање, лансирањето на Claude Opus 4 претставува значаен напредок во можностите на АИ, заедно со зголемената свест за етичките и безбедносните предизвици. Проактивната посветеност на Anthropic кон цврсти безбедносни мерки го покажува пристапот кој најверојатно ќе ги обликува идните индустриски стандарди и рамки за регулација. Конечно, како што моделите на АИ стануваат се посилни и пофлексибилни, заштитата од злоупотреба станува сè по-важна, нагласувајќи ја итноста за координирани напори низ целокупната технолошка заедница за одговорен развој и употреба на овие трансформативни алатки.
Brief news summary
На 22 мај 2025 година, Anthropic претстави Claude Opus 4, својот најнапреден модел на вештачка интелигенција досега, што претставува голем пресврт во областа на вештачката интелигенција. Направен за справување со сложени задачи со висок степен на прецизност, Claude Opus 4 исто така носи значајни безбедносни предизвици, особено во врска со потенцијалната злоупотреба во чувствителни области како развој на биолошко оружје. За справување со овие ризици, Anthropic спроведе строги безбедносни мерки според својата Политика за одговорно скалирање, вклучувајќи протоколи на ниво на безбедност на вештачката интелигенција 3, како што се подобрени мерки за сајбер безбедност, одбрана од нелегално остварување (jailbreak) и брзи класификатори за откривање штетна содржина. Компанијата исто така започна програма за награди со цел да вклучи надворешни експерти за идентификација на ранливости. Иако Claude Opus 4 не е во основа опасен, Anthropic нагласува колку е важно внимателното надгледување и етичкото користење. Позициониран да се конкурира со ривали како ChatGPT на OpenAI и се очекува да генерира повеќе од 2 милијарди долари годишно, Claude Opus 4 ја нагласува клучната рамнотежа меѓу иновативните достигнувања во областа на вештачката интелигенција и одговорната примена. Овој развој бара глобално соработување и регулатива за да се осигура безбедното и етичко напредување во технологијата на вештачката интелигенција.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Придобивањето на OpenAI на стартапот на Џони Ив с…
OpenAI направи голем напредок во своите напори да придвижи напред вештачката интелигенција со стекнување на останатите акции од стартапот за дизајн Јони Ив, io, во вредност од 5 милијарди долари преку договор за акции.

R3 и Solana партнеруваат за олеснување на токениз…
R3 и Фондацијата Солана се здружија за да воведат регулирани реални светски активи на јавен блокчейн.

Kako здружена листа за летно читање создадена од …
Неколку весници ширум земјата, вклучувајќи ги Chicago Sun-Times и барем една издание на The Philadelphia Inquirer, објавија синдицирана летна листа на книги со целосно измислени книги кои се приписуваат на познати автори.

Кракен ќе нуди токенизирани американски акции на …
Криптоекономската размена Kraken планира да понуди токенизирани верзии на популарни американски акции преку нов производ наречен xStocks, лансиран во партнерство со Backed Finance.

OpenAI склучи договор со дизајнерот на iPhone, Џо…
OpenAI, kreator na vodeč ogled na veštačka inteligенција ChatGPT, se podgotвува да vлеси vo svetот na fizichkite uredi.

ФИФА ја ангажира Avalanche за лансирање посветена…
Меѓународната фудбалска федерација (ФИФА) објави на 22 мај дека избрала Avalanche за поддршка на нејзината посветена блокчейн мрежа фокусирана на непогасливи токени (NFT) и дигитално ангажирање на навивачите.

Судија разгледува санкции поради лажни цитати ген…
Федерален судија во Бирмингам, Алабама, го прегледува можноста за санкционирање на познатата правна фирма Butler Snow откако откри пет лажни правни цитати во неодамнешните судски документи поврзани со високо профилиран случај за безбедноста на затвореникот во поправниот дом William E. Donaldson, каде што затвореникот бил намушкан повеќе пати.