lang icon En
Dec. 5, 2025, 1:15 p.m.
1409

Индекс за безбедност на вештачка интелигенција покажува дека големите компании за вештачка интелигенција не успеваат соодветно да ја заштитат човештвото од ризиците од вештачката интелигенција

Brief news summary

Институтот за иднината на животот (Future of Life Institute) со својот Индекс за безбедност на АИ буди сериозни загрижености за посветеноста на компаниите кои работат на АИ кон човечката безбедност во услови на растечки ризици. Тој нагласува вистински и потенцијални штети, меѓу кои се самоубиства поврзани со чатботовите на АИ, кибертатаки, автономни оружја и закани за стабилноста на владите. Индустријата за АИ останува речиси ненагледана и Тешко конкурирачна, со недостаточни стимуланси за да се приоритетизира безбедноста. Со проценка на 35 индикатори низ шест категории, извештајот ги рангира компаниите OpenAI и Anthropic највисоко со оцена C+, Google DeepMind со C, а Meta, xAI и одделни кинески фирми како Alibaba Cloud со слаба D-. Клучно е што ниту една компанија нема кредибилни стратегии за спречување катастрофално злоупотребување или губење на контрола врз напредната АИ. Иако некои инвестираат во безбедност, голем број ја избегнуваат оваа одговорност. Извештајот повикува на обврзувачки регулативи за безбедност на АИ, и покрај противењето од технолошките лобисти кои се загрижени за стерилизација на иновациите. Закони како SB 53 од Калифорнија претставуваат напредок, но експертите предупредуваат дека без силни правила и нивна примена, безбедноста на АИ и глобалната безбедност остануваат сериозно загрозени.

Дали компаниите за вештачка интелигенција доволно ги штитат човештвото од ризиците на вештачката интелигенција?Според новиот извештај- оценки од Институтот за иднината на животот, непрофитна организација од Силиконската Долина, одговорот е најверојатно не. Како што вештачката интелигенција станува сè повеќе интегрирана во човечко-технолошките интеракции, потенцијалните штети се јавуваат — од луѓе што користат чатботови со вештачка интелигенција за советување и потоа доживуваат самоубиство, до кибер напади со поддршка од вештачката интелигенција. Исто така, се надвиснуваат идни ризици, како што е употребата на вештачката интелигенција во оружје или обиди да се дестабилизираат владите. Сепак, постојат недостатоци во стимулирањето за компаниите за вештачка интелигенција да приоретизираат глобална безбедност. Новообјавениот индекс за безбедност на ИИ од Институтот, кој има намера да насочи развојот на ИИ кон побезбедни резултати и да ја ублажи постојната закана, ја истакнува оваа прашање. Максим Тегмарк, претседателот на Институтот и професор на МИТ, забележа дека компаниите за вештачка интелигенција функционираат како единствената индустрија во САД што произведува моќна технологија без регулатива, создавајќи „ трка кон дното“ каде безбедноста е често запоставена. Највисоките оценки во индексот беа само C+, доделени на OpenAI, развивачот на ChatGPT, и Anthropic, познат по својот чатбот Claude. AI одделот на Google, Google DeepMind, доби оценка C. Помалку оценети беа Meta (родителска компанија на Facebook) и xAI на Елон Муск, кои се наоѓаат близу до Пало Алто, со D. Кинеските компании Z. ai и DeepSeek исто така добија D. Alibaba Cloud доби најниска оценка, D-. Компаниите беа оценувани според 35 индикатори во шест категории, како што се екзистенцијална безбедност, проценка на ризик и размена на информации. Овој оценувачки процес комбинираше јавни податоци и одговори од анкетирани компании, оценети од осум експерти за вештачка интелигенција, меѓу кои беа академици и лидери на организации. Забележително е што сите компании имаа резултати под просекот во областа на екзистенцијалната безбедност, што ги мери внатрешните контроли и стратегии за спречување катастрофално злоупотреба на вештачката интелигенција.

Извештајот нагласи дека нема ниту една компанија која покажала кредибилни планови за спречување губење на контрола или сериозна злоупотреба, како што напредува вештачката интелигенција кон генералната и суперинтелигенцијата. И Google DeepMind и OpenAI ги потврдија своите заложби за безбедност. OpenAI истакна дека вложува во истражување на безбедност на границата, ригорозни тестирања и споделување на безбедносни рамки за подигнување на индустриските стандарди. Google DeepMind истакна дека користи научно-говедно пристап кон безбедноста и протоколи за спречување на сериозни ризици од напредните модели на вештачка интелигенција пред да се реализираат. За разлика од тоа, Институтот истакна дека xAI и Meta имаат рамки за управување со ризик, но недостигаат соодветни ангажмани за мониторинг и контрола или значајни инвестирања во истражување за безбедноста. Компаниите како DeepSeek, Z. ai и Alibaba Cloud немаат јавно достапна документација за безбедносната стратегија. Meta, Z. ai, DeepSeek, Alibaba и Anthropic не одговорија на барањата за коментар. xAI го отфрли извештајот како “лажи на наследните медиуми, ” а адвокатот на Муск не одговори на дополнителните прашања. Иако Муск советува и ја финансира организацијата Институтот за иднината на животот, тој не беше вклучен во подготовката на Индексот за безбедност на ИИ. Тегмарк изрази загриженост дека недоволната регулатива може да овозможи терористи да развијат биологички оружја, да ја зголемат манипулативната моќ над сегашните нивоа, или да ја дестабилизираат владите. Тој нагласи дека решавањето на овие прашања е едноставно: воведување обврзувачки стандарди за безбедност за компаниите за вештачка интелигенција. Додека некои владини напори се фокусираат на подобрување на надзорот врз ИИ, технолошкиот лобијинг противи се на таквите регулативи, стравувајќи од оневозможување на иновациите или транзиција на компании. Сепак, закони како SB 53 во Калифорнија, потпишан од гувернерот Гавин Нусом во септември, бараат компаниите да ги откриваат нивните безбедносни и сигурносни протоколи и да пријавуваат инциденти како кибернапади. Тегмарк оваа законска одредба ја смета за напредок, но нагласува дека е потребна многу поамбициозна акција. Роб Ендреле, главен аналитичар во групата Ендреле, ја оцени Индексот за безбедност на ИИ како привлечен пристап кон регулаторните предизвици на ИИ, но изрази сомнеж за капацитетите на тековната американска администрација да спроведе ефективни регулативи. Тој предупредува дека лошо изработените правила можат да предизвикаат штета и има други сомнежи дали моменталните механизми за проверка се доволни за обезбедување на спроведувањето. Во целина, Индексот за безбедност на ИИ покажува дека големите развивачи на ИИ сè уште не демонстрирале цврсти заложби за безбедност, што нагласува итната потреба од пожестоки регулативи за заштита на човештвото од растечките ризици на ИИ.


Watch video about

Индекс за безбедност на вештачка интелигенција покажува дека големите компании за вештачка интелигенција не успеваат соодветно да ја заштитат човештвото од ризиците од вештачката интелигенција

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 22, 2025, 1:22 p.m.

AIMM: Ослонета на вештачка интелигенција рамка за…

AIMM: Иновативна рамка базирана на вештачка интелигенција за откривање манипулации на пазарот на хартиите од вредност погодени од социјалните мрежи Во денешната брзо променлива средина на тргување со акции, социјалните мрежи се јавуваат како клучна сила што обликува динамиката на пазарот

Dec. 22, 2025, 1:16 p.m.

Исклучително: Filevine купува Pincites, компанија…

Правната технолошка компанија Filevine ја стекна Pincites, компанија за автоматско уредување на договори со вештачка интелигенција, подобрувајќи ја својата улога во корпоративното и трансакциското право и напредувајќи со стратегијата фокусирана на вештачката интелигенција.

Dec. 22, 2025, 1:16 p.m.

Влијанието на вештачката интелигенција врз SEO: Т…

Изкуствената интелигенција (ИК) брзо ја преобразува полињата на оптимизацијата за пребарувачи (SEO), обезбедувајќи дигитални маркетери со иновативни алати и нови можности за унапредување на нивните стратегии и постигнување повисоки резултати.

Dec. 22, 2025, 1:15 p.m.

Напредоци во детекција на длабоки фејкови со анал…

Напредокот во областа на вештачката интелигенција одигра клучна улога во борбата против дезинформациите преку создавање на напредни алгоритми што се одлеваат во откривање на длабоки подмамици—манипулирани видеа каде оригиналниот содржина е изменета или заменета за да се создаде погрешна претстава со цел да се измами гледачот и да се распространат заблуди.

Dec. 22, 2025, 1:14 p.m.

5 најдобри системи за продажба со вештачка интели…

Високото применување на вештачката интелигенција го трансформира продажбата со заменување на долгите циклуси и рачното следење со брзи, автоматизирани системи кои работат 24/7.

Dec. 22, 2025, 1:12 p.m.

Најнови вести за вештачка интелигенција и маркети…

Во брзото развивачко подрачје на вештачката интелигенција (ВИ) и маркетингот, последните значајни настани го обликуваат индустијат, носејќи нови можности и предизвици.

Dec. 22, 2025, 9:22 a.m.

Отворениот АИ гледа подобри маржи од деловните пр…

Објавувањето наведува дека компанијата ја подобри својата „маржа на пресметка“, што е внатрешна метрика која претставува дел од приходите останати по покривање на трошоците за оперативните модели за плаќачките корисници на нејзините корпоративни и потрошувачки производи.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today