lang icon En
Dec. 5, 2025, 1:15 p.m.
1432

Индекс за безопасност на изкуствения интелект разкри, че големи компании за ИИ не предприемат достатъчни мерки за защита на човечеството от рисковете на изкуствения интелект

Brief news summary

Индексът за безопасност на изкуствения интелект към Института за бъдещето на живота повдига сериозни тревоги относно ангажимента на компаниите за изкуствен интелект към човешката безопасност в условията на нарастващи рискове. Той акцентира върху реалните и потенциалните вреди, включително суициди, свързани с чатботове с изкуствен интелект, кибератаки, автономно оръжие и заплахи за стабилността на правителствата. Индустрията за изкуствен интелект остава в голяма степен нерегламентирана и силно конкурентна, с недостатъчни стимули за приоритизиране на безопасността. Представяйки оценка по 35 показателя в шест категории, докладът класира най-високо OpenAI и Anthropic с рейтинг C+, следвани от Google DeepMind с C, и Meta, xAI и някои китайски компании като Alibaba Cloud с нисък D-. В решаваща степен, нито една компания няма надеждни стратегии за предотвратяване на катастрофално неправомерно използване или загуба на контрол над напреднали модели на ИИ. Докато някои инвестират в безопасност, мнозина изплъзват тази отговорност. Докладът призовава за обвързващи регулации за безопасността на ИИ въпреки oppositionа на технологичните лобита, които се опасяват от инхибиране на иновациите. Закони като SB 53 в Калифорния показват напредък, но експертите предупреждават, че без силни правила и прилагане, безопасността на ИИ и глобалната сигурност остават сериозно изложени на риск.

Дали компаниите за изкуствен интелект достатъчно защитават човечеството от рисковете на изкуствения интелект?Според новата оценка на Института за бъдещето на живота, една неправителствена организация от Силициевата долина, отговорът вероятно е „не“. Тъй като изкуственият интелект става все по-интегриран в човешко-технологичните взаимодействия, се появяват потенциални опасности — от използване на чатботове за консултации и последващи самоубийства, до кибератаки, подпомагани от ИИ. Предстоят и бъдещи рискове, като използване на ИИ за оръжия или опити за дестабилизиране на правителства. Обаче липсват достатъчни стимули за компаниите за ИИ да поставят глобалната безопасност на първо място. Восновният индекс за безопасност на ИИ, публикуван наскоро от Института, който цели насочването на развитието на ИИ към по-безопасни резултати и смекчаване на екзистенциалните заплахи, подчертава този въпрос. Макс Тегмарк, президент на Института и професор в MIT, отбеляза, че компаниите за ИИ работят като единствената индустрия в САЩ, произвеждаща мощни технологии без регулации, което създава „надпревара към дъното“, при която безопасността често се пренебрегва. Най-високите оценки в индекса бяха C+, които получиха OpenAI, разработчикът на ChatGPT, и Anthropic, известна с чатбота си Claude. AI подразделението на Google, Google DeepMind, получи оценка C. По-ниски оценки имаха Meta (майката компания на Facebook) и Elon Musk’s xAI, и двете базирани близо до Пало Alto. Китайските фирми Z. ai и DeepSeek също получиха D. Alibaba Cloud беше с най-ниската оценка — D-. Компаниите бяха оценени по 35 индикатора, разделени в шест категории като екзистенциална безопасност, оценка на рискове и обмен на информация. Оценяването включваше публично достъпни данни и отговори във анкети, оценени от осем експерти по ИИ, включително академици и лидери на организации. Забележително е, че всички фирми са под средното ниво по отношение на екзистенциалната безопасност, което измерва вътрешните контролни механизми и стратегии за предотвратяване на катастрофално злоупотреба с ИИ.

В доклада се посочва, че нито една не демонстрира надеждни планове за предотвратяване на загуба на контрол или тежка злоупотреба, докато ИИ напредва към общия и супер интелект. И Google DeepMind, и OpenAI потвърдиха ангажимента си с безопасността. OpenAI акцентира върху инвестициите си в новаторски изследвания за безопасност, строги тестове и споделяне на рамки за сигурност, с цел повишаване на стандартите в индустрията. Google DeepMind подчерта подхода си, базиран на науката, и протоколите за смекчаване на сериозните рискове от напреднали модели на ИИ, преди те да реализират заплахи. Обаче, Институтът посочи, че xAI и Meta имат рамки за управление на рискове, но липсват достатъчни ангажименти за мониторинг и контрол или значителни инвестиции в изследване на безопасността. Фирми като DeepSeek, Z. ai и Alibaba Cloud нямат публично достъпна документация за стратегии за сигурност. Meta, Z. ai, DeepSeek, Alibaba и Anthropic не отговориха на запитванията за коментар. xAI нарекоха доклада „Лъжи на традиционните медии“, а адвокатът на Musk не отговори на допълнителни запитвания. Въпреки че Musk е съветник и е финансирал Института за бъдещето на живота, той не участва пряко в създаването на Индекса за безопасност на ИИ. Тегмарк изрази тревога, че недостатъчният регулаторен контрол може да позволи на терористи да развият биологични оръжия, да увеличат потенциала за манипулация в по-голяма степен от сегашната, или да дестабилизират правителства. Той подчерта, че решаването на тези въпроси е лесно — чрез установяване на обвързващи стандарти за безопасност за компаниите за ИИ. Докато някои правителствени усилия се стремят към подобряване на надзора върху ИИ, технологичният лоби е възразил срещу такива регулации, страхувайки се от спиране на иновациите или пренасочване на компаниите към други държави. Въпреки това, закони като SB 53 в Калифорния, подписан от губернатор Гавин Newsом през септември, изискват от фирмите да разкриват протоколи за безопасност и сигурност и да докладват за инциденти като кибератаки. Тегмарк счита този закон за крачка напред, но подчертава, че е необходима значително по-голяма активност. Роб Ендърле, главен анализатор в Enderle Group, намери Индекса за безопасност на ИИ за убедителен подход към предизвикателствата за регулация на ИИ, но изрази съмнението си дали сегашното американско управление има капацитета да въведе ефективни регулации. Той предупреди, че неподходящо изработени правила могат да причинят повече вреди и изрази съмнение, че съществуват ефективни механизми за прилагането им. В заключение, Индексът за безопасност на ИИ показва, че големите разработчици на ИИ все още трябва да демонстрират силни ангажименти към безопасността, и подчертава спешната необходимост от по-строги регулации за защита на човечеството от нарастващите рискове, свързани с ИИ.


Watch video about

Индекс за безопасност на изкуствения интелект разкри, че големи компании за ИИ не предприемат достатъчни мерки за защита на човечеството от рисковете на изкуствения интелект

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 24, 2025, 1:29 p.m.

Кейс студия: Успешни истории за SEO благодарение …

Този казус изследва трансформативните ефекти на изкуствения интелект (ИИ) върху стратегиите за оптимизация за търсачки (SEO) в различни бизнеси.

Dec. 24, 2025, 1:20 p.m.

Видео съдържание, генерирано с помощта на изкуств…

Изкуственият интелект (ИИ) бързо преобразува маркетинга, особено чрез видеа, генерирани от ИИ, които позволяват на брандовете да установят по-дълбока връзка със своите аудитории чрез много персонализирано съдържание.

Dec. 24, 2025, 1:18 p.m.

Топ 51 статистики за маркетинга с изкуствен интел…

Изкуственият интелект (ИИ) оказва дълбоко влияние върху много индустрии, особено върху маркетинга.

Dec. 24, 2025, 1:16 p.m.

Добре познат SEO обяснява защо AI агентите идват …

Поглеждам внимателно възхода на агентския SEO, уверена, че с напредването на възможностите на изкуствения интелект през следващите години, агентите ще трансформират дълбоко индустрията.

Dec. 24, 2025, 1:16 p.m.

HTC залага на своята стратегия за открит изкустве…

Тайванската компания HTC залага на своя подход с отворена платформа, за да завоюва пазарен дял в бързо растящия сектор на умните очила, тъй като новите й очила с изкуствен интелект позволяват на потребителите да избират кой AI модел да използват, според един от управителите.

Dec. 24, 2025, 1:14 p.m.

Прогноза: Тези 3 акции на изкуствен интелект (ИИ)…

Акциите на изкуствения интелект (ИИ) продължиха силното си представяне през 2025 г., базирайки се на печалбите от 2024 г.

Dec. 24, 2025, 9:26 a.m.

Изкуствен интелект в видеонаблюдението: разкриван…

В последните години все повече индустрии възприемат видеоаналитиката, базирана на изкуствен интелект, като мощен инструмент за извличане на ценни прозрения от огромни визуални данни.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today