Дали компаниите за изкуствен интелект достатъчно защитават човечеството от рисковете на изкуствения интелект?Според новата оценка на Института за бъдещето на живота, една неправителствена организация от Силициевата долина, отговорът вероятно е „не“. Тъй като изкуственият интелект става все по-интегриран в човешко-технологичните взаимодействия, се появяват потенциални опасности — от използване на чатботове за консултации и последващи самоубийства, до кибератаки, подпомагани от ИИ. Предстоят и бъдещи рискове, като използване на ИИ за оръжия или опити за дестабилизиране на правителства. Обаче липсват достатъчни стимули за компаниите за ИИ да поставят глобалната безопасност на първо място. Восновният индекс за безопасност на ИИ, публикуван наскоро от Института, който цели насочването на развитието на ИИ към по-безопасни резултати и смекчаване на екзистенциалните заплахи, подчертава този въпрос. Макс Тегмарк, президент на Института и професор в MIT, отбеляза, че компаниите за ИИ работят като единствената индустрия в САЩ, произвеждаща мощни технологии без регулации, което създава „надпревара към дъното“, при която безопасността често се пренебрегва. Най-високите оценки в индекса бяха C+, които получиха OpenAI, разработчикът на ChatGPT, и Anthropic, известна с чатбота си Claude. AI подразделението на Google, Google DeepMind, получи оценка C. По-ниски оценки имаха Meta (майката компания на Facebook) и Elon Musk’s xAI, и двете базирани близо до Пало Alto. Китайските фирми Z. ai и DeepSeek също получиха D. Alibaba Cloud беше с най-ниската оценка — D-. Компаниите бяха оценени по 35 индикатора, разделени в шест категории като екзистенциална безопасност, оценка на рискове и обмен на информация. Оценяването включваше публично достъпни данни и отговори във анкети, оценени от осем експерти по ИИ, включително академици и лидери на организации. Забележително е, че всички фирми са под средното ниво по отношение на екзистенциалната безопасност, което измерва вътрешните контролни механизми и стратегии за предотвратяване на катастрофално злоупотреба с ИИ.
В доклада се посочва, че нито една не демонстрира надеждни планове за предотвратяване на загуба на контрол или тежка злоупотреба, докато ИИ напредва към общия и супер интелект. И Google DeepMind, и OpenAI потвърдиха ангажимента си с безопасността. OpenAI акцентира върху инвестициите си в новаторски изследвания за безопасност, строги тестове и споделяне на рамки за сигурност, с цел повишаване на стандартите в индустрията. Google DeepMind подчерта подхода си, базиран на науката, и протоколите за смекчаване на сериозните рискове от напреднали модели на ИИ, преди те да реализират заплахи. Обаче, Институтът посочи, че xAI и Meta имат рамки за управление на рискове, но липсват достатъчни ангажименти за мониторинг и контрол или значителни инвестиции в изследване на безопасността. Фирми като DeepSeek, Z. ai и Alibaba Cloud нямат публично достъпна документация за стратегии за сигурност. Meta, Z. ai, DeepSeek, Alibaba и Anthropic не отговориха на запитванията за коментар. xAI нарекоха доклада „Лъжи на традиционните медии“, а адвокатът на Musk не отговори на допълнителни запитвания. Въпреки че Musk е съветник и е финансирал Института за бъдещето на живота, той не участва пряко в създаването на Индекса за безопасност на ИИ. Тегмарк изрази тревога, че недостатъчният регулаторен контрол може да позволи на терористи да развият биологични оръжия, да увеличат потенциала за манипулация в по-голяма степен от сегашната, или да дестабилизират правителства. Той подчерта, че решаването на тези въпроси е лесно — чрез установяване на обвързващи стандарти за безопасност за компаниите за ИИ. Докато някои правителствени усилия се стремят към подобряване на надзора върху ИИ, технологичният лоби е възразил срещу такива регулации, страхувайки се от спиране на иновациите или пренасочване на компаниите към други държави. Въпреки това, закони като SB 53 в Калифорния, подписан от губернатор Гавин Newsом през септември, изискват от фирмите да разкриват протоколи за безопасност и сигурност и да докладват за инциденти като кибератаки. Тегмарк счита този закон за крачка напред, но подчертава, че е необходима значително по-голяма активност. Роб Ендърле, главен анализатор в Enderle Group, намери Индекса за безопасност на ИИ за убедителен подход към предизвикателствата за регулация на ИИ, но изрази съмнението си дали сегашното американско управление има капацитета да въведе ефективни регулации. Той предупреди, че неподходящо изработени правила могат да причинят повече вреди и изрази съмнение, че съществуват ефективни механизми за прилагането им. В заключение, Индексът за безопасност на ИИ показва, че големите разработчици на ИИ все още трябва да демонстрират силни ангажименти към безопасността, и подчертава спешната необходимост от по-строги регулации за защита на човечеството от нарастващите рискове, свързани с ИИ.
Индекс за безопасност на изкуствения интелект разкри, че големи компании за ИИ не предприемат достатъчни мерки за защита на човечеството от рисковете на изкуствения интелект
Този казус изследва трансформативните ефекти на изкуствения интелект (ИИ) върху стратегиите за оптимизация за търсачки (SEO) в различни бизнеси.
Изкуственият интелект (ИИ) бързо преобразува маркетинга, особено чрез видеа, генерирани от ИИ, които позволяват на брандовете да установят по-дълбока връзка със своите аудитории чрез много персонализирано съдържание.
Изкуственият интелект (ИИ) оказва дълбоко влияние върху много индустрии, особено върху маркетинга.
Поглеждам внимателно възхода на агентския SEO, уверена, че с напредването на възможностите на изкуствения интелект през следващите години, агентите ще трансформират дълбоко индустрията.
Тайванската компания HTC залага на своя подход с отворена платформа, за да завоюва пазарен дял в бързо растящия сектор на умните очила, тъй като новите й очила с изкуствен интелект позволяват на потребителите да избират кой AI модел да използват, според един от управителите.
Акциите на изкуствения интелект (ИИ) продължиха силното си представяне през 2025 г., базирайки се на печалбите от 2024 г.
В последните години все повече индустрии възприемат видеоаналитиката, базирана на изкуствен интелект, като мощен инструмент за извличане на ценни прозрения от огромни визуални данни.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today