lang icon En
March 1, 2025, 10:37 p.m.
1417

Историска согласност на Си Џинпинг и Џо Бајден за ВИ и нуклеарната војна

Brief news summary

Кон крајот на 2024 година, американскиот претседател Џо Бајден и кинескиот претседател Си Јинпинг постигнаа клучен договор кој декларира дека вештачката интелигенција (ВИ) не треба да диктира одлуки за нуклеарно лансирање. Ова значајно согласување произлезе од пет години дискусии во Трака II на Дијалогот меѓу САД и Кина за Вештачка Интелигенција и Национална Безбедност, организиран од Брукингс Институтот и Универзитетот Цинхуа. Дијалогот ги искористи лекциите од историските настани за Студената војна, како што се кризата со кубанските ракети во 1962 година и инцидентот со лажен аларм во 1983 година, кои и двата истакнаа ризиците што ги носи ВИ во нуклеарни ситуации. За време на кубанската криза, претседателот Кенеди успешно ги искористи дипломатските канали за да избегне катастрофа, додека советскиот офицер Станислав Петров спречи катастрофа со тоа што ја препозна лажната аларма. Овие настани ја нагласуваат клучната улога на човечкото расудување во нуклеарната команда и опасностите од автоматизираните системи. Договорот на Бајден и Си акцентира потребата од човечко надзорство во донесувањето нуклеарни одлуки за да се зајакне глобалната безбедност и да се заштити иднината на човештвото.

Кон крајот на 2024 година, кинескиот претседател Си Џинпинг и американскиот претседател Џо Бајден постигнаа значајно согласување дека вештачката интелигенција (AI) никогаш не би требало да има овластување да иницира нуклеарна војна. Оваа важна политичка одлука произлезе од пет години дијалог на Тире II дијалогот меѓу САД и Кина за Вештачка Интелигенција и Национална Безбедност, организиран од Брукингс Институтот и Универзитетот Цинхуа. Историските случаи од американско-советската конкуренција за време на Студената војна откриваат потенцијални катастрофи доколку AI бил во позиција да носи такви критични одлуки, истакнувајќи ја незаменливата улога на човечката свест во нуклеарни контексти. Три клучни инциденти го илустрираат оваа точка: 1. **Кубанската ракетна криза (1962)**: Кога американската разузнавање откри советски испораки на ракети во Куба, повеќето советници предлагаа итни воздушни напади, кои би можеле да предизвикаат ескалација. Претседателот Џон Ф. Кенеди, сепак, избра поморска карантина и дипломатски преговори, избегнувајќи катастрофа со поттикнување на повлекувањето на советските ракети од Куба. 2. **Кризата со лажен аларм во септември 1983**: Советскиот офицер Станислав Петров се соочи со ситуација каде што сензорите погрешно индицираа на доаѓачки американски напад со ракети.

Избирајќи да не реагира итно, правилно заклучи дека податоците беа неточни, спречувајќи потенцијална нуклеарна војна — инстинктивна проценка за која AI систем можеби не би дошол до неа, со оглед на воената доктрина во тоа време. 3. **НАТО вежбата Able Archer (ноември 1983)**: Оваа воена вежба ги зголеми тензиите, бидејќи советските лидери се плашеле дека ја кријат вистински напад. Американски генерал го препозна потенцијалот за погрешно разбирање на ситуацијата и советуваше против провокативни акции, демонстрирајќи ја човечката способност да оцени над следењето на протоколите. Во овие сценарии, AI можеби би импулсивно иницирала нуклеарни удари врз основа на погрешни интерпретации на нивоата на закана. Одлуката на Си и Бајден да забранат AI да лансира нуклеарни оружја ја истакнува потребата од човечко судење во ситуации со висок ризик. Додека напредната AI потенцијално може да помогне во донесувањето одлуки од страна на луѓето, потпирањето на машините за такви критични избори носи значителни ризици. Идните лидери се охрабруваат да ја одржат оваа клучна позиција против овластувањето на AI во одлуките за нуклеарна војна.


Watch video about

Историска согласност на Си Џинпинг и Џо Бајден за ВИ и нуклеарната војна

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 21, 2025, 1:44 p.m.

Инструменти за автоматска модерација на видеосодр…

Платформите за социјални медиуми се се повеќе применуваат вештачка интелигенција (ВИ) за подобро модерирање на видео содржината, одговарајќи на растот на видеата како доминантен облик на онлајн комуникација.

Dec. 21, 2025, 1:38 p.m.

САД повторно ги разгледуваат своите ограничувања …

ПОЛИТИЧКО ОДБРАНУВАЊЕ: По години на стеснување на ограничувањата, одлуката да се дозволи продажба на Nvidia H200 чипови во Кина заскокна противења од некои Републиканци.

Dec. 21, 2025, 1:38 p.m.

Комуникацијата со вештачка интелигенција беше при…

Отпуштањата предизвикани од вештачката интелигенција овозможија да се обележи пазарот на труд во 2025 година, со големи компании кои најавуваат илјадници отпуштања поради напредокот на АИ.

Dec. 21, 2025, 1:36 p.m.

Perplexity SEO услуги претставени – NEWMEDIA.COM …

RankOS™ ја зголемува видливоста на брендот и цитирањето на Перплексити AI и други платформи за пребарување со одговори Услуги на SEO агенцијата Perplexity Њујорк, НЈ, 19 декември 2025 (GLOBE NEWSWIRE) — НОВМЕДИА

Dec. 21, 2025, 1:22 p.m.

Фамилијалната канцеларија на Ерик Шмид инвестира …

Оригиналната верзија на овој напис се појави во newsletter-от Inside Wealth на CNBC, напишан од Роберт Франк, кој служи како неделна ресурс за инвеститори и потрошувачи со висока нето вредност.

Dec. 21, 2025, 1:21 p.m.

Брифинг за иднината на маркетингот: Зошто „само д…

Заглавјата се фокусираа на милијардерската инвестиција на Дизни во OpenAI и шпекулираа зошто Дизни го избра OpenAI наместо Google, кој го тужи поради наводно кршење авторски права.

Dec. 21, 2025, 9:34 a.m.

Податоците од Salesforce откриваат дека вештачкат…

Софторфоција објави детално извештај за настанот за купување Cyber Week 2025, анализирајќи податоци од преку 1,5 милијарди глобални купувачи.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today