Кон крајот на 2024 година, кинескиот претседател Си Џинпинг и американскиот претседател Џо Бајден постигнаа значајно согласување дека вештачката интелигенција (AI) никогаш не би требало да има овластување да иницира нуклеарна војна. Оваа важна политичка одлука произлезе од пет години дијалог на Тире II дијалогот меѓу САД и Кина за Вештачка Интелигенција и Национална Безбедност, организиран од Брукингс Институтот и Универзитетот Цинхуа. Историските случаи од американско-советската конкуренција за време на Студената војна откриваат потенцијални катастрофи доколку AI бил во позиција да носи такви критични одлуки, истакнувајќи ја незаменливата улога на човечката свест во нуклеарни контексти. Три клучни инциденти го илустрираат оваа точка: 1. **Кубанската ракетна криза (1962)**: Кога американската разузнавање откри советски испораки на ракети во Куба, повеќето советници предлагаа итни воздушни напади, кои би можеле да предизвикаат ескалација. Претседателот Џон Ф. Кенеди, сепак, избра поморска карантина и дипломатски преговори, избегнувајќи катастрофа со поттикнување на повлекувањето на советските ракети од Куба. 2. **Кризата со лажен аларм во септември 1983**: Советскиот офицер Станислав Петров се соочи со ситуација каде што сензорите погрешно индицираа на доаѓачки американски напад со ракети.
Избирајќи да не реагира итно, правилно заклучи дека податоците беа неточни, спречувајќи потенцијална нуклеарна војна — инстинктивна проценка за која AI систем можеби не би дошол до неа, со оглед на воената доктрина во тоа време. 3. **НАТО вежбата Able Archer (ноември 1983)**: Оваа воена вежба ги зголеми тензиите, бидејќи советските лидери се плашеле дека ја кријат вистински напад. Американски генерал го препозна потенцијалот за погрешно разбирање на ситуацијата и советуваше против провокативни акции, демонстрирајќи ја човечката способност да оцени над следењето на протоколите. Во овие сценарии, AI можеби би импулсивно иницирала нуклеарни удари врз основа на погрешни интерпретации на нивоата на закана. Одлуката на Си и Бајден да забранат AI да лансира нуклеарни оружја ја истакнува потребата од човечко судење во ситуации со висок ризик. Додека напредната AI потенцијално може да помогне во донесувањето одлуки од страна на луѓето, потпирањето на машините за такви критични избори носи значителни ризици. Идните лидери се охрабруваат да ја одржат оваа клучна позиција против овластувањето на AI во одлуките за нуклеарна војна.
Историска согласност на Си Џинпинг и Џо Бајден за ВИ и нуклеарната војна
Платформите за социјални медиуми се се повеќе применуваат вештачка интелигенција (ВИ) за подобро модерирање на видео содржината, одговарајќи на растот на видеата како доминантен облик на онлајн комуникација.
ПОЛИТИЧКО ОДБРАНУВАЊЕ: По години на стеснување на ограничувањата, одлуката да се дозволи продажба на Nvidia H200 чипови во Кина заскокна противења од некои Републиканци.
Отпуштањата предизвикани од вештачката интелигенција овозможија да се обележи пазарот на труд во 2025 година, со големи компании кои најавуваат илјадници отпуштања поради напредокот на АИ.
RankOS™ ја зголемува видливоста на брендот и цитирањето на Перплексити AI и други платформи за пребарување со одговори Услуги на SEO агенцијата Perplexity Њујорк, НЈ, 19 декември 2025 (GLOBE NEWSWIRE) — НОВМЕДИА
Оригиналната верзија на овој напис се појави во newsletter-от Inside Wealth на CNBC, напишан од Роберт Франк, кој служи како неделна ресурс за инвеститори и потрошувачи со висока нето вредност.
Заглавјата се фокусираа на милијардерската инвестиција на Дизни во OpenAI и шпекулираа зошто Дизни го избра OpenAI наместо Google, кој го тужи поради наводно кршење авторски права.
Софторфоција објави детално извештај за настанот за купување Cyber Week 2025, анализирајќи податоци од преку 1,5 милијарди глобални купувачи.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today