Bekymringer knyttet til DeepSeek, Kinas nye store språkmodell, dreier seg om potensialet for at det kinesiske kommunistpartiet kan utnytte avansert AI i utformingen av sin grand strateg, og endre den tradisjonelle utenrikspolitikken som i stor grad er dominert av menneskelig vurdering. Etter hvert som AI-systemer blir stadig mer utbredt innen amerikansk nasjonal sikkerhet, belyser eksempler som ChatGPT Gov og tidligere modeller deres utvidende roller på tvers av offentlige etater. Forskning ledet av mitt team ved Center for Strategic and International Studies (CSIS), i samarbeid med AI-dataleverandøren Scale, avslører begrensninger i LLMs evne til å analysere kritiske problemstillinger innen stormaktsk konkurranse og krisehåndtering. Vår benchmarking-studie testet vanlige AI-modeller mot 400 scenarier, noe som avdekket algoritmiske skjevheter, spesielt en bekymringsfull tilbøyelighet for eskalering i krisesituasjoner. Denne aggressive tendensen kan forvrenge utslag som informerer menneskelige beslutningstakere under forhandlingsprosesser med høy innsats, noe som krever finjustering før AI kan integreres fullt ut i nasjonal sikkerhetsoperasjoner. Dette antyder ikke et forbud mot AI i nasjonal sikkerhet; snarere fremhever det behovet for tilpasset trening som forbedrer strategiske analyseevner og utruster fremtidige ledere til å samarbeide med AI som bearbeider store mengder data. Forskningsgruppen vår, sammen med andre forskere og AI-virksomheter, utviklet en benchmark-studie med fokus på beslutningstaking i utenrikspolitikk. Dette innebar utnyttelse av etablerte datasett fra tiår med samfunnsvitenskapelig forskning for å avdekke skjevheter og forbedre modeller. Resultatene indikerer at utbredte skjevheter kan føre til eskalering, noe som potensielt kan sette diplomatiske tilnærminger i kritiske kriser som spenningen mellom USA og Kina over Taiwan i fare. Tendensen for AI-modeller til å adoptere aggressive strategier varierer basert på det simulerte landet, ofte til fordel for konfrontasjonsatferd overfor amerikanske og allierte beslutningstakere.
Hvis dette ikke adresseres, tyder det på at avhengighet av slike modeller uten videre utvikling kan føre til risikable posisjoner i forhandlingsprosesser. Taiwan-scenariet illustrerer hvordan AI-skjevheter kan feiltolke handlinger—amerikanske trekk kan oppfattes som fiendtlige, mens kinesiske handlinger kan tolkes som godartede, noe som kan føre til økt feilberegning. Etter hvert som AI påvirker oppfatningen, beslutningstakingen og kommunikasjonen, kan iboende skjevheter forvrenge utgangene, noe som gjør grundig validering avgjørende for å minimere feil. Alvoret i denne problematikken forsterkes ettersom stormaktskonkurranse og komplekse kriser eskalerer. Lederskap kan være tilbøyelige til å stole på skjeve AI-verktøy, som betydelig innskrenker feilmarginen. Akkurat som uprøvde militære systemer ikke bør settes i verk, bør ikke upåviste AI-modeller lede politiske beslutninger. USA vil i økende grad stole på AI i landskapet for nasjonal sikkerhet, noe som nødvendiggør et fokus på å forbedre disse teknologiene i stedet for å unngå dem. CSIS er forpliktet til å fremme sin Critical Foreign Policy Benchmark som en del av et pågående forskningsinitiativ rettet mot å legge til rette for kontinuerlig modelljustering. For å effektivt integrere AI i statsmannskap bør et dedikert kompetansesenter etableres, som samler akademia, industri og regjering for trening, evaluering og utvikling. Denne samarbeidsmetoden vil bidra til å sikre at AI forstår kompleksiteten i internasjonale relasjoner, og beveger seg bort fra forenklede nullsum-rammer til å fremme nyansert politikkutforming.
DeepSeek og AI i nasjonal sikkerhet: Håndtering av skjevheter og forbedring av beslutningsprosessen.
Bloomberg Micron Technology Inc, den største amerikanske produsenten av minnebrikker, har kommet med en optimistisk prognose for inneværende kvartal, og viser til at økt etterspørsel og forsyningsknapphet gjør det mulig for selskapet å ta høyere priser for sine produkter
Tillit til generativ kunstig intelligens (AI) blant ledende reklameprofesjonelle når nye, historiske høyder, ifølge en fersk studie fra Boston Consulting Group (BCG).
Google DeepMind har nylig lansert AlphaCode, et banebrytende kunstig intelligens-system utviklet for å skrive datakode på et nivå som kan sammenlignes med menneskelige programmerere.
Etter hvert som det digitale landskapet raskt utvikler seg, har integrering av kunstig intelligens (KI) i søkemotoroptimalisering (SEO) blitt avgjørende for å oppnå suksess på nettet.
Fremveksten av kunstig intelligens (KI) i motebransjen har utløst sterk debatt blant kritikere, skapere og forbrukere.
I dagens raske verden, hvor publikum ofte synes det er utfordrende å sette av tid til lange nyhetsinnhold, tar journalister i økende grad i bruk innovative teknologier for å møte dette problemet.
Kunstig intelligens-teknologi revolusjonerer videoinnholdsproduksjon, hovedsakelig gjennom økningen av AI-drevne videoredigeringsverktøy.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today