Transparentna upotreba AI od strane DCSA u federalnim sigurnosnim dozvolama
Brief news summary
Agencija za kontraobavještajnu djelatnost i sigurnost (DCSA) integrira AI u proces sigurnosne provjere SAD-a kako bi poboljšala efikasnost i odgovorila na prijetnje, istovremeno naglašavajući transparentnost. Direktor David Cattler ističe važnost korištenja AI alata koji su razumljivi, izbjegavajući neprozirne "crne kutije". Fokus je na upravljanju velikim setovima podataka i stvaranju AI sistema koji su objektivni i jasni, s ciljem smanjenja pristrasnosti i osiguravanja sigurnosti podataka. Cattler planira koristiti mape rizika u stvarnom vremenu za bolju raspodjelu resursa bez generiranja novih podataka. Međutim, stručnjaci poput Matthewa Scherera iz Centra za demokratiju i tehnologiju upozoravaju na moguće pogrešne identifikacije i pristrasnosti povezane s AI-om, posebno u provjeri prošlosti. Izvještaj RAND-a također ističe rizike curenja podataka i inherentne pristrasnosti. Nadgledanje je ključno za izbjegavanje pristrasnosti, a Cattler priznaje da će društvene vrijednosti oblikovati algoritme AI-a i uticati na nivo tolerancije u ovim sistemima.Agencija za obrambenu kontraobavještajnu i sigurnosnu zaštitu (DCSA), odgovorna za dodjelu sigurnosnih dozvola milionima američkih radnika, koristi AI alate kako bi unaprijedila svoje procese. Međutim, direktor DCSA David Cattler naglašava da ti AI alati moraju biti transparentni i razumljivi, izbjegavajući zamke "crnih kutija. " Agencija godišnje upravlja s 95% saveznih istraga sigurnosnih dozvola, što zahtijeva efikasno upravljanje ogromnim količinama podataka. Cattler primjenjuje provjere zdravog razuma, poput "testa mame, " kako bi osigurao etičko korištenje podataka. Iako ne koristi generativne AI modele poput ChatGPT-a, DCSA organizuje podatke s AI metodama sličnim onima koje koriste tradicionalne tehnološke kompanije, s prioritetom na postojeće prijetnje. Uprkos potencijalu AI, postoje rizici kompromitovanja sigurnosti podataka i uvođenja pristrasnosti. Cattler ostaje optimističan, ističući potrebu da AI sistemi pokažu kredibilitet i konzistentnost.
On vidi alate poput karata toplinskih mapa u stvarnom vremenu za DCSA objekte kao sredstvo za poboljšanje donošenja odluka bez otkrivanja novih informacija. Matthew Scherer iz Centra za demokratiju i tehnologiju ističe rizike kada AI donosi odluke, poput tokom provjera pozadine, gdje može doći do pogrešnih identifikacija. Cattler uvjerava da DCSA izbjegava korištenje AI-a za identifikaciju novih rizika, ali priznaje zabrinutosti oko privatnosti i pristrasnosti tokom prioritizacije informacija. Upotreba AI-a u Pentagonu podliježe nadzoru kako bi se zaštitilo od pristrasnosti, jer društvene vrijednosti koje utiču na algoritamske odluke evoluiraju tokom vremena.
Watch video about
Transparentna upotreba AI od strane DCSA u federalnim sigurnosnim dozvolama
Try our premium solution and start getting clients — at no cost to you