Rządy stanów priorytetowo traktują ochronę danych w innowacjach AI i eksperymentach na piaskownicach

Państwa na całym kraju opracowują „sandboxy” i zachęcają do eksperymentowania z SI, aby umożliwić bardziej skuteczne i efektywne działania—najlepiej opisane jako SI z celem. Jednak promowanie innowacji w administracji wiąże się z inherentnymi ryzykami. W Kolorado, CIO David Edinger poinformował, że jego biuro przeanalizowało około 120 propozycji związanych z SI, mających potencjał do zastosowania w administracji stanowej. Opisał ich proces weryfikacji zgłoszeń od agencji. Wśród pomysłów ocenianych jako „wysoki” ryzyko zgodnie z ramami NIST, większość odrzuceń ma wspólny problem: praktyki dotyczące danych nie spełniają standardów prywatności danych obowiązujących w stanie. Kolorado nie jest odosobniony w priorytetowym traktowaniu praktyk dotyczących danych podczas oceny potencjalnych partnerów SI. Podczas dyskusji z Government Technology podczas tegorocznej Konferencji Środkowosemestralnej Stowarzyszenia Krajowych Dyrektorów Informatyki (NASCIO) w zeszłym miesiącu, kalifornijski CTO Jonathan Porat wskazał trzy kluczowe czynniki kierujące oceną przypadku użycia SI w stanie. Oprócz oceny, czy dany przypadek jest odpowiedni dla administracji stanowej, urzędnicy analizują dotychczasowe osiągnięcia technologii i dokładnie badają dane zaangażowane w propozycję. „Czy dane, z których korzystamy, są odpowiednie dla systemu GenAI?” zapytał Porat. „Czy są one odpowiednio zarządzane i zabezpieczone?” Transkrypt wideo: „Powiedziałbym, że do tej pory przejrzeliśmy około 120 propozycji we wszystkich agencjach na wszystkie możliwe zastosowania, zgodnie z ramami NIST—klasyfikując je jako ryzyko średnie, wysokie lub zakazane. Zastosowania zakazane odrzucamy od razu; te o ryzyku średnim wdrażamy bezpośrednio; a użycia o wysokim ryzyku poddaje się dokładniejszej ocenie.
Gdy odrzucamy propozycje, to najczęściej nie ze względu na zamierzone zastosowanie, lecz z powodu obaw związanych z udostępnianiem danych. Konkretnie, danych udostępnianych dostawcom na podstawie standardowych umów, które są zakazane przez prawo stanowe, takich jak dane PII, HIPAA czy CJIS. Musimy odrzucić te propozycje nie ze względu na sposób użycia narzędzia, lecz ze względu na nieakceptowalne warunki udostępniania danych. To jest naprawdę kluczowy problem—i ten, który nas zaskoczył—problem nie leży w samym zastosowaniu, lecz w tym, jak obchodzimy się z prywatnością danych. ” Noelle Knell jest redaktor naczelną e. Republic, nadzorującą ogólną strategię redakcyjną platform e. Republic, w tym Government Technology, Governing, Industry Insider, Emergency Management oraz Center for Digital Education. Pracuje w e. Republic od 2011 roku, posiada wieloletnie doświadczenie w pisaniu, redakcji i przywództwie. Urodzona w Kalifornii, Noelle pracowała zarówno w administracji stanowej, jak i lokalnej, i posiada tytuły naukowe z politologii oraz historii amerykańskiej na Uniwersytecie Kalifornijskim w Davis.
Brief news summary
Stany w całych Stanach Zjednoczonych wspierają innowacje w zakresie sztucznej inteligencji w administracji publicznej poprzez tworzenie sandboxów i programów pilotażowych mających na celu zwiększenie efektywności i skuteczności. Jednakże te inicjatywy wiążą się z poważnymi ryzykami, szczególnie w zakresie prywatności danych. W stanie Kolorado CIO David Edinger przejrzał prawie 120 propozycji AI od agencji stanowych, stosując ramy ryzyka NIST, aby zaklasyfikować je jako ryzyko średnie, wysokie lub zakazane. Propozycje o wysokim ryzyku podlegają rygorystycznej analizie, a wiele odmów wynika nie z samej technologii AI, lecz z niewystarczających zabezpieczeń prywatności danych zawierających informacje wrażliwe, regulowane przez prawo, takie jak PII, HIPAA czy CJIS. Podobnie CTO Kalifornii, Jonathan Porat, podkreślił konieczność oceny AI pod kątem adekwatności, niezawodności technologicznej oraz solidnego zarządzania danymi, aby bezpiecznie obsługiwać dane wykorzystywane przez generatywną AI. Te przykłady pokazują, że skuteczne wdrożenie AI w administracji publicznej wymaga wyważenia innowacji z rygorystycznymi zabezpieczeniami prywatności danych i zgodnością z przepisami.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

GIBO Uruchamia USDG.net: Nowa era płatności block…
HONG KONG, 12 maja 2025 /PRNewswire/ -- GIBO Holdings Ltd.

Inwestorzy wspierają start-upy pomagające w umowa…
W ostatnich latach zainteresowanie inwestorów start-upami specjalizującymi się w licencjonowaniu treści do celów szkolenia AI gwałtownie rośnie, napędzane narastającymi wyzwaniami prawnymi i regulacyjnymi, z jakimi borykają się główne firmy technologiczne, takie jak OpenAI, Meta czy Google, w związku z wykorzystywaniem materiałów chronionych prawem autorskim w rozwoju sztucznej inteligencji.

Przewodniczący SEC: Blockchain „niesie obietnicę”…
Technologia blockchain ma potencjał, aby umożliwić „ szeroki zakres nowych zastosowań dla papierów wartościowych” oraz zachęcać do „nowych rodzajów działalności rynkowej, których wiele obowiązujących obecnie reguł i regulacji Komisji nie przewiduje”, stwierdził przewodniczący Komisji Papierów Wartościowych i Giełd (SEC) Paul Atkins.

Google opracowuje programowego agenta AI na przed…
Przed długo wyczekiwanym corocznym konferencją deweloperską, Google podobno przygotowuje się do wprowadzenia przełomowego agenta do tworzenia oprogramowania opartego na sztucznej inteligencji dla swoich pracowników i deweloperów, według doniesień portalu The Information.

Animoca Brands planuje notowanie w USA w odpowied…
Hongkońska firma inwestycyjna w branży kryptowalut Animoca Brands przygotowuje się do wejścia na amerykański giełdę, kierując się korzystnym środowiskiem regulacyjnym dla kryptowalut, które zostało ustalone za czasów prezydenta Donalda Trumpa.

Chińskie roboty humanoidalne napędzane sztuczną i…
W ogromnym magazynie na obrzeżach Szanghaju dziesiątki humanoidalnych robotów jest aktywnie kontrolowanych przez operatorów, którzy wykonują powtarzalne zadania, takie jak składanie T-shirtów, przygotowywanie kanapek czy otwieranie drzwi.

Google uruchamia fundusz wspierający startupy AI,…
Google ogłosił w poniedziałek, że uruchomi nowy fundusz skoncentrowany na inwestowaniu w startupy z dziedziny sztucznej inteligencji.