Státní vlády kladou důraz na ochranu soukromí při inovacích v oblasti umělé inteligence a experimentech v sandboxu

V celých Spojených státech se vyvíjejí „sandboxy“ a podporuje se experimentování s umělou inteligencí, aby bylo možné dosáhnout efektivnější a účinnější činnosti — nejlépe popisované jako AI s jasným cílem. Nicméně podpora inovací ve vládě s sebou nese i určitá rizika. V Coloradu uvedl CIO David Edinger, že jeho kancelář zhodnotila přibližně 120 návrhů souvisejících s AI, které měly potenciál být využity ve státní správě. Podrobně popsal jejich proces posuzování návrhů agentur. Mezi nápady, které byly označeny za „vysoké“ riziko podle rámce NIST, má většina zamítnutí společný problém: porušování pravidel týkajících se ochrany dat, která nesplňují standardy státu v oblasti soukromí dat. Colorado není jediným státem, který při hodnocení potenciálních partnerů v oblasti AI klade důraz na správu dat. Během diskuse s časopisem Government Technology na konferenci Národní asociace ředitelů státní informační technologie (NASCIO) v minulém měsíci, představil kalifornský hlavní technologický úředník Jonathan Porat tři klíčové faktory, které ovlivňují hodnocení případů použití AI ve státě. Kromě posouzení, zda je dané použití vhodné pro státní správu, hodnotí úředníci také úspěšnost technologie a pečlivě zkoumají data, která jsou s návrhem spojena. „Jsou data, která používáme, vhodná pro systém generativní AI?“ položil otázku Porat. „Jsou správně spravována a zabezpečena?“ Video přepis: „Řekl bych, že jsme zatím zhodnotili asi 120 návrhů napříč všemi agenturami pro všechny možné účely podle rámce NIST — kategorizujíc je jako střední, vysoké či zakázané riziko. Zakázané použití zakazujeme úplně; středně rizikové využíváme přímo; a u vysokorizikových případů provádíme důkladnější posouzení.
Při zamítání návrhů to obvykle není kvůli zamýšlenému účelu, ale kvůli obavám týkajícím se sdílení dat. Konkrétně dat sdílených s poskytovateli na základě standardních smluv, které jsou zákonem zakázány, například osobních údajů, dat podle HIPAA nebo dat CJIS. Musíme je odmítnout nejen kvůli způsobu používání nástroje, ale protože dohody o sdílení dat jsou nepřijatelné. To je opravdu hlavní problém — a překvapilo nás to — problém nespočívá v samotném použití, ale v tom, jak je zajistěna ochrana dat. “ Noelle Knell je výkonnou redaktorkou platformy e. Republic, kde dohlíží na celkovou redakční strategii pro platformy e. Republic, včetně Government Technology, Governing, Industry Insider, Emergency Management a Center for Digital Education. Ve společnosti e. Republic pracuje od roku 2011 a má desetiletí zkušeností s psaním, editací a vedením. Pochází z Kalifornie a má vzdělání v oboru politologie a americké historie z Kalifornské univerzity v Dublinu.
Brief news summary
Státy po celé USA podporují inovace v oblasti AI v rámci vládních institucí prostřednictvím sandboxů a pilotních programů zaměřených na zvýšení efektivity a účinnosti. Nicméně tyto iniciativy přinášejí významná rizika, zejména co se týče ochrany soukromí dat. V Coloradu provedl CIO David Edinger přezkoumání téměř 120 návrhů na AI od státních agentur a aplikoval rámec rizik NIST, aby je zařadil do kategorií středního, vysokého nebo zakázaného rizika. Návrhy s vysokým rizikem jsou podrobně posuzovány, přičemž mnohé zamítnutí nevznikají kvůli samotné technologii AI, ale kvůli nedostatečné ochraně soukromí dat, které zahrnují citlivé informace upravované zákony jako PII, HIPAA nebo CJIS. Podobně kalifornský CTO Jonathan Porat zdůraznil důležitost posuzování AI na základě vhodnosti, technické spolehlivosti a důsledného řízení dat, aby bylo možné bezpečně zacházet s daty používanými generativní AI. Tyto příklady ukazují, že úspěšné zavádění AI ve vládě závisí na nalezení rovnováhy mezi inovacemi a přísnou ochranou soukromí dat a dodržováním předpisů.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Předsedkyně SEC: Blockchain „má slib“ nových druh…
Technologie blockchain má potenciál umožnit „širokou škálu nových případů použití cenných papírů“ a podpořit „nové druhy tržních aktivit, které dnešní starší pravidla a předpisy Komise nezohledňují,“ uvedl předseda Komise pro cenné papíry a burzy (SEC) Paul Atkins.

Google vyvíjí softwarového AI agenta před každoro…
Před očekávanou každoroční konferencí vývojářů Google podle informací serveru The Information plánuje představit svým zaměstnancům a vývojářům revolučního agenta pro vývoj umělé inteligence.

Animoca Brands plánuje uvedení na burzu v USA upr…
Hongkongský investor do kryptoměn Animoca Brands se připravuje na uvedení na americkou burzu, motivován příznivým regulačním prostředím pro kryptoměny, které bylo zavedeno za prezidenta Donalda Trumpa.

Čínské humanoidní roboty poháněné umělou intelige…
V obrovském skladu na okraji Šanghaje jsou desítky humanoidních robotů aktivně řízeny operátory, kteří provádějí opakované úkoly, jako je skládání triček, příprava sendvičů nebo otevírání dveří.

Google spouští fond na podporu startupů v oblasti…
Google v pondělí oznámil, že spustí nový fond zaměřený na investice do startupů v oblasti umělé inteligence.

Základy kryptoměn: Výhody, nevýhody a jak to fung…
Vy jste naší nejvyšší prioritou – vždy.

Perplexity se blíží ke druhému kole financování z…
Perplexity, vyhledávač poháněný umělou inteligencí se sídlem v San Franciscu, se blíží ke konci pátého kola financování během pouhých 18 měsíců, což odráží rychlou expanzi a rostoucí důvěru investorů.