Държавните власти поставят на първо място поверителността на данните в иновациите с изкуствен интелект и експериментите в пясъчници

Национално във всички щати се разработват "песъчници" и се насърчава експериментирането с изкуствен интелект, за да се постигнат по-ефективни и ефикасни операции — може би най-добре описано като ИИ с цел. Въпреки това, насърчаването на иновациите в държавната администрация носи вродени рискове. В Колорадо главният информационен директор Дейвид Едингър съобщи, че неговият офис е разгледал приблизително 120 предложения, свързани с ИИ, за потенциални приложения в държавната администрация. Той описа техния процес на проверка на предложенията на агенциите. Сред идеите, класифицирани като "висок" риск според рамката на NIST, повечето отхвърляния споделят една и съща причина: данните и практиките свързани с тях не отговарят на стандартите за защита на личната информация на щата. Колорадо не е изключение в приоритизирането на практиките за защита на данните при оценка на потенциалните партньори в сферата на изкуствения интелект. По време на дискусия с "Government Technology" по време на Месечната конференция на Националната асоциация на държавните главни информационни директори (NASCIO) миналия месец, главният технологичен директор на Калифорния Хонатан Порат очерта трите ключови фактора, които ръководят оценката на използването на ИИ от щата. Освен оценката дали конкретното приложение е подходящо за държавната администрация, служителите разглеждат и доказателственият му опит и внимателно изследват данните, включени в предложението. „Подходящи ли са данните, които използваме, за система с Генеративен ИИ?“ — попита Порат. „Дали са правилно управлявани и защитени?“ Текст от видео: „Ще кажа, че досега сме разгледали около 120 предложения за всички агенции за всякакви възможни употреби, следвайки рамката на NIST — категоризирайки ги като с умерен, висок или забранен риск. Забранените употреби ги спираме веднага; приложенията с умерен риск ги внедряваме директно; а за употребите с висок риск провеждаме по-старателна оценка.
При отхвърлянето на предложенията, причината почти винаги не е свързана с предвидената употреба, а с опасения относно споделянето на данни. Конкретно, данните, споделяни с доставчици по стандартни договори, които са забранени по закон на щата, като лични данни (PII), HIPAA или данни от CJIS. Трябва да откажем тези споделяния, не заради начина на използване на инструмента, а защото договорните условия за обмен на данни са неприемливи. Това е истинският основен проблем — и който ни изненада — проблемът не е в самата употреба, а в начина, по който се третират данните и защитата им. “ Ноел Нел е главен редактор във e. Republic, където управлява цялостната редакторска стратегия за платформите на e. Republic, включително Government Technology, Governing, Industry Insider, Emergency Management и Центъра за дигитално образование. Тя е част от e. Republic от 2011 година и има десетилетия опит в областта на писане, редактиране и лидерство. Родена в Калифорния, Ноел е работила както в държавното, така и в местното управление, и има степени по политически науки и американска история от университета Калифорния, Дейвис.
Brief news summary
Щати из цялата страна в САЩ насърчават иновациите в областта на изкуствения интелект в управлението чрез пясъчници и пилотни програми, насочени към повишаване на ефективността и резултатността. Въпреки това, тези инициативи носят значителни рискове, особено що се отнася до поверителността на данните. В Колорадо, CIO Дейвид Едингър прегледа почти 120 предложения за изкуствен интелект от държавните агенции, като приложи рисковата рамка на NIST за класифициране като среден, висок или забранен риск. Предложенията с висок риск подлежат на строги проверки, като много от тях бъдат отхвърлени не заради самата технология на AI, а заради недостатъчни защити на данните, включващи чувствителна информация, регулирана от закони като PII, HIPAA или CJIS. По подобен начин, CTO на Калифорния Джонатан Порат подчерта важността на оценката на AI въз основа на уместност, технологична надеждност и силен контрол върху управлението на данните, за да се осигури сигурното боравене с данни, използвани от генеративен AI. Тези примери показват, че успешното внедряване на AI в управлението зависи от балансиране между иновациите и стриктните мерки за поверителност на данните и регулаторните изисквания.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Гугъл стартира фонд за финансиране на стартъпите …
Гугъл обяви в понеделник, че ще създаде нов фонд, насочен към инвестиране в стартъпи в сферата на изкуствения интелект.

Базови знания за криптовалутите: плюсове, минуси …
Вие винаги сме нашият приоритет.

Perplexity наближава второто си набиране на средс…
Перплексити, базирана в Сан Франциско търсачка, задвижвана от изкуствен интелект, наближава края на петата си криза на финансиране само за 18 месеца, което отразява бърз растеж и увеличаващо се доверие от страна на инвеститорите.

Solana празнува 5 години: 400 милиарда транзакции…
Солана блокчейн наскоро отпразнува голям връх, отбелязвайки пет години от старта на основната мрежа на 16 март 2020 г.

Блокчейн група обявява емисия на конвертируеми об…
Путо, 12 май 2025 г.

AI компанията Perplexity очаква оценка от 14 мили…
Perplexity AI, бързо развиващ се стартъп, специализиран в инструменти за търсене, базирани на изкуствен интелект, се съобщава, че води напреднали преговори за осигуряване на 500 милиона долара в нов кръг на финансиране, според Уолстрийт Джърнъл.

Новият председател на SEC възнамерява да издаде п…
Председателят на Комисията по ценните книжа и биржите (SEC) ПолАткинс обяви всеобхватни планове за модернизация на регулаторната рамка за криптоактиви.