Els governs estatals prioritzen la privacitat de les dades en la innovació en IA i els experiments en àmbits de prova

Els estats de tot el país estan desenvolupant "sandboxes" i promovent l’experimentació amb la IA per permetre operacions més eficaces i eficients—tal vegada millor descrita com IA amb un propòsit. No obstant això, promoure la innovació dins del govern comporta riscos inherents. A Colorado, el CIO David Edinger va informar que la seva oficina ha revisat aproximadament 120 propostes relacionades amb la IA per a possibles aplicacions al govern estatal. Va detallar el seu procés per avaluar les submissions de les agències. Entre les idees considerades de risc "al·to" segons l'estructura del NIST, la majoria de les denegacions comparteixen un problema comú: pràctiques de dades que no compleixen les normes de privacitat de dades de l’estat. Colorado no és l’únic en prioritzar les pràctiques de dades a l’hora d’avaluar possibles socis d'IA. Durant una discussió amb Government Technology a la Conferència Intermèdia de la National Association of State Chief Information Officers (NASCIO) del mes passat, el President de Tecnologia de Califòrnia, Jonathan Porat, va destacar tres factors clau que guien l’avaluació dels casos d’ús de la IA per part de l’Estat. Més enllà d’avaluar si el cas d’ús és adequat per al govern estatal, els responsables revisen el historial de la tecnologia i examinen de prop les dades implicades en la proposta. “Les dades que estem utilitzant són adequades per a un sistema de GenAI?” va preguntar Porat. “Són governades i protegides adequadament?” Transcripció del vídeo: “Diria que fins ara hem revisat potser 120 propostes a través de totes les agències per a totes les possibles utilitzacions, seguint l’estructura del NIST—categoria com risc medi, alt o prohibit. Les utilitzacions prohibits les banem directament; les de risc medi les despleguem directament; i les de risc alt passen per una avaluació més exhaustiva.
Quan rebutgem propostes, gairebé sempre no és per l’ús previst, sinó per preocupacions sobre el compartiment de dades. Concretament, dades compartides amb proveïdors sota contractes estàndard que estan prohibits per la llei de l’Estat, com PII, HIPAA o dades CJIS. Hem de denegar aquestes no per com s’ha de fer servir la ferramenta, sinó perquè els acords de compartició de dades són inacceptables. Aquesta és realment l’error principal—i una cosa que ens va sorprendre—el problema no rau tant en l’ús en si, sinó en com se gestiona la privacitat de les dades. ” Noelle Knell és la editora executiva d’e. Republic, supervisant l’estratègia editorial global de les plataformes d’e. Republic, incloent Government Technology, Governing, Industry Insider, Emergency Management i el Center for Digital Education. Ha estat amb e. Republic des de 2011 i porta dècades d’experiència en escriptura, edició i lideratge. Nativa de Califòrnia, Noelle ha treballat tant en el govern estatal com en el local i té titulacions en ciència política i història americana per la Universitat de Califòrnia, Davis.
Brief news summary
Els estats dels EUA estan fomentant la innovació en IA al govern a través de bancs de proves i programes pilots destinats a millorar l'eficiència i l'eficàcia. No obstant això, aquestes iniciatives comporten riscos importants, especialment pel que fa a la privacitat de les dades. A Colorado, el CIO David Edinger va revisar gairebé 120 propostes d'IA de diverses institucions estatals, aplicant el marc de riscos de NIST per categoritzar-les com de risc mitjà, alt o prohibit. Les propostes de risc alt passen per una anàlisi rigorosa, amb moltes denegacions que no provenen de la tecnologia d'IA en si, sinó de la insuficiència de proteccions de privacitat de les dades que impliquen informació sensible regida per lleis com PII, HIPAA o CJIS. De manera similar, el CTO de Califòrnia, Jonathan Porat, va posar èmfasi avaluar l'IA segons la conveniència, la fiabilitat tecnològica i una governança sólida de les dades per gestionar de manera segura les dades utilitzades per IA generativa. Aquests exemples demostren que l'adopció reeixida de la IA al govern depèn de trobar un equilibri entre la innovació i les estrictes mesures de protecció de la privacitat i el compliment normatiu.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

GIBO llança USDG.net: inaugura una nova era de pa…
HONG KONG, 12 de maig de 2025 /PRNewswire/ -- GIBO Holdings Ltd.

Inversors recolzen start-ups que ajuden a gestion…
En els darrers anys, l’interès dels inversors ha crescut en el món de les startups que es especialitzen en la llicència de contingut per a l’entrenament de la intel·ligència artificial, impulsat pels desafiaments legals i reguladors creixents que afronten grans empreses tecnològiques com OpenAI, Meta i Google pel seu ús de materials amb drets d’autor en el desenvolupament de la IA.

President de la SEC: La blockchain "el potent·cia…
La tecnologia blockchain té el potencial de permetre «una àmplia gamma d’usos nous per a valors mobiliaris» i fomentar «nous tipus d’activitats de mercat que moltes de les normes i regulacions heretades de la Comissió no contemplen avui dia», va afirmar el president de la Comissió de Valors i Borses (SEC), Paul Atkins.

Google està desenvolupant un agent de programari …
Ahead de la seva esperada conferència anual per a desenvolupadors, Google s’està preparant, segons The Information, per a introduir un agent de desenvolupament de programari basat en IA revolucionari pels seus empleats i desenvolupadors.

Animoca Brands lliura la seva intenció de sortir …
La inversora de criptomonedes animoca Brands, amb seu a Hong Kong, s’està preparant perà crèixer en una borsa dels Estats Units, motivada per l’entorn regulador favorable per a les criptomonedes establert durant la presidència de Donald Trump.

Els robots humanoides impulsats per Intel·ligènci…
En un magatzem immens als afores de Xangai, desenes de robots humanoids són controlats activament per operadors per realitzar tasques repetitives com doblar samarretes, preparar sopes i obrir portes.

Google llança un fons per a startups d'IA que ofe…
Google va anunciar dilluns que llançarà un nou fons enfocat a invertir en startups d’intel·ligència artificial.