Dario Amodei kritiseerib pooldama vabariiklikku tehisintellekti regulatsiooni moratooriumi ning toetab föderaalset läbipaistvuse standardit

Hiljuti New York Timesi arvamusloolas väljendas Dario Amodei, Anthropic tegevjuht, muret seoses osariikide tasandil AI regulatsiooni kehtestamise ideega, millele toetust on avaldanud Intrigeeriv sõdalastele kõvasti maakler. See moratoorium on osa laiemast maksusoodustuste seaduseelnõust, mida toetab endine president Trumpi administratsioon ning mille eesmärgiks on ennetada uute osariikide AI regulatiivseid algatusi kogu riigis. Amodei kritiseeris kogu laia leviku keelu, pidades seda liiga lihtsustatuks ja puudulikult nüansirikkaks, et vastata AI kiirelt muutuva keerukuse tõelisele olemusele. Ta väitis, et kümneaastane moratoorium ei takistaks mitte ainult üksikute osariikide võimalust uuendada ja vastutustundlikult reguleerida AI-d, vaid teeks ka keerulisemaks ühise riikliku poliitika kujundamise, mis vastaks kiiresti muutuval tehnilisel ja eetilisel maastikul. Osariikide tegevuse takistamine raamistike loomisel võiks tahtmatult aeglustada arengu soodustavate ja läbimõeldud juhtimismudelite väljatöötamist, mis on hädavajalikud tõhusa AI järelevalve tagamiseks. Amodei soovitab mitte täielikku keelu, vaid mõõdukat lähenemist, mis keskendub föderaalsele läbipaistvuse standardile. Sellised standardid nõuaksid AI arendajatelt testimismeetodite ja riskide vähendamise strateegiate avalikustamist, eriti mis puudutab riiklikku julgeolekut. Selline läbipaistvus peaks tagama, et AI-süsteeme hinnataks põhjalikult ohutuse ja eetika seisukohast enne nende kasutuselevõttu avalikes või tundlikes valdkondades. Amodei rõhutas, et AI ettevõtted kannavad olulise vastutuse oma mudelite ohutuse ja usaldusväärsuse tagamisel enne nende avalikku kasutuselevõttu.
Ta märkis, et Anthropic, koos OpenAI ja Google DeepMindiga, on vabatahtlikult võtnud kasutusele mõningaid läbipaistvuse praktikaid enda uurimis-, testimis- ja ohutusandmete avalikustamiseks, näidates pühendumust vastutustundlikule AI arengule. Siiski tunnistas ta, et vabatahtlikud meetmed võivad muutuda ebapiisavaks AI mudelite keerukuse suurenedes ja ettevõtete huvide arenedes, mistõttu võib olla vajalik seadusandlus, mis institucionaliseerib läbipaistvuse ja vastutuse. Ilma selliste seadusteta võivad ettevõtete majanduslikud stimuleerimised liikuda vastupidises suunas avaliku ohutuse prioriteetidele, suurendades ebaeetilise AI kasutuselevõtu riski. AI regulatsiooni arutelu tugevneb kiire tehnoloogilise arengu taustal ning tõstatab uusi väljakutseid poliitikakujundajatele, kes peavad tasakaalustama innovatsiooni ning avaliku turvalisuse. Republicanide toetatud moratooriumid püüavad vältida killustunud osariikide seadusandlust, mis võiks takistada vastavust ja innovatsiooni, kuid kriitikud, nagu Amodei, hoiatavad, et ühtsete lähenemiste puudumine võib jätta tähelepanuta AI keerukad omadused. Tema arvamuslugu kutsub üles tasakaalustatud regulatiivsele raamistikule, mis soodustab innovatsiooni ning nõuab läbipaistvust ja ohutussüsteeme. Selline strateegia püüab kasutada AI eeliseid ilma, et see ohustaks julgeolekut või eetikat, ning peegeldab üldist konsensust, et föderaalne, osariikide, tööstuse ja avaliku sektori koostöö on hädavajalik poliitikate vastavusse viimiseks AI arenguga. See küsimus peegeldab laiemat poliitilist dilemmat ülemaailmses kontekstis: kuidas juhtida häirivaid tehnoloogiaid, mis arenevad kiiremini kui seadusandlus suudab reageerida. Paindlikud regulatsioonid koos proaktiivsete läbipaistvuse nõuetega võivad pakkuda lubadustepakkumise eduka tee. Kokkuvõttes rõhutab Dario Amodei AI juhtimise keerukust, kutsudes poliitikuid üles kaaluvalt ümber mõtlema lõplikke keelde, mis võivad takistada olulist reguleerivat innovatsiooni. Tõstes esile föderaalse läbipaistvuse ja vastutuse nõudeid AI arendajate seas, püüab tema seisukoht soodustada turvalisemat ja usaldusväärsemat AI ökosüsteemi, tasakaalustades tehnoloogilise arengu ja ühiskondliku heaolu.
Brief news summary
Anthropici tegevjuht Dario Amodei kritiseeris aastaajase moratooriumi ettepanekut, mida toetasid valitsusvälised põhiseadusparteid ja mis hõlmab staatuse tasandil AI regulatsiooni ning mida toetab endine presidendi Trumpi administratsioon. Ta väidab, et lai keeld on liiga lihtsustav, ohustades innovatsiooni ja vastutustundlikku riiklikku juhtimist ning raskendades riiklikke AI poliitikaid. Amodei kutsub üles tasakaalustatud föderaalse raamistikuga, mis keskendub läbipaistvusele, ning julgustab AI arendajaid avalikustama testimismeetodeid ja riskide maandamist, eriti riikliku julgeoleku osas. Ta rõhutab, et sellised AI ettevõtted nagu Anthropic, OpenAI ja Google DeepMind peavad enne kasutuselevõttu tagama ohutuse. Kuigi vabatahtlik läbipaistvus on olemas, võib olla vaja kaivõetava seadusandluse kehtestamist, kuna AI muutub keerukamaks. See arutelu rõhutab innovatsiooni ja ohutuse vahelisi pingeid. Amodei pooldab koostööl põhinevat ja kohanemisvõimet lükkavat poliitikakujundust, mis hõlmab föderaalseid ja riiklikke ametivõime, tööstust ning avalikkust, et AI-d vastutustundlikult ning eetiliselt juhtida.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain ja digitaalvarade virtuaalne investor-…
NEW YORK, 6.

Juristid saameavad sanktsioone vale juhtumite vii…
Kogenud Suurbritannia kohtunik Victoria Sharp on andnud tugeva hoiatuse õiguseksperlükonnale AI-tööriistade, nagu ChatGPT, kasutamise ohtude kohta, näiteks laimavate juriidiliste juhtumite tsiteerimisel.

Mida Juhtub, Kui Inimesed Ei Mõista AI Tööd
Levik üldine arusaamatus tehisintellekti (TI), eriti suurte keelemudelite (LLM) nagu ChatGPT, kohta on oluliste tagajärgedega, mis nõuavad hoolikat uurimist.

Skaleeritavad ja detsentraliseeritud, kiiresti ja…
Tänapäeva kiiresti muutuval krüptoturul kalduvad investorid poolehoiu poole plokiahelaprojektidele, mis ühendavad skaleeritavust, detsentraliseeritust, kiirust ja turvalisust.

Plokiahel hariduses: tõendite kinnitamise ja ajal…
Haridussektor seisab silmitsi oluliste väljakutsetega akadeemiliste kvalifikatsioonide kinnitamisel ning turvaliste dokumentide säilitamisel.

Exploratorium avab San Franciscos näitus "Seiklus…
Sel suvel tutvustab San Francisco Exploratorium uhkusega oma uusimat interaktiivset näitust „Seiklused tehisintellektis“, mille eesmärk on pakkuda külastajatele põhjalikku ja kaasahaaravat kunstliku intellekti uurimist.

Google tutvustab Ironwood TPU-d tehisintellekti a…
Google on välja kuulutanud oma uusima läbimurde tehisintellekti riistvara alal: Ironwood TPU, selle kõige arenenuma kasutuslähtestatud tehisintellekti kiirendi seni.