Tässä blogikirjoituksessa keskitytään Euroopan unionin tekoälyasetuksen (AI Act) mukaisiin velvoitteisiin korkeariskisiin tekoälyjärjestelmiin liittyen käyttöönottajien, tarjoajien, maahantuojien ja jakelijoiden osalta. AI Act luokittelee tekoälyjärjestelmät neljään riskitasoon, joista jokaiselle on määritelty eri vaatimukset. Käyttöönottajien, jotka käyttävät tekoälyjärjestelmiä ammatillisessa toiminnassaan, on varmistettava, että he noudattavat käyttöohjeita, valvovat järjestelmän toimintaa ja ilmoittavat asiaankuuluville tahoille terveyteen, turvallisuuteen tai perusoikeuksiin kohdistuvista riskeistä.
Heidän on myös säilytettävä järjestelmän lokit, varmistettava merkitykselliset ja edustavat syöttötiedot, määrättävä inhimillinen valvonta, tiedotettava työntekijöille korkeariskisten tekoälyjärjestelmien käytöstä työpaikalla ja tarjottava avoimuutta yksilöille, joihin näiden järjestelmien käyttö vaikuttaa. Tarjoajien, jotka kehittävät tekoälyjärjestelmiä markkinoille saattamiseksi tai palveluiden tarjoamiseksi, on varmistettava järjestelmien vaatimustenmukaisuus ja osoitettava tämä viranomaisille. Heidän on perustettava laadunhallintajärjestelmä, säilytettävä dokumentaatio, suoritettava vaatimustenmukaisuuden arvioinnit, laadittava EU-vaatimustenmukaisuusilmoitukset, kiinnitettävä CE-merkintä, rekisteröitävä itsensä ja järjestelmänsä EU-tietokantaan, perustettava jälkimarkkinointijärjestelmä, raportoitava vakavista tapauksista, ryhdyttävä korjaaviin toimiin, noudatettava tiettyjen tuotteiden ja palveluiden saavutettavuusvaatimuksia, tehtävä yhteistyötä viranomaisten kanssa, nimitettävä valtuutettuja edustajia (EU:n ulkopuolisille tarjoajille) ja varmistettava vastuiden määrittäminen arvoketjussa. Maahantuojien on suoritettava erilaisia tarkastuksia ennen korkeariskisten tekoälyjärjestelmien markkinoille saattamista ja varmistettava vaatimustenmukaisuus, avoimuus sekä säilytys-/kuljetusolosuhteet. Heidän on säilytettävä dokumentaatio, tehtävä yhteistyötä viranomaisten kanssa ja ilmoitettava asiaankuuluville tahoille riskeistä. Jakelijoiden on varmistettava vaatimustenmukaisuus, tarkistettava tarvittavien merkintöjen ja dokumentaation läsnäolo, tehtävä johtopäätöksiä tarkastuksistaan, varmistettava vaatimustenmukaisuus säilytys- ja kuljetusolosuhteiden osalta, tehtävä yhteistyötä viranomaisten kanssa ja ryhdyttävä korjaaviin toimiin, jos vaatimustenvastaisuus havaitaan. Lisätietoja kiinnostuneet voivat ottaa yhteyttä kirjoittajiin.
EU:n tekoälyasetuksen velvoitteiden ymmärtäminen korkeariskisille tekoälyjärjestelmille
Some social media platforms are yhä enemmän käyttäneet tekoälyä (AI) parantaakseen videomateriaalin moderointia, osoittaen kasvavaa tarvetta hallita verkossa vallitsevaa videomassaa, joka on noussut yhdeksi pääasialliseksi viestintämuodoksi.
POLITIIKAN KÄÄNNÄNEN: Vuosiin jatkuneiden rajoitusten kiristämisen jälkeen päätös sallia Nvidia H200 -sirujen myynti Kiinaan on aiheuttanut vastustusta joidenkin republikaanien keskuudessa.
Huolimatta, tai oikeammin pettävien, tekoälyn aiheuttamien irtisanomisten aika on merkinnyt vuotta 2025 työmarkkinoilla, kun suuret yritykset ilmoittavat tuhansien työpaikkojen katoamisesta tekoälyn kehityksen ansiosta.
RankOS™ parantaa brändin näkyvyyttä ja viittauksia Perplexity AI:ssa sekä muissa vastausmoottoripalveluissa Perplexity SEO -palvelut New York, NY, 19
Alkuperäinen versio tästä artikkelista julkaistiin CNBC:n Inside Wealth -uutiskirjeessä, jonka on kirjoittanut Robert Frank ja joka toimii viikoittaisena resurssina varakkaille sijoittajille ja kuluttajille.
Uutisotsikot ovat keskittyneet Disneyin miljardiluokan investointiin OpenAI:hin ja spekuloineet, miksi Disney valitsi OpenAI:n Google:n sijaan, jota se haastaa tekijänoikeusrikkomuksista.
Salesforce on julkaissut kattavan raportin vuoden 2025 Cyber Week -ostospäivästä, analysoiden yli 1,5 miljardin globaalin ostajan dataa.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today