EU:n tekoälysäädös — mitä yrityksesi tulee tietää
EU:n tekoälysäädös on maailman ensimmäinen kattava tekoälyä koskeva sääntely. Jos yrityksesi käyttää tekoälytyökaluja Euroopassa, nämä säännöt koskevat sinua. Tässä käytännön katsaus käyttöönottajien velvoitteisiin.
Keskeiset päivämäärät
Kielletyt tekoälykäytännöt (sosiaalinen pisteytys, manipuloiva tekoäly jne.) tulevat voimaan. Jo voimassa.
Hallintosäännöt ja tekoälylukutaitovelvoitteet (4 artikla) tulevat voimaan. Yritysten on varmistettava, että henkilöstö ymmärtää käyttämänsä tekoälytyökalut. Jo voimassa.
Korkean riskin tekoälyjärjestelmiä ja kaikkia käyttöönottajan velvoitteita koskeva täysi soveltaminen. Tämä on tärkein määräaika.
Riskiluokat
EU:n tekoälysäädös luokittelee jokaisen tekoälyjärjestelmän yhteen neljästä riskitasosta. Taso määrittää sovellettavat velvoitteet.
Kohtuuton riski
Nämä tekoälyjärjestelmät on kielletty kokonaan EU:ssa. Ei poikkeuksia.
Sosiaalinen pisteytys, reaaliaikainen biometrinen tunnistus julkisissa tiloissa, haavoittuvia ryhmiä kohdentava manipuloiva tekoäly.
Korkea riski
Sallittu, mutta merkittävin velvoittein: vaatimustenmukaisuusarvioinnit, ihmisvalvontasuunnitelmat, tekninen dokumentaatio ja jatkuva seuranta.
Tekoäly henkilöstöhallinnossa/rekrytoinnissa, luottoluokituksessa, koulutuksen arvioinnissa, lainvalvonnassa, kriittisessä infrastruktuurissa, maahanmuuttopäätöksissä.
Rajallinen riski
Käyttäjille on selkeästi ilmoitettava, että he ovat vuorovaikutuksessa tekoälyn kanssa. Ei muita erityisvelvoitteita.
Chatbotit, deepfake-generaattorit, tunteentunnistusjärjestelmät, tekoälyn tuottama sisältö.
Minimaalinen riski
Ei erityisiä sääntelyvaatimuksia. Useimmat liiketoiminnan tekoälytyökalut kuuluvat tähän luokkaan.
Sähköpostien laatiminen, asiakirjojen tiivistäminen, koodiavustaminen, sisäinen analytiikka, tekoälypohjainen haku.
Käyttöönottajan velvoitteet
Jos yrityksesi käyttää (ottaa käyttöön) tekoälyjärjestelmiä — vaikka et olisi rakentanut niitä — nämä velvoitteet koskevat sinua.
Ihmisvalvonta
Varmista, että ihmiset voivat seurata, tulkita ja ohittaa tekoälyn päätöksiä. Määritä selkeä vastuuhenkilö kunkin tekoälyjärjestelmän valvonnalle.
Tekoälylukutaito
Kouluta henkilöstösi käyttämään tekoälyjärjestelmiä asiantuntevasti. Heidän on ymmärrettävä käyttämiensä tekoälytyökalujen kyvyt, rajoitukset ja riskit.
Toiminnallinen seuranta
Seuraa tekoälyjärjestelmiä käytön aikana. Tarkkaile poikkeamia, vinoutumia, suorituskyvyn heikkenemistä tai odottamatonta käyttäytymistä. Pidä lokia.
Poikkeamailmoitukset
Ilmoita korkean riskin tekoälyyn liittyvistä vakavista poikkeamista viranomaisille viipymättä. Ylläpidä poikkeamalokia, johon kirjataan vakavuus, juurisyy ja ratkaisu.
Läpinäkyvyys
Ilmoita henkilöille, kun he ovat vuorovaikutuksessa tekoälyn kanssa tai kun tekoäly tekee heitä koskevia päätöksiä. Kerro selkeästi, mitä tekoäly tekee ja mitä ei.
Perusoikeusvaikutusten arviointi (FRIA)
Artiklan 27 mukaan FRIA vaaditaan otettaessa käyttöön korkean riskin tekoälyä herkillä alueilla. Arvioinnissa on dokumentoitava tarkoitus, vaikutuksen kohteena olevat ryhmät, mahdolliset vaikutukset perusoikeuksiin, lieventävät toimet ja valvontatoimenpiteet.
Koskee: henkilöstöhallintoa ja rekrytointia, vakuutusten vakuutusmatemaattista arviointia, luottokelpoisuuden arviointia ja julkisia palveluja.
Tarkista vaatimustenmukaisuutesi tila
Fronterio luokittelee tekoälyagenttisi automaattisesti riskitason mukaan ja seuraa käyttöönottajan velvoitteitasi.