EU:n tekoälysäädös – opas

EU:n tekoälysäädös — mitä yrityksesi tulee tietää

EU:n tekoälysäädös on maailman ensimmäinen kattava tekoälyä koskeva sääntely. Jos yrityksesi käyttää tekoälytyökaluja Euroopassa, nämä säännöt koskevat sinua. Tässä käytännön katsaus käyttöönottajien velvoitteisiin.

Keskeiset päivämäärät

Helmikuu 2025

Kielletyt tekoälykäytännöt (sosiaalinen pisteytys, manipuloiva tekoäly jne.) tulevat voimaan. Jo voimassa.

Elokuu 2025

Hallintosäännöt ja tekoälylukutaitovelvoitteet (4 artikla) tulevat voimaan. Yritysten on varmistettava, että henkilöstö ymmärtää käyttämänsä tekoälytyökalut. Jo voimassa.

Elokuu 2026

Korkean riskin tekoälyjärjestelmiä ja kaikkia käyttöönottajan velvoitteita koskeva täysi soveltaminen. Tämä on tärkein määräaika.

Riskiluokat

EU:n tekoälysäädös luokittelee jokaisen tekoälyjärjestelmän yhteen neljästä riskitasosta. Taso määrittää sovellettavat velvoitteet.

Kielletty

Kohtuuton riski

Nämä tekoälyjärjestelmät on kielletty kokonaan EU:ssa. Ei poikkeuksia.

Sosiaalinen pisteytys, reaaliaikainen biometrinen tunnistus julkisissa tiloissa, haavoittuvia ryhmiä kohdentava manipuloiva tekoäly.

Tiukat säännöt

Korkea riski

Sallittu, mutta merkittävin velvoittein: vaatimustenmukaisuusarvioinnit, ihmisvalvontasuunnitelmat, tekninen dokumentaatio ja jatkuva seuranta.

Tekoäly henkilöstöhallinnossa/rekrytoinnissa, luottoluokituksessa, koulutuksen arvioinnissa, lainvalvonnassa, kriittisessä infrastruktuurissa, maahanmuuttopäätöksissä.

Vain läpinäkyvyys

Rajallinen riski

Käyttäjille on selkeästi ilmoitettava, että he ovat vuorovaikutuksessa tekoälyn kanssa. Ei muita erityisvelvoitteita.

Chatbotit, deepfake-generaattorit, tunteentunnistusjärjestelmät, tekoälyn tuottama sisältö.

Ei velvoitteita

Minimaalinen riski

Ei erityisiä sääntelyvaatimuksia. Useimmat liiketoiminnan tekoälytyökalut kuuluvat tähän luokkaan.

Sähköpostien laatiminen, asiakirjojen tiivistäminen, koodiavustaminen, sisäinen analytiikka, tekoälypohjainen haku.

Käyttöönottajan velvoitteet

Jos yrityksesi käyttää (ottaa käyttöön) tekoälyjärjestelmiä — vaikka et olisi rakentanut niitä — nämä velvoitteet koskevat sinua.

Article 14

Ihmisvalvonta

Varmista, että ihmiset voivat seurata, tulkita ja ohittaa tekoälyn päätöksiä. Määritä selkeä vastuuhenkilö kunkin tekoälyjärjestelmän valvonnalle.

Article 4

Tekoälylukutaito

Kouluta henkilöstösi käyttämään tekoälyjärjestelmiä asiantuntevasti. Heidän on ymmärrettävä käyttämiensä tekoälytyökalujen kyvyt, rajoitukset ja riskit.

Article 26

Toiminnallinen seuranta

Seuraa tekoälyjärjestelmiä käytön aikana. Tarkkaile poikkeamia, vinoutumia, suorituskyvyn heikkenemistä tai odottamatonta käyttäytymistä. Pidä lokia.

Article 73

Poikkeamailmoitukset

Ilmoita korkean riskin tekoälyyn liittyvistä vakavista poikkeamista viranomaisille viipymättä. Ylläpidä poikkeamalokia, johon kirjataan vakavuus, juurisyy ja ratkaisu.

Article 50

Läpinäkyvyys

Ilmoita henkilöille, kun he ovat vuorovaikutuksessa tekoälyn kanssa tai kun tekoäly tekee heitä koskevia päätöksiä. Kerro selkeästi, mitä tekoäly tekee ja mitä ei.

Perusoikeusvaikutusten arviointi (FRIA)

Artiklan 27 mukaan FRIA vaaditaan otettaessa käyttöön korkean riskin tekoälyä herkillä alueilla. Arvioinnissa on dokumentoitava tarkoitus, vaikutuksen kohteena olevat ryhmät, mahdolliset vaikutukset perusoikeuksiin, lieventävät toimet ja valvontatoimenpiteet.

Koskee: henkilöstöhallintoa ja rekrytointia, vakuutusten vakuutusmatemaattista arviointia, luottokelpoisuuden arviointia ja julkisia palveluja.

Tarkista vaatimustenmukaisuutesi tila

Fronterio luokittelee tekoälyagenttisi automaattisesti riskitason mukaan ja seuraa käyttöönottajan velvoitteitasi.

EU:n tekoälysäädös – opas käyttöönottajille | Fronterio | Fronterio