FRIA ja DPIA
Yritysturvallisuus > Compliance
FRIA ja DPIA yrityksen riskienhallinnan näkökulmasta

DPIA (Data Protection Impact Assessment) perustuu General Data Protection Regulation -asetuksen 35 artiklaan. Se velvoittaa rekisterinpitäjän suorittamaan ennakollisen vaikutustenarvioinnin silloin, kun suunniteltu henkilötietojen käsittely todennäköisesti aiheuttaa korkean riskin luonnollisten henkilöiden oikeuksille ja vapauksille. Arvioinnin normatiivinen perusta on erityisesti EU:n perusoikeuskirjan 7 ja 8 artikloissa turvattu yksityiselämän ja henkilötietojen suoja.
FRIA (Fundamental Rights Impact Assessment) puolestaan kytkeytyy Artificial Intelligence Act -sääntelyyn. Se koskee tilanteita, joissa käyttöönottajalle (deployer) asetetaan velvollisuus arvioida korkean riskin tekoälyjärjestelmän käytön vaikutuksia EU:n perusoikeuskirjassa turvattuihin oikeuksiin.
Tietosuoja on yksi arvioinnin osa-alue, mutta tarkastelu ulottuu laajemmin esimerkiksi syrjimättömyyteen, oikeusturvaan, ihmisarvoon ja muihin keskeisiin perusoikeuksiin.
DPIA ja FRIA ovat siten oikeudellisesti itsenäisiä mutta toisiaan täydentäviä vaikutustenarviointeja. Ne eivät lähtökohtaisesti korvaa toisiaan, ja niiden soveltuminen määräytyy erikseen GDPR:n riskiperusteisen kynnysarvioinnin ja AI Actin mukaisen riskiluokittelun perusteella.
Käytännössä ne muodostavat integroidun turvallisuus- ja compliance-kehikon, jossa perusoikeudet, tietosuoja ja yrityksen riskiposition hallinta yhdistyvät.
Tehtävälista
VAIHE 1 Perustan rakentaminen (Governance ja näkyvyys)
Nimeä vastuullinen omistaja
- Määritä AI- ja tietosuojariskien kokonaisomistaja.
- Varmista tietosuojavastaavan (DPO) rooli DPIA-prosessissa.
- Määritä AI governance -vastuut (deployer-rooli, tekninen omistaja, liiketoimintavastaava).
Luo keskitetty riskirekisteri
- Yhdistä DPIA- ja FRIA-arvioinnit samaan riskienhallintakehikkoon.
- Määritä dokumentointistandardit ja hyväksymisprosessi.
- Varmista johdon raportointilinja.
VAIHE 2 Kartoitus ja luokittelu
Laadi AI-järjestelmäinventaario
- Dokumentoi:
- Kaikki käytössä olevat tekoäly- ja algoritmiset järjestelmät
- Käyttötarkoitukset
- Käsiteltävät tietotyypit
Suorita AI Act -riskiluokittelu
- Tunnista, onko järjestelmä korkean riskin AI-järjestelmä.
- Dokumentoi luokitteluperuste.
Arvioi DPIA-kynnys
- Käsitelläänkö henkilötietoja?
- Onko käsittely todennäköisesti korkean riskin luonteista (profilointi, arkaluonteiset tiedot, systemaattinen seuranta)?
- Dokumentoi kynnysarvio myös silloin, kun DPIA ei ole tarpeen.
VAIHE 3 Arviointien toteutus
Toteuta DPIA tarvittaessa
- Sisällytä:
- Käsittelyn kuvaus
- Oikeusperusta
- Riskianalyysi
- Lieventämistoimet
- Jäännösriskin arvio
Toteuta FRIA tarvittaessa
- Sisällytä:
- Perusoikeusvaikutusten kartoitus
- Syrjintä- ja bias-analyysi. Bias-analyysi tarkoittaa järjestelmällistä arviointia siitä, sisältääkö päätöksenteko, tekoäly- tai algoritmijärjestelmä systemaattista vinoumaa, joka voi johtaa epäoikeudenmukaisiin, syrjiviin tai perusteettomasti eriyttäviin lopputuloksiin.
- Human oversight -mekanismit. Human oversight -mekanismit tarkoittavat järjestelmiä, prosesseja ja käytäntöjä, joiden avulla ihmiset valvovat, ohjaavat ja voivat tarvittaessa korjata tekoälyn tai automaattisen päätöksenteon toimintoja.
- Oikeusturvakeinot
- Vaikutukset haavoittuviin ryhmiin
- Riskien lieventämissuunnitelma
Yhdistä arvioinnit yhdeksi kokonaisdokumentaatioksi
- Eriytä GDPR- ja AI Act -vaatimukset selkeästi.
- Vältä päällekkäinen analyysi.
- Varmista johdon hyväksyntä.
VAIHE 4 Sopimus- ja toimitusketjuriskit
Tee toimittajille AI due diligence
- Pyydä dokumentaatio AI Act -vaatimusten täyttämisestä.
- Arvioi bias-riskit ja tekninen dokumentaatio.
- Varmista sopimusehdot (vastuunjako, auditointioikeus).
Päivitä sopimusmallit
- Sisällytä AI Act -vaatimukset.
- Sisällytä tietosuoja- ja dokumentointivelvoitteet.
- Määritä vastuut FRIA- ja DPIA-prosessien tukemisesta.
VAIHE 5 Dokumentointi ja näyttövelvollisuus
Dokumentoi päätöksenteko
- Yrityksen on kyettävä osoittamaan:
- Miksi järjestelmä on luokiteltu tietyllä tavalla
- Mitä riskejä tunnistettiin
- Mitä lieventämistoimia toteutettiin
- Miksi jäännösriski on hyväksyttävä
Luo audit trail
- Versiohallinta
- Muutosten kirjaaminen
- Päivityshistoria
- Puutteellinen dokumentaatio on itsenäinen sääntelyriski.
VAIHE 6 Jatkuva seuranta
- Määritä päivityskriteerit
- Arviointi on päivitettävä, jos:
- Käyttötarkoitus muuttuu
- Järjestelmä päivitetään merkittävästi
- Riskiprofiili muuttuu
- Lainsäädäntö tai oikeuskäytäntö muuttuu
Toteuta säännöllinen uudelleenarviointi
- Vähintään vuosittainen katselmus korkean riskin järjestelmille.
- Johdon raportointi.
VAIHE 7 Koulutus ja kulttuuri
Kouluta johto ja liiketoiminta
- Selkiytä roolien merkitys (provider vs deployer)
- laadi DPIA- ja FRIA-kynnykset
- tue riskiperusteisen ajattelun muodostumista
Integroi arvioinnit projektimalliin
- Ei käyttöönottoa ilman riskikartoitusta.
- AI-hankkeille pakollinen esikarsinta.
VAIHE 8 Strateginen taso
Liitä AI-riskit yrityksen ERM-kehikkoon
- Oikeudellinen riski
- Operatiivinen riski
- Reputaatioriski
- Sanktioriski
Raportoi hallitukselle
- Korkean riskin järjestelmien määrä
- Suoritetut arvioinnit
- Tunnistetut merkittävät riskit
- Jäännösriskin taso
Tavoite ja arvioinnin kohdeDPIA:n keskeinen tarkoitus on tunnistaa ja minimoida henkilötietojen käsittelystä aiheutuvat riskit. Se edellyttää muun muassa:
- käsittelyn tarkoituksen ja oikeusperusteen analysointia
- tietojen minimoinnin ja säilytysaikojen arviointia
- rekisteröityjen oikeuksien toteutumisen tarkastelua
- teknisten ja organisatoristen suojatoimien arviointia
- jäännösriskin dokumentointia
FRIA:n arviointikohde on laajempi. Se tarkastelee tekoälyjärjestelmän vaikutuksia perusoikeuksiin kokonaisuutena ja sisältää esimerkiksi:
- syrjintäriskien ja algoritmisen vinouman (bias) arvioinnin
- vaikutukset haavoittuviin ryhmiin
- päätöksenteon läpinäkyvyyden ja selitettävyyden
- ihmisen tekemän valvonnan riittävyyden
- oikeusturvakeinot ja oikaisumahdollisuudet
DPIA on tematiikaltaan rajatumpi ja tietosuojakeskeinen, kun taas FRIA edellyttää laajempaa perusoikeudellista ja usein myös eettistä analyysiä.
Soveltamiskynnys ja velvollinen tahoDPIA on pakollinen, kun henkilötietojen käsittely on todennäköisesti korkean riskin luonteista, kuten laajamittaisessa profiloinnissa, arkaluonteisten tietojen käsittelyssä tai systemaattisessa seurannassa. Velvollinen taho on rekisterinpitäjä.FRIA tulee tehtäväksi, kun yritys ottaa käyttöön AI Actin mukaisen korkean riskin tekoälyjärjestelmän tilanteissa, joissa asetuksessa säädetään perusoikeusvaikutusten arviointivelvoitteesta. Velvollinen on järjestelmän käyttöönottaja (deployer), ei pelkästään sen kehittäjä (provider). Roolijaottelu on keskeinen erityisesti tilanteissa, joissa yritys sekä käyttää että muokkaa ulkopuolisen toimittajan järjestelmää.Mikäli korkean riskin tekoälyjärjestelmä käsittelee henkilötietoja tavalla, joka täyttää GDPR:n 35 artiklan soveltamiskynnyksen, yritykselle voi syntyä velvollisuus suorittaa sekä DPIA että FRIA.Arviointien suhde ja integrointiDPIA ei korvaa FRIA-arviointia eikä päinvastoin. DPIA kattaa perusoikeuksista yksityisyyden ja henkilötietojen suojan osa-alueen, kun taas FRIA ulottuu kaikkiin relevantteihin perusoikeuksiin.Yrityksen kannalta tarkoituksenmukainen ratkaisu on integroitu arviointiprosessi, jossa:
- riskit tunnistetaan yhtenäisesti
- GDPR- ja AI Act -vaatimukset käsitellään selkeästi eriytetyissä osioissa
- dokumentointi täyttää molempien sääntelykehysten vaatimukset
Tämä vähentää päällekkäistä työtä ja parantaa kokonaisvaltaista riskienhallintaa.Yrityksen keskeiset velvoitteet ja toimenpiteetJotta arvioinnit toteutetaan asianmukaisesti, yrityksen tulee ylläpitää järjestelmällistä inventaariota käytössä olevista tekoälyjärjestelmistä, niiden käyttötarkoituksista, käsiteltävistä tietotyypeistä sekä omasta roolistaan (provider, deployer tai molemmat). Lisäksi järjestelmät on luokiteltava riskiperusteisesti AI Actin mukaisesti ja arvioida samanaikaisesti DPIA:n soveltamiskynnys.
Yrityksen on toteutettava selkeät governance-rakenteet:
- tietosuojavastaavan (DPO) osallistuminen DPIA-prosessiin
- AI governance -vastuiden määrittely
- johdon tason valvonta ja raportointi
- riskirekisterin ylläpito
Huolehdittava dokumentoinnista ja näyttövelvollisuudesta, mukaan lukien:
- riskien tunnistamisen perusteet
- arviointimenetelmät
- toteutetut lieventämistoimet
- jäännösriskin hyväksyttävyysperusteet
Varmistettava jatkuva seuranta ja päivitys, erityisesti silloin, kun:
- käyttötarkoitus muuttuu
- teknologiaan tehdään olennaisia muutoksia
- riskiprofiili muuttuu
- sääntely tai oikeuskäytäntö tarkentuu
Tiivis prioriteettijärjestys
- Inventaario
- Riskiluokittelu
- DPIA/FRIA-kynnysarvio
- Arviointien toteutus
- Dokumentointi
- Governance-integraatio
- Jatkuva seuranta
Tyypilliset sudenkuopat
- Oletetaan, että DPIA riittää myös AI Actin velvoitteisiin
- Ei tunnisteta deployer-roolia
- Tehdään arviointi muodollisesti ilman todellista riskianalyysiä
- Ei huomioida syrjintäriskejä tai vinoumia
- Ei määritellä selkeää vastuuhenkilöä
Johtopäätös yrityksen näkökulmastaFRIA ja DPIA heijastavat EU:n riskiperusteista ja perusoikeuslähtöistä sääntelymallia, jossa teknologisten järjestelmien käyttöönotto edellyttää systemaattista vaikutusarviointia.Yritys, joka lähestyy arviointeja pelkästään muodollisina compliance-velvoitteina, altistuu riskille, että arviointi jää sisällöllisesti puutteelliseksi eikä hallitse aidosti oikeudellisia, operatiivisia tai maineeseen liittyviä riskejä.Integroitu, riskiperusteinen ja johdon tukema governance-malli parantaa oikeudellista ennakoitavuutta, vähentää sanktioriskiä ja vahvistaa luottamusta sidosryhmien keskuudessa. Vaikutustenarvioinnit eivät näin ollen ole ainoastaan sääntelyvelvoitteita, vaan keskeinen osa vastuullista ja kestävää teknologianhallintaa.
