Enighed om endelig tekst af historisk AI-forordning

Den endelige tekst af den første AI-forordning nogensinde, som Europa-Parlamentet og Rådet nåede til politisk enighed om den 8. december 2023, er nu offentliggjort af det belgiske EU-formandskab. Den 2. februar blev der således i Ministerrådet opnået enighed om teksten. Nu udestår alene Europa-Parlamentets formelle afstemning, som forventes at være en formsag. I denne artikel får du et overblik over de vigtigste elementer i AI-forordningen, og hvordan du allerede nu kan begynde at forberede dig på at efterleve AI-forordningens krav.

Den endelige tekst af den første AI-forordning nogensinde, som Europa-Parlamentet og Rådet nåede til politisk enighed om den 8. december 2023, er nu offentliggjort af det belgiske EU-formandskab. Den 2. februar blev der således i Ministerrådet opnået enighed om teksten. Nu udestår alene Europa-Parlamentets formelle afstemning, som forventes at være en formsag. I denne artikel får du et overblik over de vigtigste elementer i AI-forordningen, og hvordan du allerede nu kan begynde at forberede dig på at efterleve AI-forordningens krav.

Der er tale om et omfattende regelsæt for omsætning, ibrugtagning og anvendelse af systemer med kunstig intelligens (AI) i EU. Reglerne skal skabe en ramme for ansvarlig anvendelse af AI i EU, som balancerer behovet for teknologisk fremskridt med beskyttelsen af grundlæggende rettigheder og samfundsmæssige værdier.

Når AI-forordningen formelt er godkendt og endeligt vedtaget, vil den som udgangspunkt finde anvendelse efter 2 år, med enkelte undtagelser, herunder reglerne om forbudte AI-systemer der allerede finder anvendelse efter 6 måneder. Det er derfor væsentligt allerede nu at påbegynde arbejdet for at sikre compliance med AI-forordningen for at nå i mål til tiden.

HVAD ER AI-FORORDNINGENS ANVENDELSESOMRÅDE?

AI-forordningen har et bredt anvendelsesområde og finder anvendelse på både offentlige myndigheder og private virksomheder både inden for og uden for EU, når AI-systemet omsættes på det indre marked i EU, eller hvis brugen af AI-systemet påvirker personer i EU.

De centrale aktører er udbydere og brugere af AI-systemer. AI-forordningen regulerer dog som udgangspunkt alle led i værdikæden for produktion og omsætning af AI-systemer.

Ved en udbyder forstås en fysisk eller juridisk person, en offentlig myndighed, et agentur eller et andet organ, der udvikler et AI-system eller en general purpose AI-model eller får udviklet et AI-system eller en general purpose AI-model og bringer det i omsætning eller ibrugtager det under eget navn eller varemærke, enten mod betaling eller gratis, jf. AI-forordningens artikel 3, nr. 2. Det kan f.eks. være en leverandør, der tilbyder et AI-system til screening af ansøgere.

En bruger er enhver fysisk eller juridisk person, offentlig myndighed eller ethvert agentur eller andet organ, der anvender et AI-system under sin myndighed undtagen når, AI-systemet anvendes i forbindelse med private ikke-professionelle aktiviteter, jf. artikel 3, nr. 4. Det kan f.eks. være en bank, der anvender dette screeningsværktøj i forbindelse med vurdering af potentielle låntagere.

Brugere m.v. vil blive anset for selv at være udbydere, hvis de markedsfører højrisiko-AI-systemet under eget navn eller tager det i brug, ændrer dets formål eller foretager en væsentlig ændring af systemet, jf. artikel 28.

AI-forordningen finder bl.a. ikke anvendelse på:

  • AI-systemer, der er udviklet eller udelukkende anvendes til militære formål eller formål vedrørende national sikkerhed, jf. artikel 2, stk. 3,
  • AI-systemer, der udelukkende anvendes til forskning eller innovation, jf. artikel 2, stk. 5 b, samt
  • AI-systemer, der anvendes af brugere, der er privatpersoner og anvender systemet som led i rent personlige, ikke-erhvervsmæssige aktiviteter, jf. artikel 2, stk. 5 c.

ENDELIG DEFINITION AF ET ”AI-SYSTEM”

Parterne har under forhandlingerne ikke været helt enige om, hvordan man skal definere et AI-system. Der er generelt blevet indgået kompromis for at nå til enighed om en endelig tekst. En analyse heraf blev offentliggjort den 26. januar 2024. Den endelige definition lægger sig op ad OECD’s definition af et AI-system, hvor det sikres, at definitionen af et AI-system indeholder tilstrækkeligt klare kriterier for at sondre mellem AI og enklere softwaresystemer. Den endelige definition i AI-forordningens artikel 3, nr. 1, lyder:

“‘AI system‘ is a machine-based system designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.”

RISIKOBASERET TILGANG

Med AI-forordningen indføres en risikobaseret tilgang til brugen af AI-systemer, hvor der indføres forskellige niveauer af forpligtelser, alt efter hvilken risiko anvendelsen af AI-systemet indebærer; jo større risiko, jo strengere regler.

AI-forordningen opdeler AI-systemer i risikokategorier, herunder 1) uacceptabel risiko, 2) høj risiko, 3) begrænset risiko, eller 4) lav eller minimal risiko.

De fleste AI-systemer falder ind under lav eller minimal risiko og omfatter f.eks. visse AI-baserede anbefalingssystemer eller spamfiltre m.v. Under begrænset risiko hører bl.a. chatbotter, hvor der gælder en forpligtelse til at sikre gennemsigtighed.

LISTEN OVER FORBUDTE AI-SYSTEMER

AI-systemer med en uacceptabel risiko forbydes i EU, idet de anses for at udgøre en for høj risiko for bl.a. grundlæggende rettigheder.

Der har været uenighed mellem parterne om, hvilke AI-systemer der hører til på forbudslisten, hvor Europa-Parlamentet i sit kompromisforslag foretog væsentlige ændringer til den foreslåede forbudsliste. Efter at parterne er nået til enighed, omfatter forbudslisten følgende AI-systemer vedrørende:

  • Kognitiv adfærdsmanipulation (subliminal/manipulative/deceptive techniques) samt udnyttelse af visse svagheder (alder/handicap/sociale/økonomiske situation), der fører til alvorlig skadevirkning (significant harm).
  • Biometrisk kategorisering for at udlede følsomme data såsom seksuel orientering eller religiøs overbevisning m.v.
  • Brug af visse sociale pointsystemer (”social scoring”) baseret på AI, hvor disse fører til skadelig eller ugunstig behandling.
  • Biometriske fjernidentifikationssystemer i realtid på offentlige steder til retshåndhævende formål (med visse undtagelser).
  • Ikke-målrettet indsamling af ansigtsbilleder fra internettet (”untargeted scraping”) eller CCTV-optagelser.
  • Visse tilfælde af forudsigende politiarbejde for enkeltpersoner (individual predictive policing).
  • Følelsesgenkendelse på arbejdspladsen og i uddannelsesinstitutioner.

Parterne opnåede dog enighed om, at retshåndhævende myndigheder kan anvende biometriske fjernidentifikationssystemer i realtid på offentlige steder til retshåndhævende formål i særlige tilfælde af kriminalitet, som er omfattet af en nærmere defineret kriminalitetsliste. Det omfatter målrettede søgninger efter ofre for visse forbrydelser, forebyggelse af reelle, nuværende eller forudsigelige trusler såsom terrorangreb og eftersøgning efter personer, der mistænkes for de alvorligste forbrydelser. Det kræver imidlertid en forudgående dommerkendelse eller en tilladelse fra en uafhængig administrativ myndighed, der kan træffe en bindende afgørelse. Der er dog efterladt en snæver undtagelse i situationer af hastende karakter, hvor en tilladelse kan indhentes efterfølgende.  

HØJRISIKO-AI-SYSTEMER

AI-systemer med høj risiko vil skulle opfylde en lang række strenge krav, der navnlig gælder for udbydere. Det omfatter bl.a. generelle krav om risikohåndteringssystem, datasæt af høj kvalitet (data governance), dokumentation, gennemsigtighed og formidling af oplysninger til brugere, herunder uddannelse af evt. medarbejdere, klar brugerinformation i en brugsanvisning, menneskeligt tilsyn, kontrol og transparens samt et højt niveau af robusthed, nøjagtighed og cybersikkerhed.

Fsva. dokumentation er der både krav om teknisk dokumentation af, at AI-systemet/produktet lever op til AI-forordningens krav, og dokumentation af systemets performance i drift, herunder logning m.v., for at sikre sporbarhed om systemets funktion i hele livscyklussen. Herudover skal der gennemføres en overensstemmelsesvurdering for systemet, der vil indgå som en del af den tekniske dokumentation. Højrisiko AI-systemet skal desuden registreres i en særlig EU-database herfor.

Ligesom med forbudslisten har parterne ikke været enige om, hvilke AI-systemer der skal kategoriseres som højrisiko-AI-systemer. Det følger nu af den endelige version af AI-forordningen, at det skal omfatte AI-systemer, der selv er et produkt eller er beregnet til at blive anvendt som sikkerhedskomponenter i produkter, der er omfattet af harmoniseret EU-lovgivning nævnt i AI-forordningens bilag II, og der samtidig er forpligtet til at gennemgå en overensstemmelsesvurdering (f.eks. maskiner, legetøj, medicinsk udstyr), jf. forordningens artikel 6, stk. 1.

Desuden omfatter højrisiko-AI-systemer andre selvstændige AI-systemer – uafhængige af et produkt – hvor systemet er omfattet af en eller flere af de kritiske områder eller use cases, som er angivet i AI-forordningens bilag III, jf. artikel 6, stk. 2.

Disse AI-systemer udgør normalt en høj risiko for menneskers sundhed, sikkerhed eller grundlæggende rettigheder. Det omfatter bl.a. visse kritiske digitale infrastrukturer, bl.a. indenfor vejtrafik, vand, gas og elektricitet, systemer til bestemmelse af adgang til uddannelsesinstitutioner eller til rekruttering af personer, kreditvurderinger af personer, risikovurderinger og prisfastsættelse i forhold til livs- og helbredsforsikringer samt visse systemer, der anvendes indenfor retshåndhævelse, grænsekontrol, retspleje og demokratiske processer.

Hvis det imidlertid vurderes, at et konkret AI-system ikke udgør en høj risiko for menneskers sundhed, sikkerhed eller grundlæggende rettigheder, vil systemet dog ikke blive vurderet højrisiko, hvis et eller flere af fire kriterier er opfyldt, jf. artikel 6, stk. 3. Det vil f.eks. være tilfældet, hvor AI-systemet er beregnet til at detektere beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre og samtidig ikke er beregnet til at erstatte eller påvirke den tidligere gennemførte menneskelige vurdering uden en passende menneskelig gennemgang.

AI-SYSTEMER MED SPECIFIK GENNEMSIGTIGHEDSRISIKO

Parterne er desuden blevet enige om at fastsætte regler i AI-forordningen om pligt til at skabe yderligere gennemsigtighed, når personer interagerer med visse AI-systemer, herunder når der anvendes AI-systemer såsom chatbots. Afhængig af om man er udbyder eller bruger, gælder der forskellige krav.

Personer skal også informeres, når der anvendes AI-systemer til biometrisk kategorisering eller følelsesgenkendelse. Desuden skal deep fakes og andet AI-genereret indhold mærkes som sådan.

Udbyderne skal endvidere (med få undtagelser) udvikle deres systemer, herunder de såkaldte ”general purpose” AI (GPAI) systemer, sådan, at syntetisk indhold såsom lyd, video, tekst og billeder mærkes i et maskinlæsbart format som værende kunstigt genereret eller manipuleret. På denne måde vil det være lettere at skelne mellem indhold, som er genereret eller ændret af maskiner, henholdsvis mennesker. GPAI-systemer er systemer, der kan tjene en række forskellige formål, og som er baseret på AI-modeller til generelle formål.

AI-MODELLER TIL GENERELLE FORMÅL (GENERAL PURPOSE)

I aftalen er der desuden taget højde for at indføre særlige gennemsigtighedsforpligtigelser for udbydere af såkaldte GPAI-modeller, som GPAI-systemer er baseret på. En GPAI-model er i AI-forordningen defineret som en:

“AI model, including when trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable to competently perform a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications. This does not cover AI models that are used before release on the market for research, development and prototyping activities.”

Af hensyn til retssikkerheden, er det vurderet væsentligt at skelne mellem AI-modeller til generelle formål og AI-systemer. Selvom AI-modeller er essentielle komponenter i AI-systemer, udgør de ikke AI-systemer i sig selv. AI modeller kræver tilføjelse af yderligere komponenter, såsom for eksempel en brugergrænseflade, for at blive AI systemer. AI-modeller er typisk integreret i og indgår i AI-systemer.

De særlige forpligtelser for GPAI-modeller skal bl.a. sikre transparens i hele værdikæden. Det omfatter bl.a. krav for udbydere om at udarbejde teknisk dokumentation, tilgængeliggøre information og dokumentation om modellen til udbydere af AI-systemer, som ønsker at integrere modellen i deres system, udarbejdelse af en politik vedrørende overholdelse af ophavsretten og krav om offentliggørelse af en detaljeret rapport om det indhold, som modellen er trænet på. Oplysninger om modellens trænings- og testproces skal tillige indgå i den tekniske dokumentation.

Efter forslag fra Europa-Parlamentet vil der i øvrigt gælde yderligere forpligtigelser for udbydere af GPAI-modeller med systemiske risici. Det omfatter pligt til at mitigere risici, overvågning, dokumentation og anmeldelse til tilsynsmyndighederne af alvorlige hændelser, cybersikkerhed, foretagelse af modelevaluering og kontradiktionsafprøvning. Sådanne GPAI-modeller med systemiske risici omfatter bl.a. store sprogmodeller, herunder Chat GPT.

PLIGT TIL AT FORETAGE EN FUNDAMENTAL RIGHTS IMPACT ASSESSMENT (FRIA)

Aftalen viderefører forslaget fra Europa-Parlamentet om at indføre en pligt for brugere af højrisiko-AI-systemer til at udarbejde en såkaldt ”fundamental rights impact assessment” (FRIA) forud for brugen af et højrisiko-AI-system.

Der er dog tilfælde, hvor der ikke er pligt til at udarbejde en FRIA i forbindelse med brugen af et højrisiko-system. Det er bl.a. tilfælde, hvor brugeren ikke er et organ omfattet af offentlig ret eller private operatører, der leverer ydelser til det offentlige. Dog skal private virksomheder, der bruger et højrisiko-AI-system til kreditvurderinger og afgørelser om helbreds- og livsforsikringer lave en FRIA.

FRIA’en skal bl.a. indeholde en nærmere redegørelse for de risici og mulige konsekvenser højrisiko-AI-systemet har for grundlæggende rettigheder samt en detaljeret plan for at afbøde disse risici og mulige skadevirkninger.

Hvis en myndighed eller virksomhed allerede er forpligtet til at gennemføre en konsekvensanalyse vedrørende databeskyttelse, jf. artikel 35 i databeskyttelsesforordningen, skal FRIA’en udarbejdes i sammenhæng med konsekvensanalysen vedrørende databeskyttelse, som skal offentliggøres som et tillæg til FRIA’en.

RETTIGHEDER TIL PERSONER

I aftalen blev der også opnået enighed om rettigheder til fysiske personer til at kunne klage til de nationale tilsynsmyndigheder samt en ret til meningsfulde forklaringer på afgørelser.

HVEM SKAL HÅNDHÆVE REGLERNE?

Parterne fundet det nødvendigt at oprette et såkaldt AI-kontor under Kommissionen, som får til opgave at føre tilsyn med de mest avancerede AI-modeller, bidrage til at fremme standarder og testpraksis og håndhæve de fælles regler i alle medlemsstater. Kontoret vil blive understøttet af et videnskabeligt panel af uafhængige eksperter.

Derudover skal der udpeges en eller flere nationale tilsynsmyndigheder, som skal sikre AI-forordningens anvendelse og gennemførelse. Det er på nuværende tidspunkt uafklaret, hvilken eller hvilke myndigheder i Danmark, som kommer til at varetage denne opgave.

FORANSTALTNINGER TIL STØTTE FOR INNOVATION

Aftalen mellem parterne omfatter også en række foranstaltninger til støtte for innovation, der samtidig tager hensyn til at lette de administrative byrder for små og mellemstore virksomheder (SMV'er) og start-up-virksomheder. Det drejer sig bl.a. om etablering af reguleringsmæssige sandkasser, som har til formål at skabe et kontrolleret forsøgs- og prøvningsmiljø i udviklingsfasen forud for omsætning af innovative AI-systemer, herunder bl.a. prøvning under faktiske forhold.

SANKTIONER/BØDER

AI-forordningen fastsætter særdeles skrappe bøder for overtrædelse af reglerne. Manglende overholdelse af reglerne i AI-forordningen kan således føre til bøder, der spænder fra 7,5 millioner euro eller 1 % af den globale omsætning for det foregående regnskabsår til 35 millioner euro eller 7 % af den globale omsætning til, afhængigt af overtrædelsen og virksomhedens størrelse.

Der er dog fastsat mere forholdsmæssige lofter for administrative bøder til SMV'er og nystartede virksomheder i tilfælde af overtrædelser af AI-forordningen.

NÆSTE SKRIDT MOD IKRAFTTRÆDELSE AF AI-FORORDNINGEN

Nu hvor AI-forordningen er godkendt i Rådet, er næste skridt, at der den 13. februar skal stemmes herom i EU-Parlamentets udvalg for det Indre Marked og Forbrugerbeskyttelse (IMCO) og udvalget for Borgernes Rettigheder og Retlige og Indre Anliggender (LIBE). Endelig skal der stemmes herom i Europa Parlamentet, forventeligt til april. AI-forordningen vil endeligt træde i kraft 20 dage efter offentliggørelsen i EU-Tidende. Først derefter vil AI-forordningen være endeligt vedtaget.

Når AI-forordningen er endeligt vedtaget, vil den finde anvendelse 24 måneder efter AI-forordningens ikrafttræden, herunder forpligtelserne vedrørende høj-risiko AI-systemer i forordningens bilag III. Dog vil forpligtelserne vedrørende høj-risiko AI-systemer i AI-forordningens bilag II først finde anvendelse efter 36 måneder.

Desuden vil forbuddene mod bestemte AI-praksisser i AI-forordningens artikel 5 allerede finde anvendelse efter 6 måneder, mens reglerne om GPAI-modeller finder anvendelse 12 måneder efter ikrafttrædelse.

Kommissionen vil i overgangsperioden lancere en AI-pagt, som har til formål at opmuntre virksomheder og organisationer mv. til på frivillig basis at implementere AI-forordningens krav forud for den lovbestemte frist på to år. Det er hensigten herved at give virksomheder og organisationer mulighed for at udveksle erfaring og viden ved at demonstrere og dele deres proces, som på den måde samtidig kan testes af andre aktører.

FORBEREDELSERNE STARTER NU

I den mellemliggende periode vil alle, der udbyder eller bruger AI-systemer, skulle forberede sig på at kunne leve op til AI-forordningens krav, herunder identificere, hvilken aktørrolle de har i henhold til forordningen, samt hvilken type AI-system der er tale om.

Aktiviteter, der kan hjælpe forberedelsesprocessen i gang, er bl.a. følgende:

  • Fokus på compliance med databeskyttelsesreglerne

Mange AI-systemer vil være omfattet af databeskyttelsesreglerne, som allerede gælder i dag. Hvis man som virksomhed eller myndighed lever op til disse regler i forbindelse med brugen af AI-systemer, er man godt på vej, da databeskyttelsesforordningen og AI-forordningen varetager mange af de samme hensyn og regulerer flere af de samme emner, såsom data governance, risikohåndtering og sikkerhed.

  • Kortlæg den nuværende brug af AI-systemer

I det omfang man som virksomhed eller myndighed allerede har AI-systemer som en del af sit systemlandskab, bør man vurdere, om systemerne vil være forbundet med uacceptabel risiko, høj risiko, begrænset risiko, eller lav eller minimal risiko. Det vil sikre, at man kan forberede sig på omfanget af krav til de pågældende systemer, herunder om brugen af AI-løsningen er forbudt.

  • Tænk AI-forordningen ind i nye AI-systemer

Hvis man påtænker at udvikle eller anskaffe nye AI-systemer, bør man fastlægge, hvilken aktørrolle man har for at kortlægge sine forpligtelser. Derudover bør AI-forordningens krav tænkes ind i udviklingsaktiviteter og i kontrakter med leverandører af AI-systemer.

  • Påbegynd uddannelse af medarbejdere

Det er centralt, at medarbejdere i en organisation bliver opmærksomme på, hvornår de har at gøre med AI-systemer, samt kan identificere og håndtere reglerne og de risici, der er forbundet med løsningerne, herunder den påvirkning og betydning det har for det arbejde, medarbejderne udfører.

VORES BISTAND

Vores AI-taskforce har solid erfaring med at bistå både offentlige myndigheder og private virksomheder i AI-projekter. Vi kan bl.a. hjælpe jer med at:

  • Identificere og håndtere de databeskyttelsesretlige krav og risici forbundet med jeres AI-løsning, herunder udarbejde en konsekvensanalyse for løsningen.
  • Screening af AI-løsningen i forhold til reglerne i GDPR og AI-forordningen (Algorithmic screening).
  • Bistand til at overholde de nye regler i AI-forordningen.
  • Bistand til at lave et governance- og egenkontrolprogram til at sikre vedvarende compliance, herunder udarbejdelse af politikker.
  • Træning og uddannelse af medarbejdere i de AI-retlige krav og risici (AI literacy).

Vi tilbyder også i samarbejde med DTU Compute AI-uddannelsen Responsible AI Governance & Compliance.

Uddannelsen klæder dig på til at kunne identificere og håndtere de centrale regler, problemstillinger og risici forbundet med udvikling og anvendelse af løsninger baseret på kunstig intelligens (AI).

Du kan læse mere om AI-uddannelsen og tilmelde dig her.

Du er velkommen til at kontakte os, hvis du vil høre mere om vores bistand.

Hold dig opdateret: Få juridisk viden og indsigter fra vores eksperter direkte i din indbakke

Når du tilmelder dig vores nyhedsbreve, bliver du opdateret på seneste nyt fra de retsområder, som du ønsker at følge. Du får også adgang til kommende kurser, webinarer og arrangementer – alt sammen designet til at holde dig informeret og ajour. Uanset om du er på udkig efter rådgivning, viden eller netværksmuligheder, er vores nyhedsbreve din nøgle til det hele.