LISTEN OVER FORBUDTE AI-SYSTEMER
AI-systemer med en uacceptabel risiko forbydes i EU, idet de anses for at udgøre en for høj risiko for bl.a. grundlæggende rettigheder.
Der har været uenighed mellem parterne om, hvilke AI-systemer der hører til på forbudslisten, hvor Europa-Parlamentet i sit kompromisforslag foretog væsentlige ændringer til den foreslåede forbudsliste. Efter at parterne er nået til enighed, omfatter forbudslisten følgende AI-systemer vedrørende:
- Kognitiv adfærdsmanipulation (subliminal/manipulative/deceptive techniques) samt udnyttelse af visse svagheder (alder/handicap/sociale/økonomiske situation), der fører til alvorlig skadevirkning (significant harm).
- Biometrisk kategorisering for at udlede følsomme data såsom seksuel orientering eller religiøs overbevisning m.v.
- Brug af visse sociale pointsystemer (”social scoring”) baseret på AI, hvor disse fører til skadelig eller ugunstig behandling.
- Biometriske fjernidentifikationssystemer i realtid på offentlige steder til retshåndhævende formål (med visse undtagelser).
- Ikke-målrettet indsamling af ansigtsbilleder fra internettet (”untargeted scraping”) eller CCTV-optagelser.
- Visse tilfælde af forudsigende politiarbejde for enkeltpersoner (individual predictive policing).
- Følelsesgenkendelse på arbejdspladsen og i uddannelsesinstitutioner.
Parterne opnåede dog enighed om, at retshåndhævende myndigheder kan anvende biometriske fjernidentifikationssystemer i realtid på offentlige steder til retshåndhævende formål i særlige tilfælde af kriminalitet, som er omfattet af en nærmere defineret kriminalitetsliste. Det omfatter målrettede søgninger efter ofre for visse forbrydelser, forebyggelse af reelle, nuværende eller forudsigelige trusler såsom terrorangreb og eftersøgning efter personer, der mistænkes for de alvorligste forbrydelser. Det kræver imidlertid en forudgående dommerkendelse eller en tilladelse fra en uafhængig administrativ myndighed, der kan træffe en bindende afgørelse. Der er dog efterladt en snæver undtagelse i situationer af hastende karakter, hvor en tilladelse kan indhentes efterfølgende.
HØJRISIKO-AI-SYSTEMER
AI-systemer med høj risiko vil skulle opfylde en lang række strenge krav, der navnlig gælder for udbydere. Det omfatter bl.a. generelle krav om risikohåndteringssystem, datasæt af høj kvalitet (data governance), dokumentation, gennemsigtighed og formidling af oplysninger til brugere, herunder uddannelse af evt. medarbejdere, klar brugerinformation i en brugsanvisning, menneskeligt tilsyn, kontrol og transparens samt et højt niveau af robusthed, nøjagtighed og cybersikkerhed.
Fsva. dokumentation er der både krav om teknisk dokumentation af, at AI-systemet/produktet lever op til AI-forordningens krav, og dokumentation af systemets performance i drift, herunder logning m.v., for at sikre sporbarhed om systemets funktion i hele livscyklussen. Herudover skal der gennemføres en overensstemmelsesvurdering for systemet, der vil indgå som en del af den tekniske dokumentation. Højrisiko AI-systemet skal desuden registreres i en særlig EU-database herfor.
Ligesom med forbudslisten har parterne ikke været enige om, hvilke AI-systemer der skal kategoriseres som højrisiko-AI-systemer. Det følger nu af den endelige version af AI-forordningen, at det skal omfatte AI-systemer, der selv er et produkt eller er beregnet til at blive anvendt som sikkerhedskomponenter i produkter, der er omfattet af harmoniseret EU-lovgivning nævnt i AI-forordningens bilag II, og der samtidig er forpligtet til at gennemgå en overensstemmelsesvurdering (f.eks. maskiner, legetøj, medicinsk udstyr), jf. forordningens artikel 6, stk. 1.
Desuden omfatter højrisiko-AI-systemer andre selvstændige AI-systemer – uafhængige af et produkt – hvor systemet er omfattet af en eller flere af de kritiske områder eller use cases, som er angivet i AI-forordningens bilag III, jf. artikel 6, stk. 2.
Disse AI-systemer udgør normalt en høj risiko for menneskers sundhed, sikkerhed eller grundlæggende rettigheder. Det omfatter bl.a. visse kritiske digitale infrastrukturer, bl.a. indenfor vejtrafik, vand, gas og elektricitet, systemer til bestemmelse af adgang til uddannelsesinstitutioner eller til rekruttering af personer, kreditvurderinger af personer, risikovurderinger og prisfastsættelse i forhold til livs- og helbredsforsikringer samt visse systemer, der anvendes indenfor retshåndhævelse, grænsekontrol, retspleje og demokratiske processer.
Hvis det imidlertid vurderes, at et konkret AI-system ikke udgør en høj risiko for menneskers sundhed, sikkerhed eller grundlæggende rettigheder, vil systemet dog ikke blive vurderet højrisiko, hvis et eller flere af fire kriterier er opfyldt, jf. artikel 6, stk. 3. Det vil f.eks. være tilfældet, hvor AI-systemet er beregnet til at detektere beslutningsmønstre eller afvigelser fra tidligere beslutningsmønstre og samtidig ikke er beregnet til at erstatte eller påvirke den tidligere gennemførte menneskelige vurdering uden en passende menneskelig gennemgang.
AI-SYSTEMER MED SPECIFIK GENNEMSIGTIGHEDSRISIKO
Parterne er desuden blevet enige om at fastsætte regler i AI-forordningen om pligt til at skabe yderligere gennemsigtighed, når personer interagerer med visse AI-systemer, herunder når der anvendes AI-systemer såsom chatbots. Afhængig af om man er udbyder eller bruger, gælder der forskellige krav.
Personer skal også informeres, når der anvendes AI-systemer til biometrisk kategorisering eller følelsesgenkendelse. Desuden skal deep fakes og andet AI-genereret indhold mærkes som sådan.
Udbyderne skal endvidere (med få undtagelser) udvikle deres systemer, herunder de såkaldte ”general purpose” AI (GPAI) systemer, sådan, at syntetisk indhold såsom lyd, video, tekst og billeder mærkes i et maskinlæsbart format som værende kunstigt genereret eller manipuleret. På denne måde vil det være lettere at skelne mellem indhold, som er genereret eller ændret af maskiner, henholdsvis mennesker. GPAI-systemer er systemer, der kan tjene en række forskellige formål, og som er baseret på AI-modeller til generelle formål.