En omdebatteret risiko forbundet med AI-løsninger er, om materiale, der skabes ved brug af løsningerne – outputtet – vil kunne udgøre en ophavsretlig krænkelse. Der vil f.eks. foreligge en krænkelse, hvis outputtet ligger for tæt op ad et ophavsretligt beskyttet værk og dermed kan siges at udgøre en ulovlig kopi.
Risikoen for krænkelser opstår primært af to grunde:
- AI-løsninger kan være trænet på beskyttet materiale, der evt. gengives i et ophavsretligt relevant omfang i outputtet. Når f.eks. ChatGPT genererer en tekst, sker det på baggrund af den læring, som ChatGPT har opnået på grundlag af tekster, der typisk er ophavsretligt beskyttet. Dermed vil den genererede tekst efter omstændighederne potentielt kunne gengive dele af det oprindelige træningsmateriale på en sådan måde, at den genererede tekst får karakter af en ulovlig kopi.
- Brugerens instrukser til en AI-løsning kan indeholde beskyttet materiale, der evt. genanvendes i et ophavsretligt relevant omfang i outputtet. Denne situation vil f.eks. kunne opstå, hvis brugeren kopierer en beskyttet tekst ind i en AI-løsning med instruks om, at teksten skal omskrives til brugerens specifikke formål.
Hvis f.eks. en tekst genereret ved hjælp af ChatGPT – outputtet – ligger for tæt op ad en ophavsretligt beskyttet tekst, risikerer brugeren under visse omstændigheder at blive mødt af krav fra rettighedshaveren til teksten.
Det kan f.eks. tænkes, at rettighedshaveren vil forsøge enten at få nedlagt forbud mod eller at opnå betaling for brugen af outputtet. Rettighedshaveren kan komme igennem med sådanne krav over for brugeren, uanset om udbyderen af AI-løsningen har givet brugeren tilladelse til at benytte outputtet. Det skyldes, at udbyderen som udgangspunkt ikke kan give tilladelse til brug af andres ophavsretligt beskyttede materiale.
Den juridiske usikkerhed, der således kan være forbundet med brug af output generet af AI-løsninger, kan gøre det mindre attraktivt at anvende AI-løsninger i praksis. Usikkerheden er særligt stor mht. standard AI-løsninger som f.eks. ChatGPT, Midjourney mfl., fordi brugeren ikke har indsigt i, hvordan disse løsninger er indrettet. Det er i den forbindelse interessant, at f.eks. Microsoft har anført følgende i relation til brugen af output genereret af Copilots:
”[…] if a third party sues a commercial customer for copyright infringement for using Microsoft’s Copilots or the output they generate, we will defend the customer and pay the amount of any adverse judgments or settlements that result from the lawsuit, as long as the customer used the guardrails and content filters we have built into our products.”
Det bliver spændende at se, hvilken betydning denne type garantier får i praksis, samt hvorledes AI-systemer og brugervejledninger indrettes med henblik på at undgå krænkelser.
Både AI-løsninger og brugervejledninger hertil kan indrettes på en sådan måde, at krænkelser undgås. Derfor kan det for nogle brugere være en fordel helt eller delvist at udvikle egne AI-løsninger.