Kunstig intelligens (AI) giver samfundet og virksomhederne nye muligheder og har potentiale til at forandre arbejdspladser og centrale industrier. Udviklingen mod at udnytte det transformative potentiale i AI og automatisering er i fuld gang. Midt i den globale udbredelse af AI i erhvervslivet og dagligdagen opstår der imidlertid bekymringer om etisk brug og risici. Der er stadig problemer med tilliden; i den globale undersøgelse Trust in artificial intelligence udtrykker tre ud af fem mennesker bekymring over AI-systemer, hvilket får 71 procent til at forvente lovgivningsmæssige tiltag.

Som reaktion på dette har Den Europæiske Union (EU) gjort betydelige fremskridt med en foreløbig aftale om den skelsættende Artificial Intelligence Act (AI-forordningen), som forventes at sætte en ny global standard for AI-regulering. AI-forordningen, der skal træde i kraft i 2024, og som de fleste AI-systemer skal overholde i 2026, har en risikobaseret tilgang i forhold til beskyttelse af grundlæggende rettigheder, demokrati, retsstatsprincippet og miljømæssig bæredygtighed.

EU's AI-forordning sigter mod at finde en hårfin balance, der på den ene side fremmer udbredelsen af AI, samtidig med at den opretholder individers ret til ansvarlig, etisk og troværdig brug af AI. Denne rapport undersøger AI-forordningens potentielle indvirkning på organisationer, dykker ned i dens struktur, forpligtelser, frister for overholdelse og foreslår en handlingsplan, som organisationer kan forholde sig til.

Download PDF

Afkodning af EU's AI Act

Opdag AI-forordningens potentielle betydning for din organisation.



Læs hele PDF'en (1.8 MB) ⤓



Overblik over EU's AI-forordning


AI rummer enorme muligheder for at udvide horisonten for, hvad der kan lade sig gøre, og for at præge verden til vores fordel - men det vil være afgørende at styre AI's risici og potentielle kendte og ukendte negative konsekvenser. AI-forordningen skal være på plads i 2024 og har til opgave at sikre, at AI-systemer er sikre, respekterer grundlæggende rettigheder, fremme AI-investeringer, forbedre styringen og opfordre til et samlet indre EU-marked for AI.




AI-forordningens definition af AI forventes at være bred og omfatte forskellige teknologier og systemer. Som følge heraf vil organisationer sandsynligvis blive betydeligt påvirket af AI-forordningen. De fleste af forpligtelserne forventes at træde i kraft i begyndelsen af 2026. Forbudte AI-systemer skal dog udfases seks måneder efter, at AI-forordningen træder i kraft. Reglerne for styring af AI til almene formål forventes at gælde fra begyndelsen af 2025.1




AI-forordningen anvender en risikobaseret tilgang og inddeler AI-systemer i forskellige risikoniveauer: uacceptabel, høj, begrænset og minimal risiko.2


Højrisiko AI-systemer er tilladt, men underlagt de strengeste krav. Disse krav vil ikke kun påvirke brugere, men også såkaldte "udbydere" af AI-systemer. Betegnelsen "udbyder" i AI-loven dækker over organer, der udvikler AI-systemer, herunder organisationer, som udvikler AI-systemer til rent internt brug. Det er vigtigt at vide, at en organisation både kan være bruger og udbyder.


Udbydere vil sandsynligvis være nødt til at sikre overholdelse af strenge standarder for risikostyring, datakvalitet, gennemsigtighed, menneskeligt tilsyn og robusthed.


Brugerne er ansvarlige for at drive disse AI-systemer inden for AI-forordningens juridiske grænser og i henhold til udbyderens specifikke instruktioner. Dette omfatter forpligtelser vedrørende det ønskede formål og brug, datahåndtering, menneskeligt tilsyn og overvågning.




Nye bestemmelser er blevet tilføjet for at tage højde for de seneste fremskridt inden for AI-modeller til generelle formål (GPAI), herunder store generative AI-modeller.3 Disse modeller kan bruges til en række forskellige opgaver og kan integreres i et stort antal AI-systemer, herunder højrisikosystemer, og de bliver i stigende grad grundlaget for mange AI-systemer i EU. For at tage højde for den brede vifte af opgaver, som AI-systemer kan udføre, og den hurtige udvidelse af deres kapacitet, blev det aftalt, at GPAI-systemer og de modeller, de er baseret på, muligvis skal overholde krav om gennemsigtighed. Derudover vil GPAI-modeller med stor effekt, som besidder avanceret kompleksitet, kapacitet og ydeevne, stå over for strengere forpligtelser. Denne tilgang vil hjælpe med at begrænse systemiske risici, der kan opstå på grund af disse modellers udbredelse.4




Eksisterende EU-lovgivning, for eksempel om persondata, produktsikkerhed, forbrugerbeskyttelse, socialpolitik og national arbejdsret og -praksis, gælder fortsat, såvel som EU's sektorspecifikke lovgivning om produktsikkerhed. Overholdelse af AI-forordningen vil ikke fritage organisationer fra deres allerede eksisterende juridiske forpligtelser på disse områder.




Organisationer bør tage sig tid til at skabe et overblik over de AI-systemer, de udvikler og bruger, og kategorisere deres risikoniveauer som defineret i AI-forordningen. Hvis nogle af deres AI-systemer falder ind under kategorien begrænset, høj eller uacceptabel risiko, skal de vurdere AI-forordningens indvirkning på deres organisation. Det er bydende nødvendigt at forstå denne indvirkning - og hvordan man reagerer - så hurtigt som muligt.