AI Act gælder for foreninger Billede af <a href="https://pixabay.com/da/users/geralt-9301/?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=3083111">Gerd Altmann</a> fra <a href="https://pixabay.com/da//?utm_source=link-attribution&utm_medium=referral&utm_campaign=image&utm_content=3083111">Pixabay</a>

EU’s AI Act får nok ikke den opmærksomhed, som den burde have. Måske især ikke i foreninger. Men AI Act gælder for foreninger. For en non-profit forening i Danmark betyder AI Act, at den betragtes som en “organisation” på lige fod med virksomheder og myndigheder, hvis man anvender eller udvikler AI-systemer. Og hvem gør ikke det? Lovgivningen skelner ikke mellem kommercielle og ikke-kommercielle formål, men fokuserer på den risiko, som brugen af AI udgør for borgerne.

Lad os dykke ned i det vigtigste om AI Act for foreninger.

Krav om AI-færdigheder

Ligesom i det private erhvervsliv skal foreninger sikre, at de personer, der arbejder med AI, har et tilstrækkeligt niveau af viden. Dette krav trådte i kraft den 2. februar 2025.

  • Man skal kunne dokumentere, at dem, der bruger f.eks. generativ AI til medlemskommunikation eller datasegmentering, forstår værktøjernes begrænsninger og risici.

    Det er jo en EU gummi paragraf, for hvordan dokumenterer man det? Måske mest ved omvendt bevis, at hvis man gør noget åbenlyst forkert, demonstrerer man, at man ikke forstår værktøjet.

Gennemsigtighed ved AI-indhold

Hvis foreningen bruger AI til at generere tekst, billeder eller video (f.eks. til fundraising eller kampagner), er der krav om gennemsigtighed, en slags oplysningspligt.

  • Man skal markere, når indhold er AI-genereret, så modtageren ikke er i tvivl. En simpel tekst som “Billedet er skabt med AI” kan være tilstrækkelig (dette krav forventes at gælde fuldt ud fra august 2026).

    Retspraksis vil jo nok blive, at man kun angiver det, når det i sin helhed er AI-skabt. Qua at alt snart er skabt med hjælp af AI, er denne EU regel jo skabt til at blive omgået.

Særlige regler for højrisiko-systemer

De fleste foreninger bruger AI til “minimal risiko” (f.eks. chatbots eller tekstbehandling), som har få krav. Men hvis foreningen arbejder med følsomme områder, kan den blive omfattet af strengere regler:

  • Hvis man bruger AI til at screene ansøgninger om økonomisk støtte, hvis en sportsforening vurderer medlemmers sårbarhed eller man træffer beslutninger, der påvirker personers rettigheder, kan det klassificeres som højrisiko.

    Undersøg det nærmere, for det kræver omfattende dokumentation, risikovurdering og i visse tilfælde en vurdering af konsekvenserne for grundlæggende rettigheder.

Forbudte systemer

Visse former for AI er helt forbudt, også for foreninger. Det gælder blandt andet systemer, der forsøger at manipulere menneskers adfærd eller foretager følelsesgenkendelse i arbejdsmæssige sammenhænge. Det synes irrelevant for de fleste foreninger.

Praktiske råd til foreningen

Italesæt allerførst, at AI Act gælder for foreninger. Tal om, og skriv evt. i referat, hvilke AI-værktøjer foreningen bruger generelt. At den enkelte bruger AI.værktøjer i sin dagligdag og til forberedelse kan foreningen næppe hæfte for.

Det bliver mere afgørende, hvis man – som kunne være relevant for en sportsforening – bruger det til at tage vigtige beslutninger om mennesker.

Det kan være relevant at give de frivillige i foreningen retningslinjer, evt. skrive det ind i bestyrelsens kodeks. Man kan skrive en kort instruks om sikker brug af AI og krav om markering af AI-genereret indhold.

Instruks: AI Act gælder for foreninger

Her er et udkast til en kortfattet instruks til en forenings bestyrelse, som tager udgangspunkt i de centrale anbefalinger om ansvarlig AI-brug og de krav, som AI Act stiller til organisationer og foreninger.

Som bestyrelse har vi et ansvar for, at vores forening lever op til krav i EU’s AI Act. Loven kræver, at vi som organisation har styr på vores kompetencer og bruger teknologien sikkert. Her er vores fælles regler for brug af kunstig intelligens:

  • Vi bevarer kontrollen, AI må aldrig træffe vigtige beslutninger alene. Vi skal altid have et menneske i processen, der kritisk gennemser og godkender alt indhold, som AI har hjulpet med at skabe.
  • Vi beskytter vores data, indtast aldrig personfølsomme oplysninger (navne, adresser, helbreds oplysninger eller medlemslister) i åbne AI-værktøjer som f.eks. ChatGPT. Vær opmærksom på, at data indtastet i gratis værktøjer kan bruges til at træne deres modeller.
  • Vi er ærlige (Gennemsigtighed). Hvis vi bruger AI til at generere tekst, billeder eller video til vores medlemmer eller offentligheden, markerer vi det tydeligt. Vores brug af AI skal kunne dokumenteres, hvis vi bliver spurgt af myndighederne.
  • Vi kender begrænsningerne. Vi er opmærksom på “bias/hallucinationer”, hvor AI opdigter fakta eller viser helt forkerte resultater. Vi bruger altid AI med en sund skepsis før vi publicerer noget som foreningens officielle holdning.
  • Løbende læring. Vi forpligter os til at holde os opdateret på, hvordan værktøjerne udvikler sig, så vi bruger dem sikkert og etisk forsvarligt.

AI Act gælder for foreninger men..

Konklusionens er, at AI Act gælder for foreninger, men bruger foreningen bare almindelige værktøjer til f.eks.

  • ChatGPT til medlemsbreve
  • AI til korrekturlæsning
  • Billedgenerering til sociale medier

så vil foreningen typisk befinde sig i kategorien minimal eller begrænset risiko, og vil have ganske let ved at opfylde loven.

20.02.2026 Indlæg på CXO2’s blog  www.CxO2.dk/blog

Læs bloggens andre indlæg om AI

Sådan abonnerer du på indlæg i denne blog:
Besøg LinkedIn udgaven og tryk på FØLG eller besøg Facebook udgaven og tryk SYNES OM

AI Act gælder for foreninger
Del gerne til dine kontakter:
Annonce

Annonce
Tagget på: