De wetgeving belooft de spelregels te schrijven voor hoe AI wordt geïntegreerd in verschillende industrieën, waaronder de data gedreven marketingsector. Maar de gehele Europese verordening is voorlopig nog niet van toepassing. De verschillende regels zullen namelijk pas gefaseerd gaan gelden. In dit artikel schetsen wij een tijdslijn van de inwerkingtreding van de AI Act en bespreken we kort de meest recente ontwikkelingen op het vlak van regulering en innovatie.
Tijdslijn inwerkingtreding AI Act
De inwerkingtreding van de AI Act verloopt in fases. Dit betekent dat de specifieke regels op verschillende momenten van kracht zullen gaan.
Periode | Welke verplichtingen gaan gelden? |
---|---|
12 juli 2024 | Officiële publicatie laatste versie in Europees Publicatieblad |
1 augustus 2024 (20 dagen na publicatie) | AI Act officieel van kracht |
Februari 2025 | – Verboden AI-systemen – AI-geletterdheid maatregelen* |
Augustus 2025 | – AI-modellen voor algemene doeleinden of General Purpose AI** Hieronder valt dus ook generatieve AI. Voor mei 2025 staat gepland dat het “AI Office” gedragscodes en best practices publiceert voor ontwikkelaars en aanbieders van General Purpose AI. – Deadline voor het inrichten van de nationale toezichthouding (toezichthouder *** en richtsnoeren). |
Augustus 2026 | Gehele AI Act is van toepassing, met uitzondering van de hoogrisico-systemen uit Bijlage I. Dit is een lijst van bepaalde producten en systemen die een hoger risico vormen, zoals AI-systemen die dienen als veiligheidscomponenten van producten. |
Augustus 2027 | Ook de regels voor de producten uit Bijlage I zijn van toepassing. In 2026 zullen er nog richtsnoeren gedeeld worden door de Europese Commissie. |
*AI-geletterdheid
Dit houdt in dat aanbieders, gebruiksverantwoordelijken en betrokken personen (zoals personeel) over genoeg kennis en capaciteiten moeten beschikken om op basis daarvan goed onderbouwde beslissingen met betrekking tot AI-systemen te kunnen nemen. Gezamenlijke kennis van alle partijen in de AI-waardeketen draagt bij aan het verantwoord ontwikkelen en gebruik van AI. De Europese Commissie en EU-lidstaten gaan nog gedragscodes faciliteren om dit te bevorderen.
**AI-modellen voor algemene doeleinden
Deze modellen, beter bekend als General Purpose AI models, zijn krachtige modellen die veel gegevens kunnen verwerken en ook getraind worden met veel gegevens. Het gaat dus niet om systemen met één specifieke functie, maar juist om systemen die voor meer use-cases geschikt zijn. Een bekend voorbeeld van zo’n model is het generatieve AI-model, dat nieuwe content genereert, zoals tekst, audio, beelden of video.
*** Toezichthouders
Op 17 juli 2024 heeft de de Europese Toezichthouder voor Gegevensbescherming (EDPB) een verklaring afgegeven over de rol van nationale toezichthouders in het kader van de verplichtingen van de AI Act. De EDPB geeft aan veel waarde te hechten aan de expertise en ervaring van de bestaande gegevensbeschermingsautoriteiten en is er daarom van overtuigd dat deze het meest geschikt zijn om als toezichthouder onder de AI Act op te treden. In Nederland gaat dus waarschijnlijk de Autoriteit Persoonsgegevens (AP) toezicht houden en richtlijnen geven over zaken als vertrouwelijkheid en boetes.
Navigeren door de EU AI-wetgeving: uitdagingen voor Meta en andere techgiganten
Gezien de ontwikkelingen op het gebied van Europese wetgeving en AI, zijn grote techbedrijven en social media-platformen genoodzaakt zich door deze wetgeving heen te navigeren. Hieronder lichten wij enkele voorbeelden uit gerelateerd aan Meta.
- AI-modellen in Europa
Meta kondigde eind mei aan dat het gegevens van Europeanen wilt gaan gebruiken om AI-modellen te trainen zonder hier van tevoren toestemming voor te krijgen. Dit zou gaan om gegevens uit openbare posts beschikbaar op de social media platformen Facebook en Instagram. Meta deed dit al langer in andere landen, maar in Europa is het – zonder toestemming – niet mogelijk dankzij de GDPR. Na vele klachten vanuit Noyb, de non-profitorganisatie opgericht door privacyactivist Max Schrems, en nationale toezichthouders, heeft Meta aangegeven de plannen in Europa te pauzeren.
Ook heeft Meta besloten om Llama, de geavanceerde versie van zijn AI-model, nog niet uit te brengen in de EU. Dit nieuwste Large Language Model (LLM) is in staat om video, audio, afbeeldingen en tekst te verwerken. De introductie op de Europese markt wordt uitgesteld omdat Meta het gedrag van de EU-wetgevers ‘onvoorspelbaar’ vindt, hoewel ze aangeven dat dit niet gerelateerd is aan de AI Act.
Eind juni besloot Apple ook al om de functionaliteiten van het platform ‘Apple Intelligence’ uit te stellen. Dit heeft volgens Apple te maken met de onzekerheden rondom de Europese verordening: de Digital Markets Act (DMA).
- Transparantie generatieve AI op sociale media
Ontwikkelaars van AI-systemen, waarmee burgers direct in aanraking komen, zijn volgens de AI Act verplicht om bekend te maken dat content kunstmatig is gegenereerd of bewerkt, wanneer het lijkt op echte personen, objecten, plaatsen of gebeurtenissen en daarom als echt kan worden aangezien. Deze transparantieverplichting geldt bijvoorbeeld voor deepfakes, waardoor de gebruiker van een deepfake-model de content duidelijk moet labelen.
Het is belangrijk om vanaf het eerste moment dat zulke beelden worden gedeeld, transparant te zijn over het gebruik van AI. Grote socialmediaplatformen als Instagram en Tiktok zijn hier al op voorbereid aangezien de mogelijkheid wordt geboden om een label voor AI gegenereerde content toe te voegen. Meta had in april al besloten dit toe te voegen voor Instagram en facebook naar aanleiding van het advies van de Oversight Board die toezicht houdt op het moderatiebeleid van beide platformen. De bedoeling van zulke labels is om gebruikers te waarschuwen en digitale misleiding op Meta’s platformen te voorkomen. In juli liet Meta weten dat het label “Gemaakt met AI” onvoldoende context bood, aangezien AI ook gebruikt kan worden voor kleine aanpassingen. Daarom wordt het label nu aangepast naar “AI-info”, waarop gebruikers kunnen klikken voor meer informatie. Het zal interessant zijn om te zien hoe het gebruik van zulke labels in de praktijk zal uitpakken.
Wil je meer informatie over de AI Act en andere actuele ontwikkelingen rondom AI? Dan zijn de onderstaande evenementen wellicht wat voor jou.
- DDMA Legal Masterclass: Responsible AI: De belangrijkste marketingregels bij gebruik van (gen)AI en first-party data
- Legal Member Meetup (Alleen toegankelijk voor DDMA-leden)
- Laatste legal updates in je mailbox? Meld je aan voor de DDMA Legal Nieuwsbrief.
- Ben je lid en heb je een vraag? Je kunt ons bereiken via 020 4528413 en legal@ddma.nl.
- Nog geen lid? Bekijk hier alle voordelen van het DDMA-lidmaatschap.