De Digital Services Act (“DSA”) beoogt, samen met de Digital Markets Act (“DMA”), een veilige, voorspelbare en betrouwbare online omgeving te creëren. De DSA heeft een brede reikwijdte en is van toepassing op meer dan 10.000 tussenhandelsdiensten die actief zijn binnen de Europese Unie (“EU”). Voorbeelden van tussenhandelsdiensten zijn hostingdiensten, online marktplaatsen, sociale netwerken, appstores, contentdeelplatforms en online reisplatforms. Daarnaast valt de inzet van Artificial Intelligence (“AI”) in bepaalde gevallen binnen de kaders van de DSA. In geval van AI kan aanvullende regelgeving zoals de Algemene Verordening Gegevensbescherming (“AVG”) en de AI Act een rol spelen.
In het eerste deel van onze driedelige blogreeks gaven wij een introductie over de DSA. Dit tweede deel focust op transparantie en algoritmes onder de DSA, waarbij een koppeling wordt gemaakt met de AVG en de AI Act. In het derde en laatste deel staat contentmoderatie onder de DSA centraal.
Transparantieverplichtingen
Een belangrijk onderwerp in de DSA is transparantie: zo stelt de DSA eisen aan hoe algoritmische processen mogen worden ingezet, hoe advertenties worden geplaatst en hoe schadelijke of illegale inhoud moet worden gemodereerd. Ook voor geautomatiseerde, op AI gebaseerde (aanbevelings)systemen legt de DSA specifieke regels op om gebruikers inzicht te geven in hoe bepaalde inhoud wordt gepresenteerd.
Transparantieverplichtingen met betrekking tot algoritmes
Onder de DSA kan illegale of schadelijke inhoud worden aangepakt of verwijderd na een melding of bevel van een bevoegde autoriteit (artikel 9) of een klacht van een gebruiker (artikel 14). Daarnaast geldt dat partijen proactief kunnen handelen tegen illegale of schadelijke inhoud. Dit betekent dat zij niet alleen hoeven te wachten op meldingen, maar ook (bijvoorbeeld) algoritmische systemen kunnen inzetten om dergelijke illegale of schadelijke inhoud, zoals deepfakes, automatisch te detecteren en te verwijderen voordat ze zich verder verspreiden.
Indien gebruik wordt gemaakt van algoritmische systemen in het kader van contentmoderatie, dienen gebruikers hierover te worden geïnformeerd via algemene voorwaarden (artikel 14). Tussenhandelsdiensten dienen bovendien jaarlijks te rapporteren over de uitgevoerde inhoudsmoderatie, waarbij dient te worden vermeld in hoeverre gebruik is gemaakt van geautomatiseerde hulpmiddelen (artikel 15). Dit is eveneens van belang bij de motiveringsplicht voor tussenhandelsdiensten wanneer zij beslissingen maken in het kader van contentmoderatie (artikel 17). Tot slot geldt dat platforms klachten zorgvuldig moeten behandelen, waarbij geautomatiseerde besluitvorming altijd onderworpen is aan menselijke beoordeling (artikel 20).
AI wordt niet enkel ingezet om schadelijke of illegale inhoud op te sporen en aan te pakken. Platforms, zoals Tiktok en Instagram, maken veelal gebruik van algoritmische aanbevelingssystemen om specifieke informatie onder de aandacht van gebruikers te brengen (artikel 3s). Dergelijke systemen worden gebruikt om inhoud te rangschikken, prioriteren en presenteren, wat een aanzienlijke invloed heeft op hoe gebruikers informatie ontvangen en daarop reageren. Derhalve dienen platforms in hun algemene voorwaarden te vermelden welke parameters voor aanbevelingssystemen worden gebruikt, alsook de opties voor gebruikers om deze te wijzigen (artikel 27).
Transparantieverplichtingen met betrekking tot advertenties
Vergelijkbare verplichtingen gelden rondom online reclame en advertenties. Zo schrijft de DSA voor dat online platforms die reclame tonen ervoor zorgen dat de afnemers van de dienst voor elke reclame die wordt getoond, duidelijk is:
- dat er sprake is van reclame,
- in wiens naam de reclame wordt getoond,
- wie de reclame heeft betaald, en
- welke parameters worden gebruikt om te bepalen aan welke afnemers de reclame wordt getoond (artikel 26).
Platforms mogen geen reclame tonen die is gebaseerd op profilering en waarbij bijzondere persoonsgegevens worden gebruikt (artikel 28). Daarnaast geldt dat platforms geen reclame mogen tonen op basis van profilering wanneer de afnemer minderjarig is.
Met betrekking tot onlinereclame en advertenties gelden voor VLOPs en VLOSEs bijkomende transparantieverplichtingen. Zo moeten VLOPs en VLOSEs een register bijhouden van alle op diens diensten getoonde advertenties dat publiekelijk toegankelijk is, om toezicht en onderzoek mogelijk te maken naar risico’s zoals illegale reclame, manipulatie en desinformatie (artikel 30). Dit register moet details bevatten zoals de inhoud van de advertentie, de adverteerder, de weergaveperiode, de gebruikte targetingparameters en het bereik, zonder persoonsgegevens van gebruikers op te nemen.
Koppeling met bestaande wetgeving
De AVG legde de basis voor EU-brede wettelijke kaders ten aanzien van de bescherming van persoonsgegevens. De DSA bouwt voort op de principes van de AVG.
DSA & AVG: bescherming en transparantie
Waar de AVG zich hoofdzakelijk richt op de bescherming van persoonsgegevens, ligt de focus van de DSA op het creëren van een veilige en transparante onlineomgeving. Dit doet de DSA door partijen te verplichten tot meer transparantie en verantwoordelijkheid ten aanzien van hun activiteiten. Partijen actief in een onlineomgeving verwerken vaak persoonsgegevens, waardoor de DSA en de AVG gelijktijdig van toepassing zijn. De DSA doet daarbij nadrukkelijk geen afbreuk aan de AVG en is soms zelfs strenger.
Een duidelijk raakvlak tussen de DSA en de AVG is de manier waarop gebruikersdata (voor zover persoonsgegevens) mogen worden verwerkt en ingezet. Op grond van de AVG kunnen gebruikers toestemming (in bepaalde gevallen) geven voor het gebruik van hun gegevens, en de DSA voegt hieraan toe dat gepersonaliseerde advertenties zonder expliciete toestemming niet meer zijn toegestaan. Daarnaast verplicht de DSA platforms om algoritmes transparanter te maken, wat gebruikers meer inzicht geeft in hoe hun online ervaringen worden vormgegeven.
DSA & AI Act: samenhang en verschillen
De DSA en de AI Act reguleren in principe afzonderlijke onderwerpen. De AI Act behandelt voornamelijk AI-technologie, terwijl de DSA tussenhandelingsdiensten en andere aanbieders reguleert. Desondanks vullen de DSA en de AI Act elkaar aan door hun gezamenlijke focus op transparantie en verantwoording rondom het gebruik van AI-systemen. Platformregulering en het gebruik van AI-systemen raken immers steeds meer verweven, zoals wordt erkend in de preambule van de AI Act.
De DSA regelt echter niets op het gebied van het verspreiden van inhoud door AI-systemen. De DSA ziet op de driedeling van mere conduit-, caching- en hostingdiensten. Zelfstandige AI-diensten, zoals generatieve AI die inhoud creëert op basis van gebruikersinput, passen niet in één van deze drie categorieën. Het creëren en verspreiden van inhoud door AI-systemen omvat immers complexere processen die niet (volledig) aan bod komen in de DSA. Wel voorziet de DSA in regels voor platforms die gebruikmaken van geautomatiseerde, op AI gebaseerde (aanbevelings)systemen om bepaalde inhoud onder de aandacht van gebruikers te brengen (artikel 29). De DSA eist uitleg over aanbevelingssystemen en advertenties, zoals hierboven reeds aan bod is gekomen.
De AI Act stelt juist bredere eisen stelt aan risicobeoordeling en gebruikersinformatie. Onder de AI Act moeten gebruikers van AI-systemen die foto’s, geluid en/of videobeelden manipuleren, bijvoorbeeld kenbaar maken dat het daarbij gaat om iets artificially generated or manipulated. Een voorbeeld hiervan is een deep fake. Deep fakes worden, aan de andere kant, in de DSA aangemerkt als risico (artikel 34). VLOPs en VLOSEs moeten dergelijke risico’s mitigeren, waarbij maatregelen onder waarborgen dat “gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal” (zoals deep fakes) worden gemarkeerd als niet authentiek en niet waarheidsgetrouw (artikel 35).
Voor meer informatie over de AI Act wordt verwezen naar onze whitepaper.
Praktische implicaties voor bedrijven
De DSA, in combinatie met de AVG en de AI Act, stelt bedrijven in Nederland en de rest van de EU voor complexe nalevingsuitdagingen. Vooral organisaties die AI-tools ontwikkelen en inzetten, moeten zich voorbereiden op de samenloop van deze regelgevingen. AI speelt immers (ook) een rol binnen de DSA: het biedt enerzijds oplossingen voor inhoudsmoderatie, maar introduceert ook nieuwe handhavingsrisico's. Dit vereist investeringen in hun algoritmische infrastructuur.
Conclusie
De DSA luidt een nieuw tijdperk in van transparantie en verantwoording binnen de digitale wereld. Met regels over algoritmen, advertenties en inhoudsmoderatie biedt de DSA duidelijke kaders voor gebruikersrechten en verantwoordelijkheden voor tussenhandelsdiensten. Tegelijkertijd versterkt de DSA bestaande wetten, zoals de AVG, en bereidt het tussenhandelsdiensten voor op de komst van aanvullende regelgeving, zoals de AI Act.
In het laatste deel van deze reeks, dat op 3 februari verschijnt, wordt dieper ingegaan op de verplichtingen en verantwoordelijkheden van bedrijven rondom inhoudsmoderatie en de aanpak van illegale inhoud onder de DSA.
De Digital Services Act (“DSA”) beoogt, samen met de Digital Markets Act (“DMA”), een veilige, voorspelbare en betrouwbare online omgeving te creëren. De DSA heeft een brede reikwijdte en is van toepassing op meer dan 10.000 tussenhandelsdiensten die actief zijn binnen de Europese Unie (“EU”). Voorbeelden van tussenhandelsdiensten zijn hostingdiensten, online marktplaatsen, sociale netwerken, appstores, contentdeelplatforms en online reisplatforms. Daarnaast valt de inzet van Artificial Intelligence (“AI”) in bepaalde gevallen binnen de kaders van de DSA. In geval van AI kan aanvullende regelgeving zoals de Algemene Verordening Gegevensbescherming (“AVG”) en de AI Act een rol spelen.
In het eerste deel van onze driedelige blogreeks gaven wij een introductie over de DSA. Dit tweede deel focust op transparantie en algoritmes onder de DSA, waarbij een koppeling wordt gemaakt met de AVG en de AI Act. In het derde en laatste deel staat contentmoderatie onder de DSA centraal.
Transparantieverplichtingen
Een belangrijk onderwerp in de DSA is transparantie: zo stelt de DSA eisen aan hoe algoritmische processen mogen worden ingezet, hoe advertenties worden geplaatst en hoe schadelijke of illegale inhoud moet worden gemodereerd. Ook voor geautomatiseerde, op AI gebaseerde (aanbevelings)systemen legt de DSA specifieke regels op om gebruikers inzicht te geven in hoe bepaalde inhoud wordt gepresenteerd.
Transparantieverplichtingen met betrekking tot algoritmes
Onder de DSA kan illegale of schadelijke inhoud worden aangepakt of verwijderd na een melding of bevel van een bevoegde autoriteit (artikel 9) of een klacht van een gebruiker (artikel 14). Daarnaast geldt dat partijen proactief kunnen handelen tegen illegale of schadelijke inhoud. Dit betekent dat zij niet alleen hoeven te wachten op meldingen, maar ook (bijvoorbeeld) algoritmische systemen kunnen inzetten om dergelijke illegale of schadelijke inhoud, zoals deepfakes, automatisch te detecteren en te verwijderen voordat ze zich verder verspreiden.
Indien gebruik wordt gemaakt van algoritmische systemen in het kader van contentmoderatie, dienen gebruikers hierover te worden geïnformeerd via algemene voorwaarden (artikel 14). Tussenhandelsdiensten dienen bovendien jaarlijks te rapporteren over de uitgevoerde inhoudsmoderatie, waarbij dient te worden vermeld in hoeverre gebruik is gemaakt van geautomatiseerde hulpmiddelen (artikel 15). Dit is eveneens van belang bij de motiveringsplicht voor tussenhandelsdiensten wanneer zij beslissingen maken in het kader van contentmoderatie (artikel 17). Tot slot geldt dat platforms klachten zorgvuldig moeten behandelen, waarbij geautomatiseerde besluitvorming altijd onderworpen is aan menselijke beoordeling (artikel 20).
AI wordt niet enkel ingezet om schadelijke of illegale inhoud op te sporen en aan te pakken. Platforms, zoals Tiktok en Instagram, maken veelal gebruik van algoritmische aanbevelingssystemen om specifieke informatie onder de aandacht van gebruikers te brengen (artikel 3s). Dergelijke systemen worden gebruikt om inhoud te rangschikken, prioriteren en presenteren, wat een aanzienlijke invloed heeft op hoe gebruikers informatie ontvangen en daarop reageren. Derhalve dienen platforms in hun algemene voorwaarden te vermelden welke parameters voor aanbevelingssystemen worden gebruikt, alsook de opties voor gebruikers om deze te wijzigen (artikel 27).
Transparantieverplichtingen met betrekking tot advertenties
Vergelijkbare verplichtingen gelden rondom online reclame en advertenties. Zo schrijft de DSA voor dat online platforms die reclame tonen ervoor zorgen dat de afnemers van de dienst voor elke reclame die wordt getoond, duidelijk is:
- dat er sprake is van reclame,
- in wiens naam de reclame wordt getoond,
- wie de reclame heeft betaald, en
- welke parameters worden gebruikt om te bepalen aan welke afnemers de reclame wordt getoond (artikel 26).
Platforms mogen geen reclame tonen die is gebaseerd op profilering en waarbij bijzondere persoonsgegevens worden gebruikt (artikel 28). Daarnaast geldt dat platforms geen reclame mogen tonen op basis van profilering wanneer de afnemer minderjarig is.
Met betrekking tot onlinereclame en advertenties gelden voor VLOPs en VLOSEs bijkomende transparantieverplichtingen. Zo moeten VLOPs en VLOSEs een register bijhouden van alle op diens diensten getoonde advertenties dat publiekelijk toegankelijk is, om toezicht en onderzoek mogelijk te maken naar risico’s zoals illegale reclame, manipulatie en desinformatie (artikel 30). Dit register moet details bevatten zoals de inhoud van de advertentie, de adverteerder, de weergaveperiode, de gebruikte targetingparameters en het bereik, zonder persoonsgegevens van gebruikers op te nemen.
Koppeling met bestaande wetgeving
De AVG legde de basis voor EU-brede wettelijke kaders ten aanzien van de bescherming van persoonsgegevens. De DSA bouwt voort op de principes van de AVG.
DSA & AVG: bescherming en transparantie
Waar de AVG zich hoofdzakelijk richt op de bescherming van persoonsgegevens, ligt de focus van de DSA op het creëren van een veilige en transparante onlineomgeving. Dit doet de DSA door partijen te verplichten tot meer transparantie en verantwoordelijkheid ten aanzien van hun activiteiten. Partijen actief in een onlineomgeving verwerken vaak persoonsgegevens, waardoor de DSA en de AVG gelijktijdig van toepassing zijn. De DSA doet daarbij nadrukkelijk geen afbreuk aan de AVG en is soms zelfs strenger.
Een duidelijk raakvlak tussen de DSA en de AVG is de manier waarop gebruikersdata (voor zover persoonsgegevens) mogen worden verwerkt en ingezet. Op grond van de AVG kunnen gebruikers toestemming (in bepaalde gevallen) geven voor het gebruik van hun gegevens, en de DSA voegt hieraan toe dat gepersonaliseerde advertenties zonder expliciete toestemming niet meer zijn toegestaan. Daarnaast verplicht de DSA platforms om algoritmes transparanter te maken, wat gebruikers meer inzicht geeft in hoe hun online ervaringen worden vormgegeven.
DSA & AI Act: samenhang en verschillen
De DSA en de AI Act reguleren in principe afzonderlijke onderwerpen. De AI Act behandelt voornamelijk AI-technologie, terwijl de DSA tussenhandelingsdiensten en andere aanbieders reguleert. Desondanks vullen de DSA en de AI Act elkaar aan door hun gezamenlijke focus op transparantie en verantwoording rondom het gebruik van AI-systemen. Platformregulering en het gebruik van AI-systemen raken immers steeds meer verweven, zoals wordt erkend in de preambule van de AI Act.
De DSA regelt echter niets op het gebied van het verspreiden van inhoud door AI-systemen. De DSA ziet op de driedeling van mere conduit-, caching- en hostingdiensten. Zelfstandige AI-diensten, zoals generatieve AI die inhoud creëert op basis van gebruikersinput, passen niet in één van deze drie categorieën. Het creëren en verspreiden van inhoud door AI-systemen omvat immers complexere processen die niet (volledig) aan bod komen in de DSA. Wel voorziet de DSA in regels voor platforms die gebruikmaken van geautomatiseerde, op AI gebaseerde (aanbevelings)systemen om bepaalde inhoud onder de aandacht van gebruikers te brengen (artikel 29). De DSA eist uitleg over aanbevelingssystemen en advertenties, zoals hierboven reeds aan bod is gekomen.
De AI Act stelt juist bredere eisen stelt aan risicobeoordeling en gebruikersinformatie. Onder de AI Act moeten gebruikers van AI-systemen die foto’s, geluid en/of videobeelden manipuleren, bijvoorbeeld kenbaar maken dat het daarbij gaat om iets artificially generated or manipulated. Een voorbeeld hiervan is een deep fake. Deep fakes worden, aan de andere kant, in de DSA aangemerkt als risico (artikel 34). VLOPs en VLOSEs moeten dergelijke risico’s mitigeren, waarbij maatregelen onder waarborgen dat “gegenereerd of gemanipuleerd beeld-, audio- of videomateriaal” (zoals deep fakes) worden gemarkeerd als niet authentiek en niet waarheidsgetrouw (artikel 35).
Voor meer informatie over de AI Act wordt verwezen naar onze whitepaper.
Praktische implicaties voor bedrijven
De DSA, in combinatie met de AVG en de AI Act, stelt bedrijven in Nederland en de rest van de EU voor complexe nalevingsuitdagingen. Vooral organisaties die AI-tools ontwikkelen en inzetten, moeten zich voorbereiden op de samenloop van deze regelgevingen. AI speelt immers (ook) een rol binnen de DSA: het biedt enerzijds oplossingen voor inhoudsmoderatie, maar introduceert ook nieuwe handhavingsrisico's. Dit vereist investeringen in hun algoritmische infrastructuur.
Conclusie
De DSA luidt een nieuw tijdperk in van transparantie en verantwoording binnen de digitale wereld. Met regels over algoritmen, advertenties en inhoudsmoderatie biedt de DSA duidelijke kaders voor gebruikersrechten en verantwoordelijkheden voor tussenhandelsdiensten. Tegelijkertijd versterkt de DSA bestaande wetten, zoals de AVG, en bereidt het tussenhandelsdiensten voor op de komst van aanvullende regelgeving, zoals de AI Act.
In het laatste deel van deze reeks, dat op 3 februari verschijnt, wordt dieper ingegaan op de verplichtingen en verantwoordelijkheden van bedrijven rondom inhoudsmoderatie en de aanpak van illegale inhoud onder de DSA.