Deel III - De Digital Services Act: Inhoudsmoderatie en de balans tussen vrijheid en verantwoordelijkheid

 3 februari 2025 | Blog

Onlineplatforms, zoals Instagram en X, beïnvloeden op verschillende manieren de inhoud (of “content”) die door gebruikers via hun diensten worden weergegeven en gedeeld, onder andere door inhoud onzichtbaar te maken of te verwijderen. Deze praktijk, bekend als ‘inhoudsmoderatie’, zoals bepaald in Artikel 2t DSA, is een opvallend en vaak controversieel onderdeel van platformbeheer. Inhoudsmoderatie heeft ingrijpende gevolgen, vooral voor de vrijheid van meningsuiting, en vormt een strijdtoneel waar platformdiensten, overheden en gebruikers zeggenschap proberen te krijgen over de digitale infrastructuur.

De Digital Services Act (“DSA”) speelt hierin een cruciale rol. De DSA is onderdeel van het bredere Digital Services Act Package en is bedoeld om de onlinemarkt te versterken en duidelijke regels te stellen voor tussenhandelsdiensten zoals videoplatforms, sociale media en online marktplaatsen. In deel I van deze blogreeks bespraken we de basisregels van de DSA en hoe deze bijdragen aan een transparanter en veiliger digitaal ecosysteem. Vervolgens gingen we in deel II dieper in op transparantieverplichtingen en de rol van algoritmes binnen onlineplatforms. In dit derde en laatste deel van onze blogreeks over de DSA komen de verplichtingen op het gebied van inhoudsmoderatie, transparantie en verantwoordelijkheid aan bod.

Verplichtingen en verantwoordelijkheden in het kader van inhoudsmoderatie

Maatregelen en handhaving van schadevolle inhoud

Online platforms laten (uitsluitend) door gebruikers gedeelde inhoud, ook wel user generated content, zien.

Op platforms, zoals Instagram en TikTok, wordt veelal ongewenste of illegale inhoud geplaatst. Illegale inhoud ziet op haatzaaiende uitlatingen, terrorismepropaganda en inbreuken op rechten van intellectuele eigendom. Bij ongewenste inhoud kan worden gedacht aan spam, clickbait, hate speech, desinformatie en schokkende, gewelddadige beelden.

Inhoudsmoderatie is de handhaving van toepasselijke regels door tussenhandelsdiensten, met name onlineplatforms, met betrekking tot de door hun gebruikers gedeelde informatie. Onder ‘handhaving’ valt zowel de detectie c.q. classificatie van schadelijke of illegale inhoud, als het toepassen van maatregelen. Mogelijke maatregelen zijn:

  • de verwijdering daarvan,
  • een shadow ban, waardoor inhoud minder zichtbaar is,
  • down ranking, waardoor inhoud lager wordt gerangschikt,
  • demotie,
  • demonetisatie en
  • accountblokkade, zoals omschreven in Artikel 2t DSA.

Maar ook (i) de beveiliging van informatie met een wachtwoord, (ii) de blokkade van een website of IP-adres, (iii) het onmogelijk maken om inhoud te delen of erop te reageren en (iv) het verstrekken van (NAW-)gegevens zijn vormen van inhoudsmoderatie.

In de DSA zijn diverse maatregelen neergelegd om schadelijke of illegale inhoud te handhaven. Handhaving is zowel proactief en reactief: enerzijds kan ongewenste inhoud door gebruikers worden gemeld, en anderzijds kunnen tussenhandelsdiensten uit eigen beweging optreden tegen bepaalde inhoud. Hostingdiensten worden verplicht om door gebruikers gedane meldingen van illegale inhoud zorgvuldig te behandelen via zogenoemde kennisgevings- en actiemechanismen (“notice-and-action”), zoals voorgeschreven in Artikel 16 DSA. Zodra een hostingdienst overgaat tot het modereren van gemelde inhoud, moet die dienst de beslissing daaromtrent motiveren, conform Artikel 17 DSA. Voor hostingdiensten geldt bij (vermoedens van) ernstige strafbare feiten een verplichting tot melding bij de betrokken autoriteiten, zoals beschreven in Artikel 18 DSA.

Voor platforms gelden aanvullende verplichtingen, nu op platforms inhoud niet enkel wordt opgeslagen maar ook wordt verspreid onder het publiek. Platforms moeten een intern klachtenafhandelingssysteem bieden waarmee kan worden geklaagd tegen inhoudsmoderatiebeslissingen, zoals bepaald in Artikel 20 DSA, en zij moeten meewerken aan  het oplossen van conflicten buiten de rechter om, zoals vereist in Artikel 21 DSA. Platforms moeten bovendien meldingen van aangewezen ‘trusted flaggers’ met prioriteit behandelen, zoals voorgeschreven in Artikel 22 DSA. In ernstige gevallen, zoals bij frequent misbruik, kan een gebruiker tijdelijk worden geschorst, met garanties voor een eerlijk proces, zoals uiteengezet in Artikel 23 DSA.

Voor de grootste platforms en zoekmachines (“VLOPs” en “VLOSEs”) geldt een zwaardere zorgplicht door de verplichtingen om risicobeoordelingen en risicobeperkende maatregelen te treffenin het kader van systeemrisico’s, zoals bepaald in Artikel 34 DSA. Het gaat daarbij om risico’s die de gehele samenleving of economie potentieel schade kunnen toebrengen, zoals de verspreiding van illegale inhoud, de impact op grondrechten, het democratische proces, de volksgezondheid en minderjarigen, zoals verder gespecificeerd in Artikel 35 DSA.

Transparantieverplichtingen met betrekking tot inhoudsmoderatie

Onder de DSA worden platforms verplicht om hun inhoudsmoderatieprocessen transparanter te maken. Dit betekent dat platforms zoals META en YouTube niet alleen moeten aangeven welke inhoud zij modereren, maar ook hun beslissingen moeten motiveren. Nu het verbieden van bepaalde online geplaatste inhoud wegens onjuistheid of misleiding moeilijk te meten is met de vrijheid van meningsuiting, gelden onder de DSA strenge transparantieverplichtingen vereisten over hoe platforms inhoud modereren en aansturen.

Zoals hierboven aan bod kwam, kan inhoud onder de DSA worden aangepakt of verwijderd na een melding of bevel van een bevoegde autoriteit, een klacht van een gebruiker (notice-and-action) of door proactief optreden door de tussenhandelsdienst zelf. Bij een bevel van een bevoegde autoriteit om op een platform geplaatste illegale inhoud aan te pakken, zijn tussenhandelsdiensten verplicht om de autoriteit direct op de hoogte te stellen van de genomen maatregelen, zoals bepaald in Artikel 8 DSA. Deze meldplicht geldt ook bij bevelen tot verstrekking van informatie over specifieke gebruikers, zoals beschreven in Artikel 9 DSA. Om communicatie met autoriteiten te stroomlijnen, moeten tussenhandelsdiensten een centraal contactpunt aanwijzen, zoals vereist in Artikel 10 DSA. Voor tussenhandelsdiensten buiten de Europese Unie (“EU”) geldt de verplichting om een wettelijke vertegenwoordiger binnen de EU aan te stellen, zoals gespecificeerd in Artikel 11 DSA.

De DSA dwingt platforms om niet alleen op incidenten rondom illegale of onrechtmatige inhoud te reageren, maar ook om preventieve maatregelen te treffen. Zo moeten tussenhandelsdiensten in hun algemene voorwaarden duidelijke informatie verstrekken over de beleidsmaatregelen, procedures en instrumenten voor inhoudsmoderatie, waarbij eveneens moet worden vermeld of gebruik wordt gemaakt van algoritmische besluitvorming of menselijke procedures, zoals voorgeschreven in Artikel 12 DSA.

Zodra tussenhandelsdiensten optreden tegen illegale of schadelijke inhoud, hebben gebruikers recht op transparante communicatie daaromtrent en de mogelijkheid om acties aan te vechten. Bovendien moeten tussenhandelsdiensten jaarlijks rapporteren (i) hoeveel bevelen, meldingen en klachten zijn ontvangen, (ii) hoeveel accounts zijn geblokkeerd of verwijderd en (iii) ieder gebruik van geautomatiseerde middelen, zoals bepaald in Artikel 13 AVG. Tussenhandelsdiensten moeten hun motiveringsverklaringen, waarin de redenen achter bepaalde inhoudsmoderatie worden uitgelegd, invoeren in de DSA Transparancy Database.

In het kader van transparantie geldt tot slot dat tussenhandelsdiensten duidelijk moeten communiceren over hoe en welke AI-systemen worden ingezet om schadelijke of illegale inhoud te voorkomen of aan te pakken.

Aansprakelijkheid

Het uitgangspunt van inhoudsmoderatie is beleidsvrijheid voor platforms. Deze vrijheid wordt ingeperkt door fundamentele rechten die een verplichtende rol (denk aan aansprakelijkheid) of een beperkende rol (denk aan zorgplichten) spelen. In het kader van aansprakelijkheid geldt nog steeds het regime uit de Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt op grond waarvan aanbieders van mere conduit-, caching- en hostingdiensten onder bepaalde voorwaarden niet aansprakelijk worden gehouden voor de informatie die zij voor hun gebruikers doorgeven of opslaan. Die voorwaarden zijn afhankelijk van het type dienst. Zo zijn de voorwaarden voor mere conduit-diensten beperkt, terwijl aanbieders van hostingdiensten gelijk actie moeten ondernemen tegen illegale inhoud zodra zij bekend zijn met de aanwezigheid daarvan.

Door de aansprakelijkheidsrisico’s van tussenhandelsdiensten te beperken, wordt voorkomen dat inhoud  uit voorzorg wordt verwijderd in geval van twijfel. Tegelijkertijd worden tussenhandelsdiensten op deze manier niet  onterecht zwaar belast, terwijl slachtoffers van schadelijke of illegale inhoud hun  mogelijkheden om schade te verhalen behouden.

Zoals hierboven reeds aan bod kwam, verplicht de DSA tussenhandelsdiensten om proactief inhoud te modereren. Dit betekent dat zij niet alleen moeten wachten op meldingen, maar ook algoritmische systemen moeten inzetten om bijvoorbeeld deepfakes automatisch te detecteren en te verwijderen voordat ze zich verder verspreiden. De “good samaritan”-clausule beschermt tussenhandelsdiensten die vrijwillig en op eigen initiatief schadelijke of illegale inhoud modereren tegen het verlies van aansprakelijkheidsvrijstellingen, zolang dit zorgvuldig en te goeder trouw gebeurt, zoals beschreven in Artikel 6 DSA. Hiermee wordt voorkomen dat tussenhandelsdiensten worden ontmoedigd om op te treden tegen dergelijke inhoud.

De DSA voert een nieuwe regeling in voor een specifieke subcategorie van aanbieders van hostingdiensten, namelijk onlineplatforms die handelaren de mogelijkheid bieden overeenkomsten op afstand met consumenten te sluiten. Dit zijn B2C (business-to-consumer) onlinemarktplaatsen, zoals Amazon of Bol.com. Als zulke aanbieders bij de consument de indruk wekken dat de informatie of het aangeboden product of de aangeboden dienst van henzelf – en dus niet van de betrokken handelaar – afkomstig is, dan kunnen zij zich in relatie tot consumentrechtelijke aansprakelijkheid niet beroepen op de aansprakelijkheidsvrijstelling voor hostingdiensten. Of sprake is van een dergelijke indruk wordt beoordeeld op basis van de  maatstaaf van een ‘gemiddelde consument’.

De rechtspraak maakt duidelijk dat verplichtingen voor aanbieders om al het dataverkeer te scannen, voor onbepaalde tijd en op eigen kosten, om niet specifiek bepaalde en zelfs toekomstige illegale inhoud te vinden en te blokkeren, niet door de beugel kunnen. Dit werd onderstreept in de zaak HvJ EU 24 november 2011, C-70/10, ECLI:EU:C:2011:711 (Scarlet Extended/SABAM), waarin het Hof oordeelde dat dergelijke algemene en ongerichte verplichtingen in strijd zijn met de Europese wetgeving. Anderzijds is een verplichting tot het opsporen en verwijderen van specifieke, door een rechter als illegale inhoud aangemerkte informatie (en daarmee inhoudelijk overeenstemmende informatie) wel toelaatbaar, zoals bevestigd in de zaak HvJ EU 16 februari 2012, C-360/10, ECLI:EU:C:2012:85 (SABAM/Netlog). Daartussenin blijft echter een aanzienlijk grijs gebied bestaan, waar het soms moeilijk is een helder onderscheid te maken tussen “algemene” en toegestane “speciale” toezichtsverplichtingen, zoals ook werd besproken in HvJ EU 3 oktober 2019, C-18/18, ECLI:EU:C:2019:821 (Facebook Ireland).

Koppeling met intellectueel eigendomsrecht: omgaan met inbreuken op auters- en merkrechten

De DSA legt tussenhandelsdiensten, met name platforms, verplichtingen op met betrekking tot de wijze waarop omgegaan wordt met illegale inhoud. Onder ‘illegale inhoud’ vallen ook inbreuken op intellectuele eigendomsrechten. Dit omvat bijvoorbeeld inbreuken op auteursrechten (het onbevoegde gebruik van auteursrechtelijk beschermd materiaal) en inbreuken merkrechten. Inhoudsmoderatie op platforms gebeurt vaak in het kader van het auteursrecht wanneer het bijvoorbeeld gaat om het zonder toestemming uploaden van muziek en films. Ook namaakproducten worden veelvoudig offline gehaald.  Startpunt is dat tussenhandelsdiensten in dit soort gevallen doorgaans niet aansprakelijk zijn voor de ‘illegale inhoud’ geplaatst of aangeboden door hun gebruikers, zoals bescchreven in Overweging 12 DSA. Vanaf het moment dat zij bewuste controle of kennis van inbreukmakende inhoud hebben kan aansprakelijkheid om de hoek komen kijken, zoals bevestigd in de zaak HvJ EU 22 juni 2021, C-682/18 en C-683/18, ECLI:EU:C:2021:503 (Youtube/Cyando).

Onder de DSA wordt het voor rechthebbenden makkelijker om hun intellectuele eigendomsrechten te handhaven. Hostingdiensten en onlineplatforms moeten namelijk een gemakkelijk meldingsmechanisme bieden waarmee personen of entiteiten hen op de hoogte kunnen stellen van illegale inhoud op hun diensten. Na ontvangst van zo een melding worden tussenhandelsdiensten geacht daadwerkelijk op de hoogte te zijn van het bestaan van de gemelde specifieke inhoud. Als providers op de hoogte worden gesteld van een inbreuk, moeten ze dit zorgvuldig en objectief onderzoeken en daar passende actie op ondernemen.

Daarbij opereren aanbieders van illegale content opereren doorgaans niet onder hun echte naam of en worden geen of valse adressen opgegeven. Verder zijn aanbieders soms gevestigd in landen waar intellectuele eigendomsrechten moeilijk af te dwingen zijn. Via  meldingssystemen kunnen inbreuken makkelijker offline gehaald worden door rechthebbenden. Daarnaast vereist de DSA dat online marktplaatsen zich moeten inspannen om de betrouwbaarheid en volledigheid van de gegevens van hun gebruikers te verifiëren. In geval van een inbreuk zal de rechthebbende dus ook doorgaans eerder in staat zijn om rechtstreeks de inbreukmaker aan te pakken.

Conclusie

De DSA biedt een uitgebreid kader voor de regulering van tussenhandelsdiensten, met een focus op inhoudsmoderatie, aansprakelijkheid en transparantie. De DSA legt tussenhandelsdiensten verplichtingen op om (preventief) op te treden tegen schadelijke of illegale inhoud. Door strengere regelgeving en transparantievereisten beoogt de DSA negatieve gevolgen van dergelijke online geplaatste inhoud te verminderen en gebruikers beter te beschermen.

Onlineplatforms, zoals Instagram en X, beïnvloeden op verschillende manieren de inhoud (of “content”) die door gebruikers via hun diensten worden weergegeven en gedeeld, onder andere door inhoud onzichtbaar te maken of te verwijderen. Deze praktijk, bekend als ‘inhoudsmoderatie’, zoals bepaald in Artikel 2t DSA, is een opvallend en vaak controversieel onderdeel van platformbeheer. Inhoudsmoderatie heeft ingrijpende gevolgen, vooral voor de vrijheid van meningsuiting, en vormt een strijdtoneel waar platformdiensten, overheden en gebruikers zeggenschap proberen te krijgen over de digitale infrastructuur.

De Digital Services Act (“DSA”) speelt hierin een cruciale rol. De DSA is onderdeel van het bredere Digital Services Act Package en is bedoeld om de onlinemarkt te versterken en duidelijke regels te stellen voor tussenhandelsdiensten zoals videoplatforms, sociale media en online marktplaatsen. In deel I van deze blogreeks bespraken we de basisregels van de DSA en hoe deze bijdragen aan een transparanter en veiliger digitaal ecosysteem. Vervolgens gingen we in deel II dieper in op transparantieverplichtingen en de rol van algoritmes binnen onlineplatforms. In dit derde en laatste deel van onze blogreeks over de DSA komen de verplichtingen op het gebied van inhoudsmoderatie, transparantie en verantwoordelijkheid aan bod.

Verplichtingen en verantwoordelijkheden in het kader van inhoudsmoderatie

Maatregelen en handhaving van schadevolle inhoud

Online platforms laten (uitsluitend) door gebruikers gedeelde inhoud, ook wel user generated content, zien.

Op platforms, zoals Instagram en TikTok, wordt veelal ongewenste of illegale inhoud geplaatst. Illegale inhoud ziet op haatzaaiende uitlatingen, terrorismepropaganda en inbreuken op rechten van intellectuele eigendom. Bij ongewenste inhoud kan worden gedacht aan spam, clickbait, hate speech, desinformatie en schokkende, gewelddadige beelden.

Inhoudsmoderatie is de handhaving van toepasselijke regels door tussenhandelsdiensten, met name onlineplatforms, met betrekking tot de door hun gebruikers gedeelde informatie. Onder ‘handhaving’ valt zowel de detectie c.q. classificatie van schadelijke of illegale inhoud, als het toepassen van maatregelen. Mogelijke maatregelen zijn:

  • de verwijdering daarvan,
  • een shadow ban, waardoor inhoud minder zichtbaar is,
  • down ranking, waardoor inhoud lager wordt gerangschikt,
  • demotie,
  • demonetisatie en
  • accountblokkade, zoals omschreven in Artikel 2t DSA.

Maar ook (i) de beveiliging van informatie met een wachtwoord, (ii) de blokkade van een website of IP-adres, (iii) het onmogelijk maken om inhoud te delen of erop te reageren en (iv) het verstrekken van (NAW-)gegevens zijn vormen van inhoudsmoderatie.

In de DSA zijn diverse maatregelen neergelegd om schadelijke of illegale inhoud te handhaven. Handhaving is zowel proactief en reactief: enerzijds kan ongewenste inhoud door gebruikers worden gemeld, en anderzijds kunnen tussenhandelsdiensten uit eigen beweging optreden tegen bepaalde inhoud. Hostingdiensten worden verplicht om door gebruikers gedane meldingen van illegale inhoud zorgvuldig te behandelen via zogenoemde kennisgevings- en actiemechanismen (“notice-and-action”), zoals voorgeschreven in Artikel 16 DSA. Zodra een hostingdienst overgaat tot het modereren van gemelde inhoud, moet die dienst de beslissing daaromtrent motiveren, conform Artikel 17 DSA. Voor hostingdiensten geldt bij (vermoedens van) ernstige strafbare feiten een verplichting tot melding bij de betrokken autoriteiten, zoals beschreven in Artikel 18 DSA.

Voor platforms gelden aanvullende verplichtingen, nu op platforms inhoud niet enkel wordt opgeslagen maar ook wordt verspreid onder het publiek. Platforms moeten een intern klachtenafhandelingssysteem bieden waarmee kan worden geklaagd tegen inhoudsmoderatiebeslissingen, zoals bepaald in Artikel 20 DSA, en zij moeten meewerken aan  het oplossen van conflicten buiten de rechter om, zoals vereist in Artikel 21 DSA. Platforms moeten bovendien meldingen van aangewezen ‘trusted flaggers’ met prioriteit behandelen, zoals voorgeschreven in Artikel 22 DSA. In ernstige gevallen, zoals bij frequent misbruik, kan een gebruiker tijdelijk worden geschorst, met garanties voor een eerlijk proces, zoals uiteengezet in Artikel 23 DSA.

Voor de grootste platforms en zoekmachines (“VLOPs” en “VLOSEs”) geldt een zwaardere zorgplicht door de verplichtingen om risicobeoordelingen en risicobeperkende maatregelen te treffenin het kader van systeemrisico’s, zoals bepaald in Artikel 34 DSA. Het gaat daarbij om risico’s die de gehele samenleving of economie potentieel schade kunnen toebrengen, zoals de verspreiding van illegale inhoud, de impact op grondrechten, het democratische proces, de volksgezondheid en minderjarigen, zoals verder gespecificeerd in Artikel 35 DSA.

Transparantieverplichtingen met betrekking tot inhoudsmoderatie

Onder de DSA worden platforms verplicht om hun inhoudsmoderatieprocessen transparanter te maken. Dit betekent dat platforms zoals META en YouTube niet alleen moeten aangeven welke inhoud zij modereren, maar ook hun beslissingen moeten motiveren. Nu het verbieden van bepaalde online geplaatste inhoud wegens onjuistheid of misleiding moeilijk te meten is met de vrijheid van meningsuiting, gelden onder de DSA strenge transparantieverplichtingen vereisten over hoe platforms inhoud modereren en aansturen.

Zoals hierboven aan bod kwam, kan inhoud onder de DSA worden aangepakt of verwijderd na een melding of bevel van een bevoegde autoriteit, een klacht van een gebruiker (notice-and-action) of door proactief optreden door de tussenhandelsdienst zelf. Bij een bevel van een bevoegde autoriteit om op een platform geplaatste illegale inhoud aan te pakken, zijn tussenhandelsdiensten verplicht om de autoriteit direct op de hoogte te stellen van de genomen maatregelen, zoals bepaald in Artikel 8 DSA. Deze meldplicht geldt ook bij bevelen tot verstrekking van informatie over specifieke gebruikers, zoals beschreven in Artikel 9 DSA. Om communicatie met autoriteiten te stroomlijnen, moeten tussenhandelsdiensten een centraal contactpunt aanwijzen, zoals vereist in Artikel 10 DSA. Voor tussenhandelsdiensten buiten de Europese Unie (“EU”) geldt de verplichting om een wettelijke vertegenwoordiger binnen de EU aan te stellen, zoals gespecificeerd in Artikel 11 DSA.

De DSA dwingt platforms om niet alleen op incidenten rondom illegale of onrechtmatige inhoud te reageren, maar ook om preventieve maatregelen te treffen. Zo moeten tussenhandelsdiensten in hun algemene voorwaarden duidelijke informatie verstrekken over de beleidsmaatregelen, procedures en instrumenten voor inhoudsmoderatie, waarbij eveneens moet worden vermeld of gebruik wordt gemaakt van algoritmische besluitvorming of menselijke procedures, zoals voorgeschreven in Artikel 12 DSA.

Zodra tussenhandelsdiensten optreden tegen illegale of schadelijke inhoud, hebben gebruikers recht op transparante communicatie daaromtrent en de mogelijkheid om acties aan te vechten. Bovendien moeten tussenhandelsdiensten jaarlijks rapporteren (i) hoeveel bevelen, meldingen en klachten zijn ontvangen, (ii) hoeveel accounts zijn geblokkeerd of verwijderd en (iii) ieder gebruik van geautomatiseerde middelen, zoals bepaald in Artikel 13 AVG. Tussenhandelsdiensten moeten hun motiveringsverklaringen, waarin de redenen achter bepaalde inhoudsmoderatie worden uitgelegd, invoeren in de DSA Transparancy Database.

In het kader van transparantie geldt tot slot dat tussenhandelsdiensten duidelijk moeten communiceren over hoe en welke AI-systemen worden ingezet om schadelijke of illegale inhoud te voorkomen of aan te pakken.

Aansprakelijkheid

Het uitgangspunt van inhoudsmoderatie is beleidsvrijheid voor platforms. Deze vrijheid wordt ingeperkt door fundamentele rechten die een verplichtende rol (denk aan aansprakelijkheid) of een beperkende rol (denk aan zorgplichten) spelen. In het kader van aansprakelijkheid geldt nog steeds het regime uit de Richtlijn 2000/31/EG van het Europees Parlement en de Raad van 8 juni 2000 betreffende bepaalde juridische aspecten van de diensten van de informatiemaatschappij, met name de elektronische handel, in de interne markt op grond waarvan aanbieders van mere conduit-, caching- en hostingdiensten onder bepaalde voorwaarden niet aansprakelijk worden gehouden voor de informatie die zij voor hun gebruikers doorgeven of opslaan. Die voorwaarden zijn afhankelijk van het type dienst. Zo zijn de voorwaarden voor mere conduit-diensten beperkt, terwijl aanbieders van hostingdiensten gelijk actie moeten ondernemen tegen illegale inhoud zodra zij bekend zijn met de aanwezigheid daarvan.

Door de aansprakelijkheidsrisico’s van tussenhandelsdiensten te beperken, wordt voorkomen dat inhoud  uit voorzorg wordt verwijderd in geval van twijfel. Tegelijkertijd worden tussenhandelsdiensten op deze manier niet  onterecht zwaar belast, terwijl slachtoffers van schadelijke of illegale inhoud hun  mogelijkheden om schade te verhalen behouden.

Zoals hierboven reeds aan bod kwam, verplicht de DSA tussenhandelsdiensten om proactief inhoud te modereren. Dit betekent dat zij niet alleen moeten wachten op meldingen, maar ook algoritmische systemen moeten inzetten om bijvoorbeeld deepfakes automatisch te detecteren en te verwijderen voordat ze zich verder verspreiden. De “good samaritan”-clausule beschermt tussenhandelsdiensten die vrijwillig en op eigen initiatief schadelijke of illegale inhoud modereren tegen het verlies van aansprakelijkheidsvrijstellingen, zolang dit zorgvuldig en te goeder trouw gebeurt, zoals beschreven in Artikel 6 DSA. Hiermee wordt voorkomen dat tussenhandelsdiensten worden ontmoedigd om op te treden tegen dergelijke inhoud.

De DSA voert een nieuwe regeling in voor een specifieke subcategorie van aanbieders van hostingdiensten, namelijk onlineplatforms die handelaren de mogelijkheid bieden overeenkomsten op afstand met consumenten te sluiten. Dit zijn B2C (business-to-consumer) onlinemarktplaatsen, zoals Amazon of Bol.com. Als zulke aanbieders bij de consument de indruk wekken dat de informatie of het aangeboden product of de aangeboden dienst van henzelf – en dus niet van de betrokken handelaar – afkomstig is, dan kunnen zij zich in relatie tot consumentrechtelijke aansprakelijkheid niet beroepen op de aansprakelijkheidsvrijstelling voor hostingdiensten. Of sprake is van een dergelijke indruk wordt beoordeeld op basis van de  maatstaaf van een ‘gemiddelde consument’.

De rechtspraak maakt duidelijk dat verplichtingen voor aanbieders om al het dataverkeer te scannen, voor onbepaalde tijd en op eigen kosten, om niet specifiek bepaalde en zelfs toekomstige illegale inhoud te vinden en te blokkeren, niet door de beugel kunnen. Dit werd onderstreept in de zaak HvJ EU 24 november 2011, C-70/10, ECLI:EU:C:2011:711 (Scarlet Extended/SABAM), waarin het Hof oordeelde dat dergelijke algemene en ongerichte verplichtingen in strijd zijn met de Europese wetgeving. Anderzijds is een verplichting tot het opsporen en verwijderen van specifieke, door een rechter als illegale inhoud aangemerkte informatie (en daarmee inhoudelijk overeenstemmende informatie) wel toelaatbaar, zoals bevestigd in de zaak HvJ EU 16 februari 2012, C-360/10, ECLI:EU:C:2012:85 (SABAM/Netlog). Daartussenin blijft echter een aanzienlijk grijs gebied bestaan, waar het soms moeilijk is een helder onderscheid te maken tussen “algemene” en toegestane “speciale” toezichtsverplichtingen, zoals ook werd besproken in HvJ EU 3 oktober 2019, C-18/18, ECLI:EU:C:2019:821 (Facebook Ireland).

Koppeling met intellectueel eigendomsrecht: omgaan met inbreuken op auters- en merkrechten

De DSA legt tussenhandelsdiensten, met name platforms, verplichtingen op met betrekking tot de wijze waarop omgegaan wordt met illegale inhoud. Onder ‘illegale inhoud’ vallen ook inbreuken op intellectuele eigendomsrechten. Dit omvat bijvoorbeeld inbreuken op auteursrechten (het onbevoegde gebruik van auteursrechtelijk beschermd materiaal) en inbreuken merkrechten. Inhoudsmoderatie op platforms gebeurt vaak in het kader van het auteursrecht wanneer het bijvoorbeeld gaat om het zonder toestemming uploaden van muziek en films. Ook namaakproducten worden veelvoudig offline gehaald.  Startpunt is dat tussenhandelsdiensten in dit soort gevallen doorgaans niet aansprakelijk zijn voor de ‘illegale inhoud’ geplaatst of aangeboden door hun gebruikers, zoals bescchreven in Overweging 12 DSA. Vanaf het moment dat zij bewuste controle of kennis van inbreukmakende inhoud hebben kan aansprakelijkheid om de hoek komen kijken, zoals bevestigd in de zaak HvJ EU 22 juni 2021, C-682/18 en C-683/18, ECLI:EU:C:2021:503 (Youtube/Cyando).

Onder de DSA wordt het voor rechthebbenden makkelijker om hun intellectuele eigendomsrechten te handhaven. Hostingdiensten en onlineplatforms moeten namelijk een gemakkelijk meldingsmechanisme bieden waarmee personen of entiteiten hen op de hoogte kunnen stellen van illegale inhoud op hun diensten. Na ontvangst van zo een melding worden tussenhandelsdiensten geacht daadwerkelijk op de hoogte te zijn van het bestaan van de gemelde specifieke inhoud. Als providers op de hoogte worden gesteld van een inbreuk, moeten ze dit zorgvuldig en objectief onderzoeken en daar passende actie op ondernemen.

Daarbij opereren aanbieders van illegale content opereren doorgaans niet onder hun echte naam of en worden geen of valse adressen opgegeven. Verder zijn aanbieders soms gevestigd in landen waar intellectuele eigendomsrechten moeilijk af te dwingen zijn. Via  meldingssystemen kunnen inbreuken makkelijker offline gehaald worden door rechthebbenden. Daarnaast vereist de DSA dat online marktplaatsen zich moeten inspannen om de betrouwbaarheid en volledigheid van de gegevens van hun gebruikers te verifiëren. In geval van een inbreuk zal de rechthebbende dus ook doorgaans eerder in staat zijn om rechtstreeks de inbreukmaker aan te pakken.

Conclusie

De DSA biedt een uitgebreid kader voor de regulering van tussenhandelsdiensten, met een focus op inhoudsmoderatie, aansprakelijkheid en transparantie. De DSA legt tussenhandelsdiensten verplichtingen op om (preventief) op te treden tegen schadelijke of illegale inhoud. Door strengere regelgeving en transparantievereisten beoogt de DSA negatieve gevolgen van dergelijke online geplaatste inhoud te verminderen en gebruikers beter te beschermen.