Scroll down
De verspreiding van afbeeldingen en video's van seksueel misbruik van kinderen is dramatisch toegenomen met de komst van het internet. De digitale omgeving biedt daders vele manieren om kinderen te benaderen voor seksuele doeleinden. De Europese Commissie presenteerde daarom in maart 2022 een wetsvoorstel waarmee zij alle aanbieders van online diensten verplichten om seksueel kindermisbruik actief tegen te gaan.
*1 op de vijf 5 gebruikers van digitale diensten in de EU zijn kinderen.
*In 2021 zijn wereldwijd 85 miljoen afbeeldingen en video’s van kindermisbruik gemeld (62% in EU).
*In Nederland is online kindermisbruik zelfs de meest voorkomende vorm van seksueel geweld onder 16- en 17-jarigen. Naar schatting heeft 28,5% van de meiden en 9,3% van de jongens een vorm van online seksuele intimidatie meegemaakt.
*Bijna 70% slachtoffers van online seksueel kindermisbruik maakt zich voortdurend zorgen over de herkenning door iemand die beelden van hun misbruik heeft gezien, 83% heeft zelfmoordgedachten, 60% deed een poging tot zelfmoord.
Tools om online kindermisbruik op te sporen hebben effect op fundamentele rechten van alle internetgebruikers. Op dit moment bepaalt een social media-platform nog zelf óf en welke maatregelen zij neemt om kindermisbruik tegen te gaan. Het EU-wetsvoorstel zorgt ervoor dat ieder online platform preventieve maatregelen neemt en dat bij het gebruik van detectietools ieders belang zorgvuldig wordt gewogen door onafhankelijke autoriteiten. In een democratie zou de afweging van fundamentele rechten, zoals privacy en bescherming, niet bij bedrijven moeten liggen, maar bij de wetgever en rechters.
Risicobeoordeling + kinderbeschermingsmaatregelen (Safety by Design) waarbij de nadruk ligt op preventie.
Opsporen van bekend beeldmateriaal van kindermisbruik, nieuw beeldmateriaal en/of grooming. Dit gebeurt ALLEEN als het risico op online kindermisbruik groot blijft na preventieve kinderbeschermingsmaatregelen en een rechter of een onafhankelijke nationale instantie dit noodzakelijk acht. Het gebruik van detectietools is voor de duur van 1 of 2 jaar (afhankelijk van impact op gebruikers), waarna de impact op fundamentele rechten opnieuw wordt gewogen.
Melden van gevallen van online kindermisbruik die zij in hun diensten tegenkomen aan het EU-Centrum.
Verwijderen van materiaal van kindermisbruik.
Voorkomen downloaden door kinderen van apps met een hoog risico voor grooming.
Blokkeren van URL’s die online kindermisbruik bevatten en niet in Europa worden gehost.
Het Centrum faciliteert alle inspanningen om online kindermisbruik te voorkomen en te bestrijden:
Voor bedrijven: verstrekken van database met indicatoren en technologieën om online kindermisbruik op te sporen.
Voor wetshandhaving: ontvangt meldingen van de bedrijven en zorgt ervoor dat nationale politiediensten geen valse positieven ontvangen en meldingen de nodige informatie bevatten om te handelen.
Voor nationale autoriteiten: door advies te geven over technische zaken en door te fungeren als kenniscentrum voor preventie en hulp aan slachtoffers.
Voor slachtoffers: proactief opsporen van materiaal van kindermisbruik namens slachtoffers.
Het EU wetsvoorstel gaat over detectie in specifieke gevallen en bepaald door risico. Met het wetsvoorstel is niet gezegd dat al onze teksten en afbeeldingen gescand gaan worden. Online dienstverleners kunnen preventieve maatregelen nemen waardoor detectie niet nodig is. Bovendien kunnen detectietools die nu worden gebruikt en een hoog foutmarge hebben, worden afgewezen. Detectietools voor Nederlandse tekst bestaat (nog) niet. Het wetsvoorstel is toekomstbestendig en zegt dat áls er in de toekomst technologie bestaat die voldoet aan de waarborgen (waaronder encryptie), dat deze gebruikt zouden kunnen worden. Technologische ontwikkelingen gaan immers sneller dan aanpassingen in wetgeving. De kern van het wetsvoorstel is om procedures aan te brengen waarmee fundamentele rechten zorgvuldig worden gewogen door onafhankelijke autoriteiten. Detectietools worden voor 1 of 2 jaar gebruikt (afhankelijk van impact op gebruikers) en dan wordt opnieuw de impact op fundamentele rechten gewogen. Wij denken dat de afweging van fundamentele rechten niet moet worden overgelaten aan bedrijven, maar aan onafhankelijke autoriteiten. Transparantie en regulering is ook in belang van privacy.
Jongeren die vrijwillig online seksueel gedrag uitvoeren met jongeren in dezelfde leeftijdsgroep dienen in alle lidstaten te worden uitgesloten van vervolging. In de praktijk gebeurt dit al, maar het ligt nog niet vast in wetgeving. Dit kan via de herziening van de EU Directive 2011/93/EU in 2023.
Voor minderjarige verdachten/daders zijn jeugdinterventies en herstelgerichte oplossingen nodig die aansluiten bij wat een minderjarige nodig heeft. Hiervoor is een individuele beoordeling nodig, waarbij rekening wordt gehouden met de leeftijd en persoonlijke omstandigheden van de jonge dader. Het recht op een individuele beoordeling is geregeld in het VN-Kinderrechtenverdrag en meerdere EU-Richtlijnen.
Het delen van intieme inhoud vormt altijd een risico voor kinderen en volwassenen, aangezien dit kan leiden tot het later delen zonder goedvinden of voor wraakporno, sextortion, misbruik of uitbuiting. Bijna 30% van de jongeren heeft zoiets meegemaakt. De verplichte preventieve aanpak in het voorstel is nodig om het online delen van dergelijk materiaal te beperken. Waarschuwingssystemen zoals ‘think before sharing' zijn bewezen effectief.