Scroll down
Factcheck: De verspreiding van seksueel kindermisbruik gebeurt op enorme schaal: in 2024 werden bijvoorbeeld bijna 30 miljoen incidenten van online kindermisbruik gemeld bij de Amerikaanse Cybertipline waar de grote (Amerikaanse) social media platforms de misstanden melden. Het is een complex probleem om aan te pakken. Detectie is onderdeel van de aanpak en speelt een cruciale rol. Toen er in 2021 tijdelijk geen detectie meer werd uitgevoerd, daalde het aantal meldingen van online kindermisbruikmateriaal met 46%, terwijl data aantoonde dat de hoeveelheid van dat materiaal juist toenam. Door detectie wordt meer kindermisbruikmateriaal gemeld, opgespoord en verwijderd. Zo zorgen we er ook voor dat de kinderen die het slachtoffer zijn niet telkens opnieuw met hun trauma worden geconfronteerd en telkens opnieuw het slachtoffer worden. De grootste wens van slachtoffers is dat hun materiaal van het internet wordt verwijderd.
Factcheck: Wanneer de verordening wordt aangenomen, betekent dit niet dat de EU al onze berichten leest en afbeeldingen bekijkt. Detectie gebeurt namelijk niet standaard, maar in specifieke gevallen (delen van platform / gebruikers) en is van tijdelijke aard. Het wordt bepaald door het risico. Alléén online platforms met een hóóg risico voor online kindermisbruik kunnen na een rechterlijk toets tijdelijk detectie moeten uitvoeren op delen van hun platform waar het hoge risico zich afspeelt. Bovendien kunnen bedrijven preventieve maatregelen nemen om een detectiebevel te voorkomen. Het is goed om te beseffen dat we offline wel (massa)surveillance accepteren. Zo kunnen bij het instappen in een vliegtuig of het betreden van openbaar gebouw, naast elektronische scans, onze lichamen en kleding worden gefouilleerd en snuffelen honden onze bagage op luchthavens / treinstations.
Factcheck: Detectie van online kindermisbruik is niet hetzelfde als bijvoorbeeld een politietap. De tools kunnen geen berichten lezen of afbeeldingen begrijpen. Het enige waarvoor ze getraind zijn is of iemand strafbaar materiaal verspreid waarop kindermisbruik te zien is. Bovendien worden privéberichten reeds ingelezen door AI-tools, ook in (end-to-end) versleutelde diensten zoals berichtendiensten of e-maildiensten. Zo zijn er tools die berichten scannen om malware en spam te detecteren en linkpreviews te genereren. Op dezelfde manier kan er worden gescand op misbruikmateriaal om te voorkomen dat het (opnieuw) wordt gedeeld. Uit onderzoek blijkt dat ⅔ van de kinderen die online seksueel expliciet materiaal ontvingen, dit gebeurde via privéberichten. Detectietools gericht op privéberichten zijn daarom essentieel.
Het is daarbij goed om te beseffen dat onze papieren post ook wordt gescand. Postkantoren en pakketbezorgers gebruiken verschillende detectoren. Ze kunnen brieven of pakketten openen als een detector reageert op signalen dat iemand hun netwerk probeert te gebruiken om smokkelwaar of andere items te vervoeren die in strijd zijn met servicevoorwaarden van het bedrijf. Zo nemen techbedrijven maatregelen om hun gebruikers veilig te houden en stemmen gebruikers via de algemene voorwaarden toe om kindermisbruik niet te delen en accepteren zij maatregelen die dit voorkomen en bestrijden.
Factcheck: Dat klopt niet. De tools worden zo getraind dat ze onderscheid maken tussen onschuldig en strafbaar materiaal. Het is een AI-tool. Die wordt gevoed met onschuldig materiaal zoals een kind in bad of volwassenenpornografie en leren: dit materiaal is niet strafbaar. Ze worden ook gevoed met misbruikmateriaal dat al bekend is, en leren: dit materiaal is wél strafbaar en moet ‘geflagd’ worden. Op die manier leert de tool welk materiaal onschuldig is en welke niet, en worden foute interpretaties zo veel mogelijk voorkomen. Wanneer er niet wordt ingezoomd op de genitaliën van een kind, zal een naakt kind in bad of op het strand niet als misbruikmateriaal worden geclassificeerd. Bovendien volgt er na het ‘flaggen’ van materiaal door de tool altijd een menselijke controle. Dus mocht er toch een keer een onschuldig beeld verkeerd worden aangemerkt, dan betekent het niet meteen dat de gebruiker strafbaar is. Pas als is gecontroleerd of het daadwerkelijk om strafbaar materiaal van kindermisbruik gaat, kunnen de gegevens worden doorgegeven aan de autoriteiten. Het is zelfs mogelijk om gezichten te vervagen totdat geconstateerd is dat het om strafbaar materiaal gaat, om zo de privacy van de afgebeelde mensen te bewaren.
Factcheck: De technologie die met deze wet ingezet zou kunnen worden, is heel specifiek ontworpen om uitsluitend kindermisbruik te detecteren. De tools scannen alleen op strafbaar materiaal, zoals bekende en onbekende beelden van kindermisbruik. Je kunt het vergelijken met een drugshond die alleen is getraind om drugs te detecteren en niets anders. Voor het opsporen van andere zaken dan kindermisbruik, zouden hele nieuwe instrumenten moeten worden ontwikkeld. De detectietechnologie voor kindermisbruik is niet interessant voor kwaadwillenden, omdat er veel checks & balances en strenge toezichtmechanismen zijn voor verantwoording en transparantie. Detectie voor andere doeleinden, bijvoorbeeld terrorisme, behoeft een nieuw democratisch proces voor ontwikkeling van wetgeving hiervoor.
Factcheck: Uit cijfers van NCMEC blijkt dat op het open web tientallen miljoenen bestanden van kindermisbruik rondgaan. Het dark web is traag en wordt vaak gebruikt om links naar kindermisbruikmateriaal op het open web te delen. Soms wordt kindermisbruikmateriaal bewust vermengd met onschuldige beelden om het ‘in plain sight’ te verbergen. Bovendien wordt kindermisbruikmateriaal ook vervaardigd door grooming en sextortion. Daarbij benaderen daders kinderen op het open web, op de plekken waar zij actief zijn (denk aan sociale mediaplatforms en games) en vragen, verleiden of dwingen zij kinderen om beelden van zichzelf te maken en te delen.
Factcheck: Elk beeldmateriaal van het seksueel misbruiken van een kind is er één teveel. Grote hoeveelheden meldingen is een argument om te innoveren en de middelen te vergroten. Bovendien is data nodig om een beeld te krijgen van het misdrijf. Het op te richten EU-centrum, dat onder de nieuwe wetgeving als expertisecentrum zal functioneren, filtert de meldingen zodat fouten worden voorkomen en alleen relevante informatie de autoriteiten bereikt.
Niet al het materiaal moet worden onderzocht. Geavanceerde tools geven aan wat al is beoordeeld, wat duplicatie is en wanneer een kind al is geïdentificeerd. Dit helpt de politie prioriteren. Doordat het met de verordening verplicht is voor online dienstverleners om preventiemaatregelen te nemen en beeldmateriaal door alle aanbieders in een kort tijdsbestek wordt verwijderd, is te verwachten dat na een toename het aantal zal dalen (zeker van bekend materiaal). Het materiaal is immers substantieel minder makkelijk en langdurig te zien en daarmee minder makkelijk te delen.
Factcheck: Uit onderzoek onder Europese burgers (waaronder Nederlanders) blijkt keer op keer dat er wel degelijk steun is. In 2023 bleek uit de Eurobarometer-enquête dat 96% van de ruim 1.000 bevraagde Nederlanders het belangrijk vindt dat er wetgeving komt om kinderen te beschermen tegen online seksueel misbruik. 82% is voorstander van maatregelen om online dienstverleners te verplichten seksueel misbruik van kinderen online op te sporen, te melden en te verwijderen. Van de Nederlanders vindt dat de opsporing van online kindermisbruik zowel op de openbare publieke online ruimtes zou moeten plaatsvinden (79%), als in direct messaging (78%) en op end-to-end versleutelde platforms (73%). De peiling van ECPAT en NSPCC (2023) met 25.000 respondenten laat eenzelfde beeld zien. Hieruit blijkt dat 81% van de Europese burgers voorstander is van het verplichten van online dienstverleners om seksueel misbruik van kinderen online te detecteren, melden en verwijderen.
Hoewel sommige regeringen, waaronder Nederland, zich tegen de verordening keren, laten deze onderzoeken zien dat Europese en Nederlandse burgers juist massaal vóór zijn.