Logo newsbot.ch

Wissenschaft

EU-Kommissionsvorschlag zur Chatkontrolle

2022-05-13 09:25:06
newsbot by content-proivder.ch GmbH
Quelle: Science Media Center Deutschland

Die EU-Kommission hat am 11.05.2022 einen Vorschlag für eine Verordnung zum Erkennen und Melden von Darstellungen sexuellen Kindesmissbrauchs vorgestellt (siehe Primärquelle), wie das Science Media Center Deutschland berichtet.

Betroffene Anbieter müssten laut dem Vorschlag Nachrichten, die über ihre Dienste verschickt werden, überprüfen und gegebenenfalls melden – ein Vorgang, der im Kontext dieses Gesetzes auch als Chatkontrolle bekannt wurde.Dabei sollen Nachrichten vor dem Abschicken auf den Endgeräten der Nutzerinnen und Nutzer überprüft werden. Wie genau diese Überprüfung technisch geregelt werden soll, lasse der Gesetzesvorschlag offen.

Da auch noch nicht bekanntes kinderpornografisches Material erkannt werden soll, werde eine Abgleichung mit bekanntem Material nicht ausreichen. Ein System zur Bilderkennung scheint momentan die naheliegendste Lösung.

Darüber hinaus solle auch „Grooming“ – die gezielte Ansprache Minderjähriger durch Erwachsene in der Absicht, diese zu missbrauchen oder pornografisches Material von ihnen zu bekommen – erkannt und gemeldet werden. Dazu wäre wohl eine Art von Texterkennung nötig.

Erkannte potenzielle Treffer sollen dann an zuständige Behörden weitergeleitet werden, um dort von Menschen überprüft zu werden. Ein neu eingeführtes EU Centre on Child Sexual Abuse (EUCSA) solle dabei helfen, die Ziele des Gesetzes zu erreichen und Anbieter sowie Behörden unterstützen.Betroffen von der Verordnung wären laut dem Vorschlag Anbieter von Hosting-Services und Anbieter von Kommunikationsdiensten, wie unter anderem E-Mail und Messenger-Programme.

Insbesondere Messenger wie WhatsApp oder Signal, die Ende-zu-Ende-Verschlüsselung anbieten und daher in der Praxis kaum von Behörden kontrolliert werden könnten, müssten dann vor der Verschlüsselung nach Darstellungen sexuellen Kindesmissbrauchs suchen. Auch große Anbieter wie Meta, Google oder Apple wären wohl betroffen.

Anbieter von Hosting-Services würden durch die Verordnung darüber hinaus auch verpflichtet, entsprechendes Material zu löschen, wenn es auf ihren Servern hochgeladen wurde.Seit knapp einem Jahr gilt in der EU eine Übergangsverordnung [I], die es Anbietern ohne Ende-zu-Ende-Verschlüsselung erlaubt, Nachrichten nach kinderpornografischem Material zu durchsuchen. Vorgeschrieben sei das aber nicht.

Im August 2021 kündigte Apple an, das sogenannte Client-Side-Scanning einzuführen. Dabei sollten Bilder noch auf den Smartphones überprüft werden, indem der Hash-Wert der Bilder – eine Art digitaler Fingerabdruck – mit Hash-Werten von bekanntem kinderpornografischen Material verglichen wird.

Nach lauter Kritik an dem Ansatz habe Apple diese Pläne aber bis auf weiteres verschoben.Der Vorschlag kommt zu einem Zeitpunkt, an dem auch im Zuge der Pandemie die von Behörden entdeckten Fälle von Verbreitung kinderpornografischen Materials weiter zugenommen haben. Im erklärenden Memorandum am Anfang des Gesetzestextes werde daher auch die Dringlichkeit betont.

Auf der anderen Seite habe der Vorschlag schon vor seiner Veröffentlichung viel Kritik einstecken müssen.Kritikerinnen und Kritiker bemängeln, dass die Maßnahmen nicht das tatsächliche Problem adressieren – da Darstellungen sexuellen Kindesmissbrauchs von organisierten Gruppen kaum über die durch dieses Gesetz kontrollierten Wege verbreitet werden. Die Tatsache, dass die automatisierte Überprüfung von Nachrichten nicht auf Basis konkreter Verdachte, sondern potenziell bei allen Bürgerinnen und Bürgern stattfinden soll, sorgte für den Vorwurf der Massenüberwachung und Bedenken, dass solche Möglichkeiten von autoritären Staaten ausgenutzt werden können.

Dass Nachrichten auf dem Gerät überprüft werden sollen, bevor sie verschlüsselt werden können, wurde als Umgehung von Verschlüsselung ebenfalls kritisiert. Auch wurde bemängelt, dass Algorithmen zur automatischen Erkennung von kinderpornografischem Material oft ungenau seien – was am Ende sogar dazu führen könnte, dass Behörden durch falsch positive Meldungen überlastet werden.

Führende Expertinnen und Experten aus den Bereichen der Kryptographie und IT-Sicherheit hatten den Ansatz des Client-Side-Scanning im Oktober letzten Jahres in einem Paper stark kritisiert [II]. Und ein geleaktes Impact Assessment des Gesetzes zog zwar ein eingeschränkt positives Fazit, bemängelte aber, dass die Effizienz und Verhältnismäßigkeit der geforderten Maßnahmen nicht ausreichend gezeigt worden sei [III].Demgegenüber werde im Gesetzesvorschlag betont, dass die Anbieter die technischen Möglichkeiten umsetzen sollen, die die Privatsphäre der Nutzerinnen und Nutzer am wenigsten beeinträchtigen, und dass eine anderweitige Verwendung der Daten verboten ist.

Darüber hinaus würde die Dringlichkeit von Maßnahmen gegen die Verbreitung von kinderpornografischem Material die Bedenken hinsichtlich der Privatsphäre überwiegen. Diesen Standpunkt betonte auch die federführend EU-Innenkommissarin Ylva Johansson in einer Pressekonferenz [IV].Auf die Frage, ob es technische Ansätze gibt, wie auf kinderpornografisches Material geprüft werden könnte, ohne die Sicherheit von Kommunikation aufzuweichen oder Überwachung Vorschub zu leisten: „Es sollen Algorithmen eingesetzt werden, die alle versendeten Nachrichten lesen, interpretieren und dann bestimmte Inhalte melden.

Es gibt dabei technisch überhaupt keine Möglichkeit, das nur auf bestimmte Inhalte wie Grooming oder CSAM (Child sexual abuse material; Anm. d.

Red.) einzuschränken.“„Wenn also ein solches System einmal in Betrieb ist, dann sei es technisch überhaupt kein Problem mehr, dieses auch auf beliebige andere Inhalte zu erweitern. Das könnten dann auch Dinge wie politische Interessen, religiöse Ansichten und so weiter sein.

Das entspreche ziemlich genau der Definition eines Totalüberwachungssystems.“„Wenn man Maschinen erlaubt, ausnahmslos alle gesendeten Nachrichten mitzulesen, dann leistet das einer möglichen Totalüberwachung auf jeden Fall Vorschub. Ich denke es wäre ein großer Fehler, dies zu tun.“„Ich denke, dass es ein sehr wichtiges Ziel ist, Dinge wie CSAM oder Grooming konsequent zu verfolgen und Täter zu ermitteln und zu bestrafen.

Der hier vorgeschlagene technische Ansatz geht jedoch völlig an diesem Ziel vorbei.“„Für Kriminelle sei es trivial, sich der Überwachung zu entziehen. Sie könnten zum Beispiel einfach Dienste aus Ländern nutzen, die sich nicht an diese Regeln halten müssen und daher dieses Scanning nicht umsetzen – wenn es sein muss über VPNs oder Anonymisierungsdienste wie TOR.

Dann sei es praktisch nicht nachweisbar, dass ein solcher Dienst ‚illegal‘ genutzt wird.“„Auch könnte man die übertragenen Nachrichten geschickt zusätzlich codieren oder verschlüsseln, sodass das automatisierte Scanning dies nicht erkennt. Der Nutzen des Ansatzes sei also gering, da man die wirklich Kriminellen damit kaum entdecken wird.“„Die EU-Kommission habe einen relativ umfassenden Ansatz zur Verbesserung der Erkennung, der Löschung und der Strafverfolgung von Kindesmissbrauchsdarstellungen im Internet vorgelegt.

Damit reagiert sie auf die teilweise schwierigen Entdeckungsmöglichkeiten solcher strafrechtlich relevanten Darstellungen. Statistische Erhebungen weisen auf steigende Zahlen von Kindesmissbrauchsdarstellungen im Netz und Cybergrooming-Fälle hin; eine valide Aussage sei hier aber schwierig, weil wir von hohen Dunkelziffern bei gleichzeitig steigender gesellschaftlicher und individueller Aufmerksamkeit ausgehen müssen.“„Jedenfalls habe sich die Verbreitung und Weitergabe von Missbrauchsdarstellungen über geschlossene Foren hinaus zunehmend in Richtung von Cloud-Speicherdiensten und direkten Tauschformen über Instant Messaging-Dienste erweitert.

In den letzten Jahren sei daneben das Phänomen aufgetreten, dass über bildfähige Instant Messenger und verschlüsselte Streamingdienste private Live-Streams mit sexuellen Misshandlungsdarstellungen ‚auf Bestellung‘ in Echtzeit und gegen Bezahlung angeboten werden. Die vorgeschlagene Verordnung versucht, Ansätze zur Eindämmung dieser neueren Distributionsformen in den geltenden Rechtsrahmen einzubeziehen.

Das sei zunächst nachvollziehbar. Die vorgeschlagenen Maßnahmen bergen aber erhebliche Risiken für einen regulatorischen ‚Overspill‘, weisen also deutliche Überschusstendenzen in Richtung geschützter Grund- und Menschenrechte wie Informations- und Kommunikationsfreiheiten und das Recht auf Privatsphäre auf.“„Ein zentraler Aspekt dabei seien Anbieterpflichten zur Durchführung von Risikoabschätzungen.

So sollen die Unternehmen abschätzen beziehungsweise klären, inwieweit ihr Dienst oder Teile davon für Grooming oder die Verbreitung von Missbrauchsdarstellungen von Kindern genutzt werde oder genutzt werden könnten. Wo diese Analyse Risikopotenziale aufdeckt, müssen die Anbieter Vorsorgemaßnahmen etablieren, etwa durch eine restriktivere Inhaltemoderation.

Über das Ergebnis der Risikoabschätzung und die gegebenenfalls eingeführten Gegenmaßnahmen müssen die Unternehmen die zuständige Aufsichtsstelle informieren, die das Verfahren und die Maßnahmen prüft.“„Bei Nachweisen, dass ein Hostinganbieter oder ein Kommunikationsdienst ein signifikantes Risiko für die Verbreitung von Kindesmissbrauch darstellt, könne die nationale Aufsicht eine Aufdeckungs- oder Erfassungsanordnung (‚detection order‘) gegenüber dem Anbieter erlassen. Dadurch werde der Anbieter verpflichtet, Monitoring- und Analyseverfahren zu implementieren, die in der Lage sind, relevantes Material über alle Nutzenden des Angebots hinweg zu identifizieren.

Dies sei die Maßnahme, die derzeit unter dem Stichwort der ‚Chatkontrolle‘ diskutiert wird. Von diesen regelmäßig (teil-)automatisierten Verfahren als relevant eingestufte Informationen müssen vom Anbieter an die nationalen Strafverfolgungsbehörden gemeldet werden.

Für Verfahren, die dabei bereits bekannte Darstellungen anhand von Hashwert-Verfahren eindeutig identifizieren, mag das rechtlich noch verhältnismäßig erscheinen. Wo aber technische Verfahren der Ähnlichkeitserkennung auf bislang unbekannte Inhalte angewandt werden, steigt das Risiko von Fehlalarmen.

Um nicht unschuldige Nutzerinnen und Nutzer an die Ermittlungsbehörden zu melden, muss der Anbieter faktisch jeden nicht hundertprozentig sicheren Alarm kontrollieren. Dafür müsste er bei der Analyse – und spätestens bei der Überprüfung – über die Möglichkeit verfügen, Ende-zu-Ende-verschlüsselte Übertragungen entschlüsseln zu können.

Das stünde im direkten Gegensatz zum Sinn und Zweck der Verschlüsselung.“„Die vorgestellte Verordnung enthält zudem eine recht umfassende Ermächtigung zum Erlass von Netzsperren auf Accessproviderebene. Nach einer gerichtlichen Anordnung wären Accessprovider dazu verpflichtet, Zugriffe auf relevante URLs zu sperren.

Die zu sperrenden URLs werden in einer EU-weiten Datenbank vorgehalten. Wer sich an die deutschen Netzsperrendebatten im Rahmen des von Ursula von der Leyen eingebrachten Zugangserschwerungsgesetzes im Jahr 2010 erinnert fühlt, liegt richtig.

Die Argumente, die damals für und gegen die Eignung von Netzsperren vorgebracht wurden, gelten heute prinzipiell unverändert.“„Der Entwurf enthält zudem Pflichten für App-Stores, mit Blick auf Missbrauchsdarstellungen und Grooming relevante Apps zu identifizieren und Altersverifikationsverfahren bei dem Zugang zu Apps einzuziehen. Dafür reicht es, dass eine App zur böswilligen Ansprache von Kindern geeignet ist.

Wenn dieser Ansatz in der Praxis dazu führt, dass praktisch jeder einigermaßen nutzbare Kommunikationsdienst nur noch für Erwachsene verfügbar ist, weil Kinder angesprochen werden könnten, stellt sich die Frage nach den kinderrechtlichen Ansprüchen auf kommunikative Teilhabe.“„Daneben sieht der Entwurf die Einrichtung eines EU-Zentrums zu Kindesmissbrauch vor, das als zentrale Anlauf-, Unterstützungs- und Koordinationsstelle fungieren soll. Auf nationaler Ebene seien Nationale Koordinierungsstellen zu benennen, die die Vorgaben der Verordnung federführend umsetzen und die die teils über unterschiedlichen Behörden und Institutionen verteilten Kompetenzen und Maßnahmen koordinieren.

Diese Form der klareren Zuständigkeitsverteilung und die Schaffung eines zentralen Hubs auf EU-Ebene sei überfällig.“„Die EU-Verordnung versucht, die vom EuGH aufgestellten Anforderungen zu berücksichtigen, indem sie nur bei begründetem Verdacht, dass ein bestimmter Dienst zur Verbreitung von Missbrauchsdarstellungen genutzt werde oder genutzt werden könnte, den behördlichen Erlass einer Erfassungsanordnung vorsieht. Dadurch werde aber eine ganze Plattform mit gegebenenfalls vielen Millionen Einzelnutzenden zum ‚Verdachtsfall‘, und die Überwachung der dort ausgetauschten Informationen betrifft dann ausnahmslos alle ihre User.

Das hatte der EuGH nicht im Kopf, als er von Überwachungsmaßnahmen bei konkreter Gefahr sprach. Zudem habe das Gericht deutlich gemacht, dass sich Monitoring- und Analyseverfahren stets auf das absolut notwendige Mindestmaß zu beschränken haben.

Davon könne keine Rede mehr sein, wenn Erfassungsanordnungen an alle größeren Hostinganbieter und Kommunikationsdienste ergehen würden. Damit wäre die Individualkommunikation der größeren Teile der EU-Bevölkerung – und darüber hinaus – Gegenstand von in den allermeisten Fällen anlasslosen Überwachungsverfahren.

Die Vorschrift in dieser Form und Breite, auch was die Treff(un)sicherheit der Verfahren angeht, würde einer Kontrolle durch den EuGH eher nicht standhalten.“„Staatliche Stellen sehen sich hier einem grundsätzlichen Dilemma gegenüber. Um relevante Darstellungen – und damit Straftaten – identifizieren zu können, bedürfte es des Zugriffs auf diese Inhalte.

Das sei dem Staat aber mit Blick auf Datenschutz und Privatsphäre bis auf Einzelausnahmen bei konkretem Tatverdacht verwehrt. Es fehlt insoweit an der Möglichkeit, auf großen Diensten die Spreu vom Weizen zu trennen, wobei der Weizen die strafrechtlich relevanten Inhalte sind.

Rein technisch haben die Diensteanbieter den einfachsten Zugriff auf diese Informationen und können entsprechend auch für ihr Angebot an zentraler Stelle Monitoringverfahren vorhalten. Doch die rein technische Möglichkeit der Suche nach einschlägigen Darstellungen, etwa durch systematische Scans, bedeutet nicht, dass dies auch rechtlich zulässig wäre.

Mit dem Verordnungsentwurf sieht es so aus, als versuche die Kommission eine angebotsbezogen anzuordnende Monitoringpflicht auf Seite der Anbieter zu implementieren, die dem Staat selbst verwehrt wäre.“„Träte die Verordnung in dieser Form in Kraft, so muss unabhängig von den Eingriffen in die Menschenrechte vieler unbescholtener Nutzerinnen und Nutzer darauf hingewiesen werden, dass große professionelle Tauschringe und Foren für Missbrauchsdarstellungen davon nicht berührt würden; die hätten und haben sich längst in Ecken des Netzes zurückgezogen, die ihre Entdeckung und Verfolgung ungleich schwieriger machen. Die über große Hosting- und Messaging-Plattformen agierenden Straftäterinnen und Straftäter wären durch die Verordnung in der Tat besser zu ermitteln – wenn sie denn nicht vorher in andere Netzgefilde abwandern.“„Der Vorschlag der EU-Kommission für ein sogenanntes Gesetz zur ‚Chatkontrolle‘ sei als sehr bedenklich einzustufen – sowohl aus Sicht des Datenschutzes wie auch der Cybersicherheit.

Das Gesetzgebungsvorhaben jedoch nur auf die Chatkontrolle zu beziehen, greift zu kurz. So handelt es sich vielmehr um ein Gesamtkonzept, um dem sexuellen Missbrauch von Kindern im Online-Bereich vorzubeugen.

Neben der Inhaltskontrolle von Kommunikation umfasst es auch Maßnahmen wie die Erkennung und Blockade von Datenverkehren. Es findet sich im Gesetzesvorschlag sogar eine Regelung, die mit einer erweiterten Vorratsdatenspeicherung verglichen werden kann, indem Inhaltsdaten für maximal zwölf Monate gespeichert werden können.

Der Vorschlag der EU-Kommission sei mithin sehr weitgehend. Hinzu kommt, dass viele Formulierungen und Befugnisse im Gesetz bewusst vage formuliert, völlig technologieoffen und unbestimmt seien – quasi eine ‚Black Box‘.

Diese können sowohl durch delegierte Rechtsakte, aber auch durch behördliche Leitfäden konkretisiert werden. Es werde außerdem ein sehr breiter Anwendungsbereich eröffnet, sodass sehr viele Dienste betroffen sein werden, sollte die Regelung in dieser Form kommen.

Dazu gehören Hostingdienste, Dienste der Informationsgesellschaft, Internetzugangsdienste sowie Kommunikationsdienste. Im Ergebnis kommen wir durch den weiten Anwendungsbereich des Gesetzes, die unbestimmten Regelungen und die umfassenden behördlichen Befugnisse durch den Gesetzesvorschlag einer Vollüberwachung des digitalen Bürgers deutlich näher, als es bislang jemals der Fall gewesen ist.“„Der Gesetzentwurf enthält aus Sicht der digitalen Bürgerrechte nur äußerst Weniges, was man als positiv bezeichnen kann.

Sinnvoll erscheint sicher die Anordnung eines ‚Risk Assessment‘ und ‚Risk Reporting‘ für bestimmte Online-Dienste, basierend auf den bisherigen Erfahrungen. Dies könne auch noch mit verhältnismäßig geringer Eingriffsintensität in digitale Bürgerrechte durchgeführt werden.

Sinnvoll könne es überdies sein, minderjährige Nutzer von Online-Diensten als potenzielle Opfer von Cybergrooming vorab zu identifizieren – wenngleich nicht klar ist, wie dieses schon seit Jahren bestehende Problem der Altersverifikation im Netz konkret gelöst werden soll. Auch werde der Nutzer über den möglichen Einsatz von Detektionstechnologien im Sinne des Transparenzgrundsatzes informiert, damit er sich darauf einstellen kann, dass die Kommunikation überwacht wird.

Mit Blick aber auf den Umstand, dass vermutlich ein Großteil der Kommunikationsdienste von den Regelungen erfasst sein wird, sei dies nur Makulatur, da sich die allermeisten Bürger damit auf die viel befürchtete Vollüberwachung werden einstellen müssen. Zwar erwähnt der Gesetzentwurf an verschiedenen Stellen die ‚Notwendigkeit‘ und ‚Verhältnismäßigkeit‘ seines Vorgehens, durch das schiere Ausmaß der Überwachungsaktivität treten Erwägungen zur Verhältnismäßigkeit aber letztlich völlig in den Hintergrund.

Besonders negativ: Mit dem in Den Haag gelegenen ‚EU Centre to Prevent and Combat Child Sexual Abuse‘ werde eine neue Supersicherheitsbehörde mit extensiven Datensammelbefugnissen und sehr weitreichenden Datenverarbeitungsbefugnissen geschaffen, deren Mitarbeiter juristische Immunität genießen. Außerdem schreibt das Gesetz vor, dass die neue EU-Behörde die weitreichendsten Rechte in den Mitgliedstaaten besitzen soll, die ihr nach Rechtsvorschriften zuerkannt werden können.“„Der Vorschlag der EU-Kommission sei keineswegs juristisch wasserdicht.

Wir stehen aber in der Überwachungsgesetzgebung politisch immer mehr vor dem Problem, dass eine generelle Gefahr durch den Gesetzgeber mehr und mehr als anlassbezogen gewertet wird. Auf diese Weise werde versucht, eine eigentlich ohne konkreten Anlass erfolgende Massenüberwachung zu legitimieren.

Die Bekämpfung von Kinderpornografie sei da ein Beispiel. Als quasi universeller Legitimationstatbestand gelten aber ebenso die Terrorbekämpfung und die Bekämpfung von gewerbsmäßiger Kriminalität, zum Beispiel der Handel mit Rauschgift.

Es sei mehr als bedauerlich, dass die EU-Kommission in dieser Hinsicht in den letzten Jahren einen deutlichen Sinneswandel vollzogen hat. Früher stand die EU mit Blick auf Digitalisierungsfragen noch als Korrektiv zu nationalstaatlicher Gesetzgebung, indem sie digitale Bürgerrechte befördert und geschützt hat.

Mittlerweile aber sei die Kommission auf den Zug der erstrebten Vollregulierung des digitalen Raums aufgesprungen und schafft geradezu reaktionär immer neue Digitalgesetze mit Eingriffsbefugnissen und zahllosen Pflichten für die Online-Dienste. Manches davon mag vielleicht notwendig sein, vieles aber sei überflüssig und untergräbt digitale Bürgerrechte nachhaltig.

Das Recht auf vertrauliche Kommunikation und auf den Schutz der digitalen Intimsphäre sei essenzieller Bestandteil der Persönlichkeitsentfaltung im digitalen Raum und darf nicht auf diese Weise und in diesem unbestimmten Umfang geopfert werden. Ob der Gesetzesvorschlag im weiteren Gesetzgebungsverfahren aber eine deutliche Abschwächung erfahren wird, sei mehr als fraglich.“„Im besten Fall handelt es sich bei dem Vorschlag der EU-Kommission um einen gut gemeinten Versuch, Straftaten gegen Kinder aufzudecken und zu verhindern, dessen Konsequenzen durch die Kommission aber – wohl aufgrund einer Fehleinschätzung technischer und sozialer Realitäten – völlig verkannt werden.

Im schlechtesten Fall zielt man auf die Erstellung einer umfassenden Überwachungsinfrastruktur ab und schiebt die Bekämpfung von Kinderpornographie und Kontaktaufnahme zu Kindern für sexuelle Zwecke nur vor. Sicher sei aber die Konsequenz: ein Generalverdacht gegen die Nutzer elektronischer Kommunikation, eine Schwächung der IT-Sicherheit in der elektronischen Kommunikation und ein damit einhergehender Vertrauensverlust.“Auf die Frage, welche Ansätze sinnvoll seien und wo noch Verbesserungsbedarf ist: „Sinnvolle Ansätze in dem Vorschlag zu finden, erscheint mir schwierig.

Immerhin: Der Vorschlag sieht den Aufbau einer Agentur zur Bekämpfung von Kindesmissbrauch vor. Es erscheint mir nicht ausgeschlossen, dass eine solche Agentur sinnvolle Koordinierungstätigkeiten durchführen könnte.

Auch verpflichtet der Vorschlag Anbieter von Hosting- und Kommunikationsdiensten zu einer Bewertung des Risikos, inwiefern der Dienst für die Verbreitung von Kinderpornographie beziehungsweise zur Kontaktaufnahme zu Kindern für sexuelle Zwecke genutzt wird. Dieser Grundgedanke erscheint mir auf den ersten Blick plausibel, auch wenn der Anwendungsbereich extrem breit sei und de facto wohl nur bei einem Bruchteil der erfassten Dienste tatsächlich ein nennenswertes Risiko besteht.“„Neben der Debatte um den Eingriff in die Grundrechte der Nutzer sollte man auch die Wirkung auf die Anbieter nicht vergessen.

Durch den extrem breiten Anwendungsbereich werden zahllosen Unternehmen Berichtspflichten auferlegt – und sie müssen sich auch auf die technische Umsetzung vorbereiten. Ein Großkonzern könne das leisten, für kleinere Diensteanbieter werde eine weitere Hürde geschaffen.

Es seien Erleichterungen für kleine Unternehmen vorgesehen, aber der Aufwand bleibt.“Auf die Frage, inwiefern der Vorschlag juristisch wasserdicht ist: „Die Feinheiten der Auslegung von Grundrechten, insbesondere auch auf der europäischen Ebene, seien nicht mein Metier. Aber: Der Vorschlag stellt in der Tat eine anlasslose Überwachung dar, die schon aus rein technischer Sicht nicht annähernd so trennscharf sein kann, wie es der Vorschlag wohl unterstellt.

Über Messenger-Dienste werde Kommunikation wirklich aller Art abgewickelt. Das könne der Austausch mit einer Rechtsanwältin sein, aber auch die private oder intime Kommunikation mit dem Lebensgefährten.

Gerade im letztgenannten Fall sei die Gefahr einer falsch-positiven Meldung meines Erachtens besonders hoch. Um das deutlich zu machen: Wenn ein junger Erwachsener seiner Freundin intime Fotos von sich zusendet, muss er damit rechnen, dass diese aufgrund einer fehlerhaften Erkennung durch den Provider an Behörden weitergeleitet werden.

Wie solle das verhältnismäßig sein?“„Es gibt zwei Möglichkeiten, die meinem Verständnis nach beide durch den Vorschlag verfolgt werden. Entweder man nutzt Ansätze für das Auffinden exakt solcher Inhalte, die bereits nach einer detaillierten Prüfung als rechtswidrig erkannt worden sind.

Exakte Übereinstimmung von Dateien könne technisch recht einfach überprüft werden, es werde keine technisch bedingten falsch-positiven Ergebnisse geben – sondern ‚nur‘ das Risiko, dass Inhalte fehlerhaft oder missbräuchlich gesucht werden.“„Jede minimale Änderung führt dann aber dazu, dass der rechtswidrige Inhalt eben nicht wiedererkannt wird. Ein solcher Ansatz sei also leicht zu umgehen – und richtet dennoch großen Schaden an.“„Oder man versucht, mittels Klassifikationsverfahren – wohl mit Techniken aus der künstlichen Intelligenz – die problematischen Inhalte direkt zu erkennen.

Auch das sei im Kommissionsvorschlag vorgesehen, es solle explizit auch ‚neues‘ Material erkannt werden.“„Nun reden wir aber über vielgenutzte Systeme. Für Whatsapp werde die Zahl von weltweit zwei Milliarden Nutzern angegeben, die 100 Milliarden Nachrichten verschicken – darunter auch mehrere Milliarden Fotos und Videos, fast alle legal.

Werden davon nur 0,01 Prozent fälschlich als illegale Inhalte klassifiziert, reden wir von hunderttausenden solcher falsch-positiven Meldungen von Fotos und Videos jeden Tag, ein erheblicher Anteil davon natürlich auch in der EU. Wie sollen die Behörden damit umgehen? Man habe diese Problematik überall, wo man mit einem Klassifikationsverfahren selbst mit sehr geringem Anteil an falsch positiven Ergebnissen nach – relativ gesehen – sehr seltenen Ereignissen sucht: Selbst unter den detektierten Treffern werde ein Großteil nicht wirklich positiv sein, also kein kinderpornographisches oder anderweitig strafbares Material enthalten.“Dr.

Stephan Dreyer: „Interessenkonflikte liegen nicht vor.“Prof. Doktor Dennis-Kenji Kipker: „Es existieren keine Interessenkonflikte.“Prof.

Doktor Christoph Sorge: „Ich bin Gesellschafter einer Ausgründung (SOLE Software GmbH) meines Lehrstuhls, die eine Plattform zur vertraulichen (Ende-zu-Ende-verschlüsselten) Kommunikation, schwerpunktmäßig zwischen Anwälten und ihren Mandanten, bereitstellt. Es sei denkbar, dass die Ausgründung von den Plänen der Kommission betroffen sein wird.

Ich glaube nicht, dass das meine Statements nennenswert beeinflusst, aber erwähnen muss ich es.“[II] Aberson H et al. (2021): Bugs in our Pockets: The Risks of Client-Side Scanning.

arXiv. Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Experten und Expertinnen begutachtet wurde..

Suche nach Stichworten:

alle EU-Kommissionsvorschlag Chatkontrolle



Newsticker


Generalsekretariat UVEK

WEF Davos: Schweiz und Deutschland im Austausch zu Wirtschafts- und Energiethemen


Kantonspolizei Thurgau

Müllheim: Brand von Dachstock


Kantonspolizei Zürich

Winterthur: Zwei Verletzte nach zwei Auseinandersetzungen


Kantonspolizei Zürich

Winterthur: Mann durch Explosion in Einfamilienhaus schwer verletzt


Kantonspolizei Thurgau

Zihlschlacht: Mit Motorrad gestürzt