Skip to content Skip to sidebar Skip to footer

Apple verschiebt die Funktion, welche auf dem iPhone nach Kinderpornografie sucht

Mit iOS 15 hätte die Funktion eingeführt werden sollen: Apple wollte direkt auf dem iPhone nach „CSAM“ (Child Sexual Abuse Material), kurz gesagt Kinderpornografie, suchen. Jetzt hat Apple bekannt gegeben, dass die Funktion nicht eingeführt wird.

Die Vorgehensweise, hier darüber berichtet, ist eigentlich nicht problematisch. Schwieriger wird es beim Argument, dass diese Suchfunktion nicht auch für andere Zwecke missbraucht werden können.

Apple kann nicht für Privatsphäre werben, dann aber im Hintergrund auf dem iPhone die eigenen Bilder durchforsten.

«Letzten Monat haben wir Pläne für Funktionen angekündigt, die dabei helfen sollen, Kinder vor Kriminellen (‹Predators›) zu schützen, die Kommunikationstools nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken.

Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äusserst wichtigen Funktionen zum Schutz von Kindern freigeben.»

Kommentar hinterlassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.