Apple hat mit seiner Ankündigung, iPhone-Bilder auf kinderpornographische Inhalte zu untersuchen, eine Diskussion ausgelöst. Das war zu erwarten und ist richtig. Doch zuerst: Um was geht es? Zwei Dinge: Werden Fotos in die iCloud hochgeladen, werden die Bilder auf dem Gerät geprüft, das heißt, erstens nicht in der iCloud, in der alle Nutzer ihre Bilder speichern, und zweites nicht alle im Endgerät gespeicherten Bilder. Als zweite Maßnahme zum Schutz von Kindern und Jugendlichen stellt Apple bei iMessage die Erkennung von Nacktbildern bereit, die im Falle einer Erkennung das Bild vom Kind nur noch vernebelt darstellt, vor dem gefährlichen Inhalt warnt und eine Nachricht an die Eltern schickt.

Mit einem Abo weiterlesen
- Zugriff auf alle B+ Inhalte
- Statt 9,99 € für 2,00 € je Monat lesen
- Jederzeit kündbar
Sie haben bereits ein B-Plus? Melden Sie sich an
Doch lieber Print? Hier geht's zum Abo Shop
