Scannt Apple Ihre iPhone-Fotos? Folgendes müssen Sie wissen:

Scannt Apple Ihre iPhone-Fotos? Folgendes müssen Sie wissen:

Apple ist für seine Sicherheits- und Datenschutzrichtlinien bekannt. Doch der jüngste Plan, iPhone-Fotos zu scannen, löst in der Technologiewelt Alarm aus. Apple plant die Umsetzung dieses Plans, um den steigenden Fällen von Material zum sexuellen Missbrauch von Kindern (CASM) Einhalt zu gebieten.

Sexuell eindeutige Inhalte sind in der Gesellschaft sowohl moralisch als auch rechtlich nicht akzeptabel, aber der Sexhandel hat sie zur Pflicht gemacht einige harte Schritte für Unternehmen wie Apple zu unternehmen. Apple wird Fotos auf dem iPhone scannen und herausfinden, ob der Benutzer in Sex-/Menschenhandel verwickelt ist. Diese Maßnahme wird ein Schritt vorwärts sein, um diesem Übel in der Gesellschaft ein Ende zu setzen.

Dieser neue Plan von Apple ist es jedoch wird von seinen Benutzern herabgewürdigt, da die Benutzer um ihre Privatsphäre besorgt sind. Dies ist zweifellos eine Datenschutzverletzung, bei der die Daten Ihres Telefons nicht sicher sind, da Apples neues Foto-Scansystem auf dem iPhone Ihre Daten erfasst.

Scannt Apple Ihre iPhone-Fotos? So wird gescannt?

Die CSAM-Erkennungstechnologie wird mit den neuen iOS 15-Updates verfügbar sein, die drei Funktionen zur Steuerung von CASM umfassen wird.

Alle Drei Funktionen werden dazu beitragen, das Übel CSAM aus der Gesellschaft zu verbannen, indem sie sexuell eindeutige Inhalte mit Kindern auf einem Gerät erkennen und kennzeichnen. CSAM verbreitet sich wie ein Virus mit Millionen von Videos und Bildern. Im Laufe der Zeit wurden etwa 19.000 Opfer von den Strafverfolgungsbehörden identifiziert.

Apple sagte, dass seine neuen Funktionen darauf abzielen, „Kinder vor Raubtieren zu schützen, die Kommunikationsmittel nutzen, um sie zu rekrutieren und auszubeuten, und die Verbreitung kindlicher Sexualität zu begrenzen.“ Missbrauchsmaterial.“

Wie funktioniert diese Funktion?

Apples CSAM-Erkennungstechnologie basiert auf einem computerbasierten Algorithmus, der iCloud-Bilder scannt und sie dann mit den Codes bekannter Personen vergleicht Bilder von sexuellem Missbrauch von Kindern. Diese Codes werden in der Datenbank von Kindersicherheitsorganisationen gespeichert, einschließlich des National Center for Missing and Exploited Children (NCMEC).

Wenn das Foto mit der Datenbank abgeglichen wird, überprüft eine Person das Bild, um festzustellen, ob es sich um CSAM handelt. Wenn festgestellt wird, dass es sich bei dem Foto um ein CSAM handelt, wird Ihr Konto von Apple geschlossen und es wird den Strafverfolgungsbehörden und dem NCMEC gemeldet.

Wird neue Technologie eine Sicherheitsbedrohung darstellen?

Mit der Einführung neuer Funktionen im Update wird Apple sicherlich die Sicherheit der Benutzer gefährden, da es Auswirkungen auf die Ende-zu-Ende-Verschlüsselung hat. Diese Scanfunktion kann zu einer Lücke für die Regierung werden, Hacker und Mitarbeiter von Apple selbst, die sich unbefugten Zugriff auf Ihre Daten verschaffen können, können sie für persönliche Zwecke nutzen. Dies kann eine ernsthafte Bedrohung für die Privatsphäre des Benutzers darstellen, da solche sensiblen Daten von jeder Behörde kompromittiert werden können und zu einem größeren Zusammenbruch der Privatsphäre führen können.

Laut Hijazi. „Ich glaube, Apple hat das Herz am rechten Fleck und versucht, hier das Richtige zu tun, aber diese Maßnahme ist einfach zu weitreichend, weil sie dabei die Privatsphäre aller opfert.“

Ist Gibt es eine Möglichkeit, Apple daran zu hindern, die Fotos zu scannen?

Laut Hijazi. „Wenn Ihnen Ihre Privatsphäre am Herzen liegt, sollten Sie davon ausgehen, dass jedes iOS-Gerät anfällig für die Umgehung der End-to-End-Verschlüsselung und den vollständigen Zugriff auf Fotos ist“, sagt er. „So etwas wie Privatsphäre gibt es online oder auf einem angeschlossenen Gerät nicht, und Sie sollten immer davon ausgehen, dass dies der Fall ist, und sich entsprechend verhalten.“

Nun, es gibt einen Ausweg, mit dem Sie Apple davon abhalten können Scannen Ihrer iCloud-Fotos und kann Ihre Privatsphäre schützen. Sie können den iCloud-Speicher für Ihre Fotos deaktivieren und so Ihre Privatsphäre schützen.

Folgen Sie den Schritten zum Deaktivieren von iCloud-Fotos:-

Fazit:-

CSAM ist ein guter Schritt zur Verhinderung sexuellen Missbrauchs von Kindern, aber es darf nicht außer Acht gelassen werden, dass die Privatsphäre auf diese Weise preisgegeben wird. Apple hätte einige andere Schritte unternehmen können, die die Privatsphäre der Nutzer nicht verletzen und gleichzeitig sexuellen Missbrauch von Kindern verhindern könnten.

Allerdings, wenn eine Person sauber ist und weiß, dass nichts faul daran ist seine Daten, dann sollte er keine Gerüchte hören und die edle Sache und einen Schritt von Apple unterstützen. Folgen Sie uns in den sozialen Medien – .

Lesen: 0

yodax