Apple ka qenë e njohur për politikat e saj të sigurisë dhe privatësisë. Por plani i fundit i skanimit të fotove të iPhone ka qenë një alarm në botën e teknologjisë. Apple po planifikon të zbatojë këtë plan për të ndalur rastet në rritje të materialeve të abuzimit seksual të fëmijëve (CASM).
Përmbajtja e qartë seksuale nuk është e pranueshme në shoqëri si moralisht ashtu edhe ligjërisht por trafikimi seksual e ka bërë atë të detyrueshëm. për të ndërmarrë disa hapa të vështirë për kompanitë si Apple. Apple do të skanojë fotot në iPhone dhe do të kuptojë nëse përdoruesi është i përfshirë në seks/trafikim njerëzor dhe kjo masë do të jetë një hap përpara për t'i dhënë fund kësaj të keqeje në shoqëri.
Megjithatë, ky plan i ri i Apple është. shikohet me përbuzje nga përdoruesit e tij pasi përdoruesit janë të shqetësuar për privatësinë e tyre. Ky është padyshim një shkelje e privatësisë ku të dhënat e telefonit tuaj nuk do të jenë të sigurta sepse sistemi i ri i skanimit të fotografive të Apple në iPhone do të ketë informacionin tuaj.
A po skanon Apple fotot tuaja të iPhone? Ja se si skanohet?
Teknologjia e zbulimit CSAM do të jetë e disponueshme me përditësimet e reja të iOS 15, të cilat do të përfshijnë tre veçori për të kontrolluar CASM.
- Veçoria e parë në përditësim do të jetë e disponueshme me përditësimet e reja të iOS 15. të jetë kontrolli prindëror. Kur kjo veçori do të aktivizohet, atëherë ajo do të skanojë fotot në aplikacionin "Mesazhet" në telefonin e fëmijëve dhe nëse zbulohet ndonjë përmbajtje e qartë, atëherë do të dërgohet një njoftim.
- Veçoria e dytë në përditësim do të skanojë fotot. në iCloud për materialet e abuzimit seksual të fëmijëve.
- Veçoria e tretë në përditësim do t'i paralajmërojë përdoruesit kur përdorin Siri ose shiritin e kërkimit në safari për përmbajtje të qartë.
Të gjitha. tre veçori do të ndihmojnë në çrrënjosjen e së keqes CSAM nga shoqëria duke zbuluar dhe shënuar përmbajtje seksualisht eksplicite që përfshijnë fëmijë në një pajisje. CSAM po përhapet si një virus me miliona video dhe imazhe. Me kalimin e kohës, rreth 19000 viktima janë identifikuar nga forcat e zbatimit të ligjit.
Apple tha se veçoritë e saj të reja synojnë "të ndihmojnë në mbrojtjen e fëmijëve nga grabitqarët që përdorin mjete komunikimi për t'i rekrutuar dhe shfrytëzuar, dhe për të kufizuar përhapjen e fëmijëve seksualë). abuzoni me materialin."
Si do të funksionojë kjo veçori?
Teknologjia e zbulimit CSAM të Apple bazohet në një algoritëm të bazuar në kompjuter që do të skanojë iCloudimages dhe më pas do t'i krahasojë ato me kodet e njohura. Imazhet e abuzimit seksual të fëmijëve. Këto kode ruhen në bazën e të dhënave të organizatave të sigurisë së fëmijëve, duke përfshirë Qendrën Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC).
Nëse fotografia përputhet me bazën e të dhënave, atëherë një person do të shqyrtojë imazhin për të parë nëse është CSAM. Nëse fotografia do të përcaktohet se është një CSAM, atëherë llogaria juaj do të mbyllet nga Apple dhe ajo do t'i raportohet organeve të zbatimit të ligjit dhe NCMEC.
A do të bëhet teknologjia e re një kërcënim sigurie?
Me futjen e veçorive të reja në përditësim, Apple me siguri do të përfshijë sigurinë e përdoruesve sepse do të ndikojë në enkriptimin nga skaji në skaj. Kjo veçori skanimi mund të bëhet një shteg për qeverinë, hakerët, punonjësit e vetë Apple që mund të kenë akses të paautorizuar në të dhënat tuaja mund ta përdorin atë për motive personale. Mund të jetë një kërcënim serioz për privatësinë e përdoruesit, sepse të dhëna të tilla të ndjeshme mund të komprometohen nga çdo autoritet dhe mund të çojnë në kolapsin më të madh të privatësisë.
Sipas Hijazi. “Unë besoj se zemra e Apple është në vendin e duhur dhe ajo po përpiqet të bëjë gjënë e duhur këtu, por kjo masë është thjesht shumë e gjerë, sepse sakrifikon privatësinë e të gjithëve në proces”.
A është. ka ndonjë mënyrë për të ndaluar Apple nga skanimi i fotove?
Sipas Hijazi. “Nëse kujdeseni për privatësinë tuaj, duhet të supozoni se çdo pajisje iOS është e ndjeshme ndaj anashkalimeve të kriptimit nga fundi në fund dhe aksesit të plotë të fotografive,” thotë ai. "Nuk ka asgjë të tillë si privatësia në internet ose në ndonjë pajisje të lidhur, dhe ju duhet gjithmonë të supozoni se është kështu dhe të silleni në përputhje me rrethanat."
Epo, ka një rrugëdalje përmes së cilës mund ta ndaloni Apple nga duke skanuar fotot tuaja iCloud dhe mund të mbrojë privatësinë tuaj. Mund të çaktivizoni hapësirën ruajtëse iCloud për fotot tuaja dhe mund të siguroni privatësinë tuaj.
Ndiq hapat për të çaktivizuar fotot iCloud:-
- Zgjidh Cilësimet> Fotografitë
- Çaktivizoni rrëshqitësin e fotografive iCloud
- Zgjidhni Shkarko Fotot dhe Videot në dritaret kërcyese për të shkarkuar fotografitë nga iCloud juaj në pajisje.
Përfundim:-
CSAM është një hap i mirë në parandalimin e abuzimit seksual të fëmijëve, por po, fakti që nuk duhet injoruar është që privatësia zbulohet në këtë mënyrë. Apple mund të kishte ndërmarrë disa hapa të tjerë që nuk cenojnë privatësinë e përdoruesve dhe në të njëjtën kohë, mund të parandalohej abuzimi seksual i fëmijëve.
Megjithatë, nëse një individ është i pastër dhe e di se nuk ka asgjë të keqe në të. të dhënat e tij, atëherë ai nuk duhet të dëgjojë asnjë thashethem dhe mbështetje në kauzën fisnike dhe një hap të ndërmarrë nga Apple. Na ndiqni në rrjetet sociale – .
Lexo: 0