Ideja da novi iOS ima ugrađenu mogućnost putem koje bi Apple mogao da pretražuje fotografije i upoređuje ih sa onima iz baza podataka o iskorišćavanju i maltretiranju dece mnogima nije dobro seo. Protiv njega su istupili sami korisnici, ali i aktivisti za zaštitu privatnosti, brojni analitičari i komentatori, pa je cela priča o zaštiti dece od iskorišćavanja za pornografiju ili zlostavljanja pala u drugi plan.
Podsetimo, Apple je najavio kako će u narednim mesecima, nadogradnjom svojih operativnih sistema, omogućiti da se privatne fotografije sa iCloud-a putem hash vrednosti upoređuju sa sadržajima u bazama podataka koje vode udruženja za zaštitu dece. Na ovaj bi se način, uz više stepena provere i nekoliko nivoa zaštite privatnosti, tragalo za ilegalnim sadržajima koje bi se prijavljivalo policiji.
Ali, jasno je da "njuškanje" po iCloud-u i fotografijama nije dobro odjeknulo u javnosti. Mnogi kritičari smatraju da je to prvi korak prema mogućnosti da se i razni drugi sadržaji aktivno traže na korisničkim iCloud nalozima, a to, pak, može imati nesagledive posledice po privatnost svih korisnika. Apple je nakon prvih kritika najavljivao kao degradacije kvaliteta enkripcije i zaštite privatnosti neće biti, ali i da će odbijati sve eventualne zahteve vlada i istražnih tela da svoj program zaštite dece prošire na traganje za bilo kakvim drugim sadržajima.
Pokazalo se da to nije bilo dovoljno, jer je odluka proteklih nedelja i dalje bila predmet oštrih kritika – pa je Apple povukao jedini logičan potez. Na svojim su stranicama, na kojima se najavljivala kontroverzna funkcija zaštite dece, dodali napomenu. U njoj stoji kako ranije najavljeni planovi, kojima je isključivi cilj bio zaštititi decu od online predatora, iskorišćavanja i zlostavljanja, neće biti aktivirani kada je bilo najavljeno.
U skladu s, kako kažu, povratnim informacijama od korisnika, aktivista, istraživača i drugih, odlučili su da sebi daju još malo vremena. U narednim mesecima će prikupiti sve potrebne podatke i raditi na poboljšanjima sistema za zaštitu dece, pre nego ga puste u upotrebu. Od plana, čini se, ipak nisu potpuno odustali te ga i dalje nazivaju "kritično važnim".
Apple delays rollout of its child safety features, including the CSAM detection system https://t.co/CJx4RRRLmC pic.twitter.com/70zXP42XlW
— iDownloadBlog (@iDownloadBlog) September 3, 2021
Postavi komentar
Vaš komentar: