U kolovozu 2021. Apple je otkrio svoje planove skeniranja iPhonea za slike seksualnog zlostavljanja djece. Taj je potez izazvao pljesak grupa za zaštitu djece, ali je izazvao zabrinutost stručnjaka za privatnost i sigurnost da bi se ova značajka mogla zloupotrijebiti.

Apple je u početku planirao uključiti tehnologiju skeniranja materijala za seksualno zlostavljanje djece (CSAM) u sustav iOS 15; umjesto toga je na neodređeno vrijeme odgodilo uvođenje značajke radi traženja povratnih informacija prije njezinog punog objavljivanja.

Pa zašto je značajka otkrivanja CSAM -a postala predmet burne rasprave i što je natjeralo Apple da odloži uvođenje?

Čemu služi Appleova funkcija skeniranja fotografija?

Apple je najavio implementaciju značajke skeniranja fotografija u nadi da će se boriti protiv seksualnog zlostavljanja djece. Sve fotografije na uređajima Appleovih korisnika bit će skenirane na sadržaj pedofilije pomoću algoritma "NueralHash" koji je izradio Apple.

Osim toga, svi Apple uređaji koje koriste djeca imali bi sigurnosnu značajku koja će automatski zamagliti slike odraslih ako ih primi dijete, a korisnik bi bio upozoren dvaput ako pokuša otvoriti ih.

instagram viewer

Osim što minimiziraju izloženost sadržaju za odrasle, ako roditelji registriraju uređaje u vlasništvu svoje djece dodatnu sigurnost, roditelji će biti obaviješteni u slučaju da dijete od bilo koga primi eksplicitan sadržaj na liniji.

Čitaj više: Što trebate znati o Appleovoj zaštiti djece

Što se tiče odraslih koji koriste Siri za traženje svega što seksualizira djecu, Siri to neće tražiti i umjesto toga predložiti druge alternative.

Podaci s bilo kojeg uređaja koji sadrže 10 ili više fotografija koje algoritmi smatraju sumnjivim bit će dešifrirani i podvrgnuti ljudskom pregledu.

Ako se pokaže da se te fotografije ili bilo koje druge na uređaju podudaraju s bilo čim iz baze podataka koju pruža Nacionalni centar za nestalu i eksploatiranu djecu, bit će prijavljen vlastima i korisnički račun će biti obustavljen.

Glavni problemi u vezi sa značajkom foto-skeniranja

Značajka otkrivanja CSAM -a pokrenula bi se s lansiranjem iOS -a 15 u rujnu 2021. godine, ali na licu mjesta zbog općeg negodovanja, Apple je odlučio uzeti više vremena za prikupljanje povratnih informacija i poboljšanje toga značajka. Ovdje je Appleova potpuna izjava o kašnjenju:

"Prošli smo mjesec objavili planove za značajke namijenjene zaštiti djece od grabežljivaca koristiti komunikacijske alate za njihovo novačenje i iskorištavanje te ograničiti širenje seksualnog zlostavljanja djece Materijal.

Na temelju povratnih informacija kupaca, zagovaračkih skupina, istraživača i drugih, odlučili smo uzeti dodatno vrijeme narednih mjeseci za prikupljanje inputa i poboljšanja prije objavljivanja ove kritično važne sigurnosti djece značajke ".

Gotovo polovica zabrinutosti vezanih uz Appleovu značajku skeniranja fotografija odnosi se na privatnost; ostali argumenti uključuju vjerojatnu netočnost algoritama i potencijalnu zlouporabu sustava ili njegovih rupa.

Podijelimo ga na četiri dijela.

Potencijalna zlouporaba

Znajući da će svaki materijal koji odgovara dječjoj pornografiji ili poznatim slikama seksualnog zlostavljanja djece uređaj staviti na "sumnjivu" listu, može pokrenuti kibernetičke kriminalce.

Oni mogu namjerno bombardirati osobu neprikladnim sadržajem putem iMessagea, WhatsAppa ili na bilo koji drugi način i suspendirati račun te osobe.

Apple je uvjerio da korisnici mogu podnijeti žalbu u slučaju da su im računi suspendirani zbog nesporazuma.

Insajdersko zlostavljanje

Iako je dizajnirana za dobronamjeran cilj, ova se značajka može pretvoriti u potpunu katastrofu za određene ljude ako njihovi uređaji su registrirani u sustav, sa ili bez njihovog znanja, od strane rodbine zainteresirane za praćenje njihove komunikacije.

Čak i ako se to ne dogodi, Apple je stvorio stražnju stranu kako bi korisničkim podacima učinili dostupnim na kraju dana. Sada je pitanje motivacije i odlučnosti da ljudi pristupe tuđim osobnim podacima.

Povezano: Što su stražnja vrata i čemu služe?

Ne samo da olakšava veliko kršenje privatnosti, već i otvara put uvredljivom, otrovnom ili kontroliranju rođaci, staratelji, prijatelji, ljubavnici, skrbnici i bivši da dodatno napadnu nečiji osobni prostor ili ograniče njihov sloboda.

S jedne strane, namijenjen je borbi protiv seksualnog zlostavljanja djece; s druge strane, može se koristiti za daljnje ovjekovječenje drugih vrsta zlostavljanja.

Državni nadzor

Apple se oduvijek hvalio kao brand koji više čuva privatnost od svojih konkurenata. No, sada bi to moglo ući u sklisku zamku da se moraju ispuniti neprestani zahtjevi transparentnosti podatke o korisnicima od strane vlada.

Sustav koji je stvorio za otkrivanje pedofilijskog sadržaja može se koristiti za otkrivanje bilo kakvog sadržaja na telefonima. To znači da vlade s kultnim mentalitetom mogu nadzirati korisnike na osobnijoj razini ako se dočepaju toga.

Opresivno ili ne, uplitanje vlade u vaš svakodnevni i osobni život može biti uznemirujuće i predstavlja narušavanje vaše privatnosti. Ideja da se trebate brinuti zbog takvih invazija samo ako ste učinili nešto pogrešno je pogrešno razmišljanje i ne uspijeva vidjeti spomenutu sklisku padinu.

Lažni alarmi

Jedna od najvećih briga korištenja algoritama za usklađivanje slika s bazom podataka su lažni alarmi. Algoritmi raspršivanja mogu pogrešno identificirati dvije fotografije kao podudarne čak i kada nisu iste. Ove pogreške, nazvane "sudari", posebno su alarmantne u kontekstu sadržaja o seksualnom zlostavljanju djece.

Istraživači su otkrili nekoliko sudara u "NeuralHash -u" nakon što je Apple najavio da će koristiti algoritam za skeniranje slika. Apple je odgovorio na upite o lažnim alarmima ističući da će rezultat na kraju pregledati čovjek, pa se ljudi ne trebaju brinuti zbog toga.

Je li Appleova CSAM pauza trajna?

Postoje mnoge prednosti i nedostaci Appleove predložene značajke. Svaki od njih je originalan i ima težinu. Još uvijek nije jasno koje bi konkretne promjene Apple mogao uvesti u značajku skeniranja CSAM-a kako bi zadovoljio svoje kritičare.

To bi moglo ograničiti skeniranje na dijeljene iCloud albume umjesto uključivanja uređaja korisnika. Malo je vjerojatno da će Apple potpuno odustati od ovih planova jer tvrtka obično nije sklona odustati od svojih planova.

Međutim, iz široko rasprostranjene reakcije i Appleovog zadržavanja planova jasno je vidljivo da tvrtke bi trebale uključiti istraživačku zajednicu od početka, posebno za neprovjerene tehnologija.

UdioCvrkutE -pošta
Sigurnost na internetu: 50+ savjeta za zaštitu vaše djece na mreži

Djeca su glavna meta internetskih predatora i internetskih nasilnika. Ovi praktični savjeti mogu naučiti roditelje kako ih zaštititi na internetu.

Pročitajte Dalje

Povezane teme
  • Sigurnost
  • IPhone
  • Privatnost pametnog telefona
  • Jabuka
  • Mrežna privatnost
  • Nadzor
O autoru
Fawad Ali (19 objavljenih članaka)

Fawad je inženjer IT -a i komunikacija, ambiciozni poduzetnik i pisac. Ušao je u arenu pisanja sadržaja 2017. godine i od tada je surađivao s dvije agencije za digitalni marketing i brojnim klijentima B2B & B2C. On piše o sigurnosti i tehnologiji u MUO -u, sa ciljem da educira, zabavi i angažira publiku.

Više od Fawada Alija

Pretplatite se na naše obavijesti

Pridružite se našem biltenu za tehničke savjete, recenzije, besplatne e -knjige i ekskluzivne ponude!

Kliknite ovdje za pretplatu