📱 2022-08-13 22:52:15 – Pariz/Francuska.
Prošlo je više od godinu dana otkako je Apple najavio planove za tri nove sigurnosne funkcije djece, uključujući sistem za otkrivanje poznatih slika seksualnog zlostavljanja djece (CSAM) pohranjenih u iCloud fotografijama, opciju zamagljivanja seksualno eksplicitnih fotografija u aplikaciji Messages i iskorištavanje djece resursi za Siri. Ove posljednje dvije funkcije su sada dostupne, ali Apple šuti o svojim CSAM planovima otkrivanja.
Apple je prvobitno rekao da će CSAM detekcija biti implementirana u ažuriranju za iOS 15 i iPadOS 15 do kraja 2021. godine, ali je kompanija na kraju odgodila tu funkciju na osnovu "povratnih informacija kupaca, grupa za zagovaranje, istraživača i drugih".
U septembru 2021., Apple je objavio sljedeće ažuriranje na svojoj stranici o sigurnosti djece:
Ranije smo najavili planove za funkcije koje će pomoći zaštiti djece od grabežljivaca koji koriste komunikacijske alate da ih regrutuju i iskorištavaju i da pomognu u ograničavanju širenja materijala o seksualnom zlostavljanju djece. Na osnovu povratnih informacija od kupaca, grupa za zagovaranje, istraživača i drugih, odlučili smo da odvojimo više vremena u narednih nekoliko mjeseci da prikupimo povratne informacije i napravimo poboljšanja prije nego što pustimo ove funkcije za sigurnost djece od ključne važnosti.
U decembru 2021., Apple je uklonio gore navedeno ažuriranje i sve reference na svoje CSAM planove otkrivanja sa svoje stranice Sigurnost djece, ali je glasnogovornik Applea savjetovao Ivica da se Appleovi planovi za ovu funkciju nisu promijenili. Međutim, prema našim saznanjima, Apple od tada nije javno komentirao planove.
Kontaktirali smo Apple da pitamo da li je ova funkcija još uvijek u planu. Apple nije odmah odgovorio na zahtjev za komentar.
Apple je postigao napredak u implementaciji svojih sigurnosnih funkcija za djecu za aplikaciju Messages i Siri izdavanjem iOS 15.2 i drugih softverskih ažuriranja u decembru 2021. godine, te je proširio funkcionalnost aplikacije. Aplikacija Messages na Australiju, Kanadu, Novi Zeland i UK sa iOS. 15.5 i druga izdanja softvera u maju 2022.
Apple je rekao da je njegov CSAM sistem za detekciju "dizajniran imajući na umu privatnost korisnika". Sistem bi obavljao "usklađivanje na uređaju koristeći bazu podataka poznatih CSAM heševa slika" od organizacija za sigurnost djece, koje bi Apple transformirao u "nečitljiv skup sigurno pohranjenih heševa." sigurnost na korisničkim uređajima.
Apple je planirao prijaviti iCloud račune s poznatim hešovima CSAM slika Nacionalnom centru za nestalu i eksploatisanu djecu (NCMEC), neprofitnoj organizaciji koja radi u suradnji s američkim organima za provođenje zakona. Apple je rekao da će postojati 'prag' koji bi osigurao 'manje od jedne šanse od triliona godišnje' da sistem pogrešno prijavi nalog, kao i ručni pregled naloga koje prijavi čovjek.
Appleove planove kritizirao je širok spektar pojedinaca i organizacija, uključujući istraživače sigurnosti, Electronic Frontier Foundation (EFF), političare, političke grupe, akademske istraživače, pa čak i neke zaposlenike iz Applea.
Neki kritičari su tvrdili da bi Apple-ove funkcije sigurnosti djece mogle stvoriti "backdoor" u uređaje, koje bi vlade ili organi za provođenje zakona mogli koristiti za nadgledanje korisnika. Još jedan problem su bili lažni pozitivni rezultati, uključujući mogućnost da neko namjerno doda CSAM slike na tuđi iCloud nalog kako bi se njihov račun označio.
Napomena: Zbog političke ili društvene prirode rasprave o ovoj temi, nit se može pronaći na našem forumu Političke vijesti. Svi članovi foruma i posetioci sajta su dobrodošli da čitaju i prate temu, ali objavljivanje je ograničeno na članove foruma sa najmanje 100 postova.
IZVOR: Reviews News
Ne ustručavajte se podijeliti naš članak na društvenim mrežama kako biste nam dali solidan poticaj. 📲