„Apple“ CSAM sistema buvo apgauta, tačiau įmonė turi dvi apsaugos priemones

Atnaujinimas: „Apple“ paminėjo antrąjį serverio patikrinimą, o profesionali kompiuterinės vizijos įmonė apibūdino galimybę, ką tai galėtų būti aprašyta toliau pateiktame skyriuje „Kaip gali veikti antrasis patikrinimas“.
Po to, kai kūrėjai apgręžė jos dalis, ankstyvoji „Apple CSAM“ sistemos versija buvo veiksmingai apgauta, siekiant pažymėti nekaltą vaizdą.Tačiau „Apple“ pareiškė, kad turi papildomų apsaugos priemonių, kad taip nenutiktų realiame gyvenime.
Naujausia plėtra įvyko po to, kai NeuralHash algoritmas buvo paskelbtas atvirojo kodo kūrėjų svetainėje GitHub, kiekvienas gali eksperimentuoti su juo…
Visos CSAM sistemos veikia importuodamos žinomos vaikų seksualinės prievartos medžiagos duomenų bazę iš tokių organizacijų kaip Nacionalinis dingusių ir išnaudojamų vaikų centras (NCMEC).Duomenų bazė pateikiama maišos arba skaitmeninių pirštų atspaudų iš vaizdų pavidalu.
Nors dauguma technologijų gigantų nuskaito į debesį įkeltas nuotraukas, „Apple“ kliento „iPhone“ naudoja „NeuralHash“ algoritmą, kad sukurtų saugomos nuotraukos maišos vertę, o tada palygina ją su atsisiųsta CSAM maišos vertės kopija.
Vakar kūrėjas teigė, kad apgręžė „Apple“ algoritmą ir išleido kodą „GitHub“ – šį teiginį veiksmingai patvirtino „Apple“.
Praėjus kelioms valandoms po GitHib išleidimo, mokslininkai sėkmingai panaudojo algoritmą, kad sukurtų tyčinį klaidingą teigiamą rezultatą – du visiškai skirtingus vaizdus, ​​sugeneravusius tą pačią maišos vertę.Tai vadinama susidūrimu.
Tokiose sistemose visada yra susidūrimų rizika, nes maiša, žinoma, yra labai supaprastintas vaizdo vaizdas, tačiau stebina, kad kažkas gali taip greitai sugeneruoti vaizdą.
Sąmoningas susidūrimas čia yra tik koncepcijos įrodymas.Kūrėjai neturi prieigos prie CSAM maišos duomenų bazės, dėl kurios realaus laiko sistemoje reikėtų sukurti klaidingus teigiamus duomenis, tačiau tai įrodo, kad susidūrimo atakos iš esmės yra gana lengvos.
„Apple“ veiksmingai patvirtino, kad algoritmas yra jos pačios sistemos pagrindas, tačiau pagrindinei plokštei pasakė, kad tai nėra galutinė versija.Bendrovė taip pat pareiškė, kad ji niekada neketino laikyti jos konfidencialumo.
„Apple“ el. laiške „Motherboard“ nurodė, kad „GitHub“ naudotojo išanalizuota versija yra bendra versija, o ne galutinė versija, naudojama „iCloud Photo CSAM“ aptikimui.„Apple“ teigė, kad taip pat atskleidė algoritmą.
„NeuralHash algoritmas [...] yra pasirašyto operacinės sistemos kodo dalis [ir] saugumo tyrinėtojai gali patikrinti, ar jo elgesys atitinka aprašymą“, – rašoma Apple dokumente.
Bendrovė toliau teigė, kad yra dar du žingsniai: antrinės (slaptos) atitikimo sistemos paleidimas savo serveryje ir rankinė peržiūra.
„Apple“ taip pat pareiškė, kad naudotojams peržengus 30 rungtynių slenkstį, antrasis neviešas algoritmas, veikiantis „Apple“ serveriuose, patikrins rezultatus.
„Ši nepriklausoma maiša buvo pasirinkta siekiant atmesti galimybę, kad klaidingas „NeuralHash“ atitiktų šifruotą CSAM duomenų bazę įrenginyje dėl ne CSAM vaizdų priešingų trukdžių ir viršytų atitikimo slenkstį.
Bradas Dwyeris iš Roboflow rado būdą, kaip lengvai atskirti du vaizdus, ​​paskelbtus kaip susidūrimo atakos koncepcijos įrodymą.
Man įdomu, kaip šie vaizdai atrodo panašaus, bet kitokio neuronų funkcijų ekstraktoriaus OpenAI CLIP.CLIP veikia panašiai kaip NeuralHash;jis paima vaizdą ir naudoja neuroninį tinklą, kad sukurtų funkcijų vektorių rinkinį, susietą su vaizdo turiniu.
Tačiau OpenAI tinklas skiriasi.Tai bendras modelis, galintis susieti vaizdus su tekstu.Tai reiškia, kad galime jį naudoti norėdami išgauti žmogui suprantamą vaizdo informaciją.
Paleidau du aukščiau esančius susidūrimo vaizdus per CLIP, kad pažiūrėčiau, ar jis taip pat buvo suklaidintas.Trumpas atsakymas yra: ne.Tai reiškia, kad „Apple“ turėtų galėti pritaikyti antrą funkcijų ištraukimo tinklą (pvz., CLIP) aptiktiems CSAM vaizdams, kad nustatytų, ar jie tikri, ar netikri.Daug sunkiau generuoti vaizdus, ​​kurie vienu metu apgauna du tinklus.
Galiausiai, kaip minėta anksčiau, vaizdai peržiūrimi rankiniu būdu, siekiant patvirtinti, kad jie yra CSAM.
Saugumo tyrinėtojas teigė, kad vienintelė reali rizika yra ta, kad kiekvienas, norintis suerzinti „Apple“, gali pateikti klaidingus teigiamus duomenis žmonėms, atliekantiems apžvalgas.
"Apple iš tikrųjų sukūrė šią sistemą, todėl maišos funkcijos nereikia laikyti paslaptyje, nes vienintelis dalykas, kurį galite padaryti naudodami "ne CSAM kaip CSAM", yra erzinti Apple reagavimo komandą kai kuriais nepageidaujamais vaizdais, kol jie įdiegs filtrus, kad pašalintų. analizė Tos dujotiekyje esančios šiukšlės yra klaidingai teigiamos“, – internetiniame pokalbyje „Motherboard“ sakė Nicholas Weaveris, Kalifornijos universiteto Tarptautinio kompiuterių mokslo instituto vyresnysis mokslo darbuotojas Berklyje.
Šiuolaikiniame pasaulyje privatumas kelia vis didesnį susirūpinimą.Vadovaukitės visomis mūsų gairėse pateiktomis ataskaitomis, susijusiomis su privatumu, sauga ir kt.
Benas Lovejoy yra britų techninis rašytojas ir ES 9to5Mac redaktorius.Jis yra žinomas dėl savo stulpelių ir dienoraščio straipsnių, tyrinėjantis savo patirtį su Apple produktais laikui bėgant, kad gautų išsamesnes apžvalgas.Jis taip pat rašo romanus, yra du techniniai trileriai, keli trumpi mokslinės fantastikos filmai ir romanas!


Paskelbimo laikas: 2021-08-20