La sistemo CSAM de Apple estis trompita, sed la kompanio havas du sekurigilojn

Ĝisdatigo: Apple menciis duan inspektadon de la servilo, kaj profesia komputilvida firmao skizis eblecon pri tio, kion tio povus esti priskribita en "Kiel la dua inspektado povus funkcii" sube.
Post kiam la programistoj inversigis partojn de ĝi, la frua versio de la Apple CSAM-sistemo estis efike trompita por marki senkulpan bildon.Tamen, Apple deklaris, ke ĝi havas pliajn sekurigilojn por malhelpi tion okazi en la reala vivo.
La plej nova evoluo okazis post kiam la algoritmo NeuralHash estis publikigita al la retejo de programistoj de malfermfonteco GitHub, ĉiu povas eksperimenti kun ĝi...
Ĉiuj CSAM-sistemoj funkcias per importado de datumbazo de konataj infanseksmisuzaj materialoj de organizoj kiel ekzemple la National Center for Missing and Exploited Children (NCMEC).La datumbazo estas provizita en formo de hashoj aŭ ciferecaj fingrospuroj de bildoj.
Kvankam la plej multaj teknologiaj gigantoj skanas fotojn alŝutitajn en la nubo, Apple uzas la NeuralHash-algoritmon sur la iPhone de la kliento por generi hashvaloron de la stokita foto, kaj tiam komparas ĝin kun la elŝutita kopio de la CSAM hashvaloro.
Hieraŭ, programisto asertis, ke ĝi inversigis la algoritmon de Apple kaj publikigis la kodon al GitHub - ĉi tiu aserto estis efike konfirmita de Apple.
Ene de kelkaj horoj post kiam GitHib estis liberigita, la esploristoj sukcese uzis la algoritmon por krei intencan falsan pozitivon - du tute malsamajn bildojn, kiuj generis la saman hash-valoron.Ĉi tio estas nomita kolizio.
Por tiaj sistemoj, ĉiam estas risko de kolizioj, ĉar la haŝo estas kompreneble tre simpligita reprezentado de la bildo, sed estas surprize, ke iu povas generi la bildon tiel rapide.
La intenca kolizio ĉi tie estas nur pruvo de koncepto.Programistoj ne havas aliron al la CSAM hash-datumbazo, kiu postulus la kreadon de falsaj pozitivoj en la realtempa sistemo, sed ĝi pruvas, ke kolizio atakoj principe estas relative facilaj.
Apple efike konfirmis, ke la algoritmo estas la bazo de sia propra sistemo, sed diris al la ĉeftabulo, ke ĉi tio ne estas la fina versio.La firmao ankaŭ deklaris ke ĝi neniam intencis reteni ĝin konfidenca.
Apple diris al Motherboard en retpoŝto, ke la versio analizita de la uzanto en GitHub estas senmarka versio, ne la fina versio uzata por iCloud Photo CSAM-detekto.Apple diris, ke ĝi ankaŭ malkaŝis la algoritmon.
"La NeuralHash-algoritmo [...] estas parto de la subskribita operaciumo-kodo [kaj] sekurecaj esploristoj povas kontroli, ke ĝia konduto konformas al la priskribo," skribis Apple-dokumento.
La firmao daŭriĝis por diri, ke ekzistas du pliaj paŝoj: ruli sekundaran (sekretan) kongruan sistemon sur sia propra servilo, kaj mana revizio.
Apple ankaŭ deklaris, ke post kiam uzantoj preterpasas la 30-matĉan sojlon, dua nepublika algoritmo funkcianta sur la serviloj de Apple kontrolos la rezultojn.
"Ĉi tiu sendependa hash estis elektita por malakcepti la eblecon, ke la erara NeuralHash kongruas kun la ĉifrita CSAM-datumbazo sur la aparato pro kontraŭa interfero de ne-CSAM-bildoj kaj superas la kongruan sojlon."
Brad Dwyer de Roboflow trovis manieron facile distingi inter la du bildoj afiŝitaj kiel pruvo de koncepto por kolizio-atako.
Mi scivolas, kiel aspektas ĉi tiuj bildoj en CLIP de simila sed malsama neŭrala trajto eltirilo OpenAI.CLIP funkcias simile al NeuralHash;ĝi prenas bildon kaj uzas neŭralan reton por generi aron de trajtovektoroj kiuj mapas al la enhavo de la bildo.
Sed la reto de OpenAI estas malsama.Ĝi estas ĝenerala modelo, kiu povas mapi inter bildoj kaj teksto.Ĉi tio signifas, ke ni povas uzi ĝin por ĉerpi hom-kompreneblajn bildajn informojn.
Mi kuris la du koliziobildojn supre tra CLIP por vidi ĉu ĝi ankaŭ estis trompita.La mallonga respondo estas: ne.Ĉi tio signifas, ke Apple devus povi apliki duan karakterizan eltiran reton (kiel CLIP) al la detektitaj CSAM-bildoj por determini ĉu ili estas realaj aŭ falsaj.Estas multe pli malfacile generi bildojn, kiuj trompas du retojn samtempe.
Fine, kiel menciite pli frue, la bildoj estas mane reviziitaj por konfirmi, ke ili estas CSAM.
Sekureca esploristo diris, ke la sola reala risko estas, ke ĉiu, kiu volas ĝeni Apple, povus provizi falsajn pozitivojn al homaj recenzistoj.
"Apple efektive desegnis ĉi tiun sistemon, do la hash-funkcio ne bezonas esti sekreta, ĉar la nura afero, kiun vi povas fari kun 'ne-CSAM kiel CSAM', estas ĝeni la respondteamon de Apple per kelkaj rubbildoj ĝis ili efektivigas filtrilojn por forigi. analizo Tiuj rubaĵoj en la dukto estas falsaj pozitivoj, "Nicholas Weaver, altranga esploristo ĉe la Instituto de Internacia Komputado ĉe la Universitato de Kalifornio, Berkeley, diris al Motherboard en interreta babilejo.
Privateco estas problemo de kreskanta zorgo en la hodiaŭa mondo.Sekvu ĉiujn raportojn rilatajn al privateco, sekureco, ktp. en niaj gvidlinioj.
Ben Lovejoy estas brita teknika verkisto kaj EU-redaktisto por 9to5Mac.Li estas konata pro siaj kolumnoj kaj taglibro-artikoloj, esplorante sian sperton kun Apple-produktoj laŭlonge de la tempo por ricevi pli ampleksajn recenzojn.Li ankaŭ verkas romanojn, estas du teknikaj suspensfilmoj, kelkaj mallongaj sciencfikciaj filmoj kaj rom-komedio!


Afiŝtempo: Aŭg-20-2021