CSAM kerfi Apple var blekkt, en fyrirtækið hefur tvær varnir

Uppfærsla: Apple minntist á aðra skoðun á netþjóninum og faglegt tölvusjónfyrirtæki lýsti möguleika á því hvað þetta gæti verið lýst í „Hvernig önnur skoðun gæti virkað“ hér að neðan.
Eftir að hönnuðir öfugsnúuðu hluta þess hefur fyrri útgáfan af Apple CSAM kerfinu í raun verið blekkt til að merkja saklausa mynd.Hins vegar lýsti Apple því yfir að það hafi frekari öryggisráðstafanir til að koma í veg fyrir að þetta gerist í raunveruleikanum.
Nýjasta þróunin átti sér stað eftir að NeuralHash reikniritið var birt á opinn uppspretta þróunarsíðu GitHub, hver sem er getur gert tilraunir með það ...
Öll CSAM kerfi virka með því að flytja inn gagnagrunn yfir þekkt efni fyrir kynferðisofbeldi gegn börnum frá samtökum eins og National Center for Missing and Exploited Children (NCMEC).Gagnagrunnurinn er útvegaður í formi kjötkássa eða stafrænna fingraföra úr myndum.
Þrátt fyrir að flestir tæknirisar skanna myndir sem hlaðið er upp í skýið, notar Apple NeuralHash reikniritið á iPhone viðskiptavinarins til að búa til kjötkássagildi geymdu myndarinnar og ber það síðan saman við niðurhalað afrit af CSAM kjötkássagildinu.
Í gær fullyrti þróunaraðili að hann hefði öfugsnúið reiknirit Apple og gefið út kóðann til GitHub - þessi fullyrðing var í raun staðfest af Apple.
Innan nokkurra klukkustunda eftir að GitHib var gefinn út, notuðu rannsakendur reikniritið með góðum árangri til að búa til viljandi falska jákvæða - tvær gjörólíkar myndir sem mynduðu sama kjötkássagildi.Þetta er kallað árekstur.
Fyrir slík kerfi er alltaf hætta á árekstrum, því hassið er auðvitað mjög einfölduð framsetning myndarinnar, en það kemur á óvart að einhver geti búið til myndina svona hratt.
Vísvitandi áreksturinn hér er bara sönnun fyrir hugmyndinni.Hönnuðir hafa ekki aðgang að CSAM kjötkássagagnagrunninum, sem myndi krefjast þess að búa til falskar jákvæðar í rauntímakerfinu, en það sannar að árekstrarárásir eru tiltölulega auðveldar í grundvallaratriðum.
Apple staðfesti í raun að reikniritið væri undirstaða eigin kerfis, en sagði móðurborðinu að þetta væri ekki endanleg útgáfa.Fyrirtækið lýsti því einnig yfir að það hefði aldrei ætlað að fara með það sem trúnaðarmál.
Apple sagði móðurborðinu í tölvupósti að útgáfan sem notandinn greindi á GitHub væri almenn útgáfa, ekki endanleg útgáfa sem notuð er fyrir iCloud Photo CSAM uppgötvun.Apple sagði að það hafi einnig birt reikniritið.
„NeuralHash reikniritið [...] er hluti af undirrituðum stýrikerfiskóða [og] öryggisrannsakendur geta sannreynt að hegðun þess samræmist lýsingunni,“ skrifaði Apple skjal.
Fyrirtækið hélt áfram að segja að það væru tvö skref í viðbót: keyra auka (leyndarmál) samsvörunarkerfi á eigin netþjóni og handvirk endurskoðun.
Apple sagði einnig að eftir að notendur fara yfir 30 leikja þröskuldinn mun annað óopinber reiknirit sem keyrir á netþjónum Apple athuga niðurstöðurnar.
„Þetta óháða hass var valið til að hafna þeim möguleika að ranglega NeuralHash passi við dulkóðaða CSAM gagnagrunninn á tækinu vegna andstæðra truflana á myndum sem ekki eru CSAM og fari yfir samsvarandi þröskuld.
Brad Dwyer hjá Roboflow fann leið til að greina auðveldlega á milli myndanna tveggja sem birtar voru sem sönnun fyrir árásarárás.
Ég er forvitinn um hvernig þessar myndir líta út í CLIP af svipuðum en ólíkum taugaeiginleikaútdráttarvél OpenAI.CLIP virkar svipað og NeuralHash;það tekur mynd og notar tauganet til að búa til safn af eiginleikum sem líkjast innihaldi myndarinnar.
En net OpenAI er öðruvísi.Það er almennt líkan sem getur kortlagt á milli mynda og texta.Þetta þýðir að við getum notað það til að draga út mannlega skiljanlegar myndupplýsingar.
Ég keyrði tvær árekstursmyndirnar hér að ofan í gegnum CLIP til að sjá hvort það var líka blekkt.Stutta svarið er: nei.Þetta þýðir að Apple ætti að geta notað annað eiginleikaútdráttarnet (eins og CLIP) á fundnar CSAM myndir til að ákvarða hvort þær séu raunverulegar eða falsaðar.Það er miklu erfiðara að búa til myndir sem blekkja tvö net á sama tíma.
Að lokum, eins og fyrr segir, eru myndirnar skoðaðar handvirkt til að staðfesta að þær séu CSAM.
Öryggisrannsakandi sagði að eina raunverulega hættan væri sú að allir sem vilja ónáða Apple gætu veitt mönnum gagnrýnendum rangar jákvæðar upplýsingar.
„Apple hannaði þetta kerfi í raun og veru, þannig að kjötkássaaðgerðinni þarf ekki að vera leynt, því það eina sem þú getur gert með „non-CSAM sem CSAM“ er að ónáða viðbragðateymi Apple með einhverjum ruslmyndum þar til þeir innleiða síur til að útrýma greining Þetta sorp í leiðslunni er rangt jákvætt,“ sagði Nicholas Weaver, háttsettur rannsóknarmaður við Institute of International Computer Science við háskólann í Kaliforníu, Berkeley, við Motherboard í netspjalli.
Persónuvernd vekur vaxandi áhyggjur í heiminum í dag.Fylgdu öllum skýrslum sem tengjast persónuvernd, öryggi o.s.frv. í leiðbeiningunum okkar.
Ben Lovejoy er breskur tæknirithöfundur og ESB-ritstjóri 9to5Mac.Hann er þekktur fyrir dálka sína og dagbókargreinar, þar sem hann kannar reynslu sína af Apple vörum með tímanum til að fá ítarlegri dóma.Hann skrifar líka skáldsögur, það eru tvær tæknilegar spennumyndir, nokkrar stuttar vísindaskáldsögumyndir og rom-com!


Birtingartími: 20. ágúst 2021