Az Apple CSAM rendszerét becsapták, de a cégnek két biztosítéka van

Frissítés: Az Apple megemlítette a szerver második ellenőrzését, és egy professzionális számítógépes képfeldolgozó cég felvázolta annak lehetőségét, hogy ez mit is jelenthet – az alábbi „Hogyan működhet a második ellenőrzés” című részben.
Miután a fejlesztők visszafejtették egyes részeit, az Apple CSAM rendszer korai verzióját hatékonyan becsapták egy ártatlan kép megjelölésére.Az Apple azonban kijelentette, hogy további biztosítékai vannak annak megakadályozására, hogy ez a való életben megtörténjen.
A legújabb fejlesztés azután történt, hogy a NeuralHash algoritmust közzétették a GitHub nyílt forráskódú fejlesztői weboldalon, bárki kísérletezhet vele…
Minden CSAM-rendszer a gyermekek szexuális zaklatásával kapcsolatos ismert anyagok adatbázisának importálásával működik olyan szervezetektől, mint az Eltűnt és Kizsákmányolt Gyermekek Nemzeti Központja (NCMEC).Az adatbázist kivonatok vagy digitális ujjlenyomatok formájában biztosítjuk a képekből.
Bár a legtöbb technológiai óriás beolvassa a felhőbe feltöltött fényképeket, az Apple a NeuralHash algoritmust használja az ügyfél iPhone-ján, hogy létrehozza a tárolt fénykép hash értékét, majd összehasonlítja azt a CSAM hash értékének letöltött másolatával.
Tegnap egy fejlesztő azt állította, hogy visszafejtette az Apple algoritmusát, és kiadta a kódot a GitHubnak – ezt az állítást az Apple is megerősítette.
A GitHib megjelenése után néhány órával a kutatók sikeresen használták az algoritmust egy szándékos hamis pozitív létrehozására – két teljesen különböző kép, amelyek ugyanazt a hash értéket generálták.Ezt nevezik ütközésnek.
Az ilyen rendszereknél mindig fennáll az ütközés veszélye, mert a hash természetesen a kép nagymértékben leegyszerűsített megjelenítése, de meglepő, hogy valaki ilyen gyorsan tudja generálni a képet.
A szándékos ütközés itt csak a koncepció bizonyítéka.A fejlesztők nem férnek hozzá a CSAM hash adatbázisához, amihez a valós idejű rendszerben valós idejű rendszerben hamis pozitív eredményeket kellene létrehozni, de azt bizonyítja, hogy az ütközési támadások elvileg viszonylag egyszerűek.
Az Apple hatékonyan megerősítette, hogy az algoritmus a saját rendszerének alapja, de közölte az alaplappal, hogy ez nem a végleges verzió.A cég azt is közölte, hogy soha nem szándékozik bizalmasan kezelni.
Az Apple egy e-mailben közölte az alaplappal, hogy a felhasználó által a GitHubon elemzett verzió egy általános verzió, nem pedig az iCloud Photo CSAM észleléséhez használt végleges verzió.Az Apple közölte, hogy az algoritmust is nyilvánosságra hozta.
„A NeuralHash algoritmus [...] része az aláírt operációs rendszer kódjának [és] a biztonsági kutatók ellenőrizhetik, hogy viselkedése megfelel-e a leírásnak” – írta egy Apple dokumentum.
A cég azt mondta, hogy van még két lépés: egy másodlagos (titkos) illesztőrendszer futtatása a saját szerverén, és kézi ellenőrzés.
Az Apple azt is közölte, hogy miután a felhasználók átlépik a 30 egyezéses küszöböt, egy második, az Apple szerverein futó, nem nyilvános algoritmus ellenőrzi az eredményeket.
„Ezt a független hash-t azért választottuk, hogy elutasítsa annak lehetőségét, hogy a hibás NeuralHash megegyezzen az eszközön lévő titkosított CSAM-adatbázissal a nem CSAM-képek ellentétes interferenciája miatt, és meghaladja az egyezési küszöböt.”
Brad Dwyer, a Roboflow munkatársa megtalálta a módját, hogy könnyen különbséget tegyen a két kép között, amelyeket az ütközési támadás bizonyítékaként tettek közzé.
Kíváncsi vagyok, hogyan néznek ki ezek a képek a CLIP-ben egy hasonló, de eltérő neurális funkció-kivonó OpenAI-ról.A CLIP a NeuralHash-hez hasonlóan működik;egy képet vesz, és egy neurális hálózat segítségével olyan jellemzővektor-készletet generál, amely a kép tartalmára vonatkozik.
De az OpenAI hálózata más.Ez egy általános modell, amely képes leképezni a képeket és a szöveget.Ez azt jelenti, hogy felhasználhatjuk az ember számára érthető képinformációk kinyerésére.
A fenti két ütközési képet lefuttattam a CLIP-en keresztül, hátha azt is becsapták.A rövid válasz: nem.Ez azt jelenti, hogy az Apple-nek képesnek kell lennie egy második szolgáltatáskivonó hálózat (például CLIP) alkalmazására az észlelt CSAM-képekre annak megállapítására, hogy azok valódiak vagy hamisak.Sokkal nehezebb olyan képeket generálni, amelyek egyszerre két hálózatot megtévesztenek.
Végül, amint azt korábban említettük, a képeket manuálisan ellenőrzik, hogy megbizonyosodjanak arról, hogy CSAM-nak minősülnek.
Egy biztonsági kutató szerint az egyetlen valós kockázat az, hogy bárki, aki bosszantani akarja az Apple-t, téves pozitív eredményeket adhat az emberi felülvizsgálóknak.
„Valójában az Apple tervezte ezt a rendszert, így a hash funkciót nem kell titokban tartani, mert az egyetlen dolog, amit a „nem CSAM mint CSAM” funkcióval tehetsz, az az, hogy bosszantad az Apple válaszcsapatát néhány ócska képpel, amíg nem alkalmaznak szűrőket a kiküszöbölés érdekében. elemzés A csővezetékben lévő szemét hamis pozitív eredmény” – mondta Nicholas Weaver, a Berkeley-i Kaliforniai Egyetem Nemzetközi Számítástechnikai Intézetének vezető kutatója a Motherboardnak egy online chaten.
Az adatvédelem egyre nagyobb aggodalomra ad okot a mai világban.Kövesse az összes adatvédelemmel, biztonsággal stb. kapcsolatos jelentést irányelveinkben.
Ben Lovejoy brit műszaki író és a 9to5Mac EU-s szerkesztője.Rovatairól és naplócikkeiről ismert, és az Apple-termékekkel kapcsolatos tapasztalatait kutatja, hogy átfogóbb értékeléseket kapjon.Regényeket is ír, van két technikai thriller, néhány sci-fi rövidfilm és egy rom-com!


Feladás időpontja: 2021. augusztus 20