Applen lapsipornoa poistava käytäntö kerää vastustusta
Apple on hiljattain ottanut käyttöön toimintatavan, jossa se skannaa Apple-laitteiden käyttäjien iCloud-kuvia lapsipornon kitkemiseksi. Järjestelmä on kuitenkin saanut kritiikkiä, vaikka mainittu käyttötarkoitus on tietysti kiitettävä.
Tekoälyn käyttäminen kuvien läpikahlaamiseen ei ole yksityisyysmielessä kovinkaan tervetullut suunnanmuutos yhtiöltä, joka on vannoutunut tietoturvan ja erityisesti yksityisyyden kannattaja. Apple on aiemmin muun muassa jättänyt antamassa takaportit terroristien puhelimiin viranomaisille, sillä perusteella, että Applen laitteiden yksityisyys on tärkeämpää kuin yksittäinen rikostapaus.
Valitettavasti lapsiporno on aiemminkin toiminut tiedostetusti tai tiedostamatta Troijan hevosena muille yksityisyyden loukkauksille ja sensuurille. Suomessa vuosia sitten tällainen toteutui nk. lapsipornolistan sensurointien yhteydessä.
Samankaltaisista ongelmista ovat huolissaan nyt Applen tapauksessa salausammattilaiset, joita yli 6000 on allekirjoittanut avoimen kirjeen Applelle. Tämä saattaa olla kuolinisku end-to-end-salaukselle, jos Apple alkaa tarkastelemaan välistä viestien sisältöä.
Apple on julkaissut kuusisivuisen FAQ-dokumentin, jossa se pyrkii vastaamaan huoliin. Applen mukaan kyseessä on huomattavasti kilpailijoita tietoturvallisempi versio CSAM-tunnistuksesta. Google toi 2018 saataville omaan tekoälyynsä perustuvan CSAM-tunnistusmekanismin.
Apple kertoi, ettei annan esimerkiksi valtioiden valita selattavia kuvia, vaan ne tulevat ainoastaan lastensuojeluun tarkotetusta tietokannasta. Kriitikoiden mukaan kuitenkin on mahdollista, että järjestelmään voisi lain varjolla esimerkiksi Kiina ujuttaa muutakin materiaalia tai pakottaa Applen päästämään hallinnon sisään takaportin avulla.
Järjestelmä otetaan käyttöön automaattisesti järjestlemäpäivityksenä, joka saapuu iPhone-, iPad-, ja Mac-laitteisiin. Samaan aikaan Google on mahdollistanut alaikäisten lasten kuvien poistamisen helpommin Googlen järjestelmistä lasten vanhempien toimesta.
1 KOMMENTTI
lettas1/1
Uutisessa menee vähän puurot ja vellit sekaisin. Hash-pohjainen CSAM-haku tehdään laitteella automaattisesti ja lokaalisti, jos icloud on kytketty päälle. Haussa käytetään keinoälyn sijaan pelkkää tiedostopohjaista vertailua onko kuvatiedosto täysin sama kuin CSAM:n tietokannassa. Jos lapsista on perhealbumissa rantakuvia, niin haku ei löydä niitä sen paremmin kuin kuvia takapihan perennoista.
Samassa yhteydessä Apple kuitenkin julkaisi valinnaisen perhejaon ominaisuuden joka käyttää tekoälyä tunnistamaan lapsen jakamaa alastonta sisältöä ja ilmoittaa siitä sekä lapselle että lapsen vanhemmille. Tämä tieto ei ainakaan Applen mukaan lähde muille tahoille eikä liity mitenkään CSAM-skannaukseen.
Kun nämä ajatukset on kuluttajille myyty, voi olla helpompaa myydä jatkossa ensin samanlainen kikkare terroristien jakamalle materiaalille ja vähän myöhemmin ikävän poliittisen vastustajan kampittamiseen.
TÄMÄN UUTISEN KOMMENTOINTI ON PÄÄTTYNYT