mboost-dp1

Shutterstock

Apple vil scanne for billeder af børnemisbrug på iPhones og iCloud

- Via The Verge -

Apple planlægger at scanne billeder gemt på iPhones og iCloud for billeder af børnemisbrug. Det nye system kan hjælpe retshåndhævelse i efterforskninger, men det kan samtidig føre til øgede juridiske og statslige krav til brugerdata.

Det skriver The Verge via the Financial Times.

Systemet kaldes “neuralMatch” og fungerer som en proaktiv advarselslampe, der advarer et team af specialister, hvis det har opdaget ulovlige billeder på Apples produkter. Dernæst vil politiet blive kontaktet, hvis billeder bekræftes som værende ulovlige af teamet.

neuralMatch, som er blevet trænet i at scanne billeder ved hjælp 200.000 billeder fra National Center for Missing & Exploited Children, udrulles i USA som udgangspunkt. Systemet vil granske billeder gemt på iPhones og iCloud og sammenligne dem med billeder af børnemisbrug fra databasen.

Ifølge the Financial Times bliver hvert foto, som uploades til iCloud i USA, stemplet med et ‘sikkerhedsbevis’, der afgør, hvorvidt fotoet er mistænkt eller ej. Hvis et bestemt antal fotos markeres som ‘mistænkt’, vil Apple dekryptere disse billeder og – hvis der er tale om noget ulovligt – videregive dem til politiet.

Apple kontrollerer allerede iCloud-filer for børnemisbrug, ligesom det gør sig gældende hos andre cloud-udbydere. Men neuralMatch vil gå skridtet videre og give adgang til local storage hos brugere af Apples produkter.

Professor på John Hopkins University og kryptograf, Matthew Green, rejste bekymring over systemet på Twitter i onsdags. “Et værktøj som dette kan være en velsignelse, når det kommer til at opspore børnepornografi i folks telefoner,” skrev Green. “Men forestil dig, hvad det kunne gøre i hænderne på en autoritær regering?”





Gå til bund
Gravatar #1 - Ni
6. aug. 2021 11:49
Jeg går ikke ind for børneporno, men jeg går heller ikke ind for overvågning. Hvad bliver det næste, der 'lige' skal scannes for?
Gravatar #2 - Vanvittig
6. aug. 2021 12:03
I Danmark har vi en kultur, hvor det er ret normalt at tage små børn med på stranden og lade dem bade i bar numse. Dette fotograferer forældre gerne. Når de lander i USA, kommer der et SWAT-team fra FBI og smider forældrene i jorden, fordi Apples algoritmer har erklæret dem pædofile.
Gravatar #3 - T_A
6. aug. 2021 12:12
Fedt at vide et hold af "specialister" sidde og kigge private billeder igennem hver gang AI finder et billede den tror kunne være af en mindreårig.

Hvis systemet "bare" lavede scan/match med kendte ulovlige billeder i omløb på telefonerne var det noget andet.
Men at den selv skal lære at spore hvad der er nøgenbilleder af f.eks. en på 15 og 18 årig og så sender det til en gruppe folk som skal kigge det igennem har jeg noget svært ved at se er lovligt.
Gravatar #4 - DrHouseDK
6. aug. 2021 12:15
Vanvittig (2) skrev:
I Danmark har vi en kultur, hvor det er ret normalt at tage små børn med på stranden og lade dem bade i bar numse. Dette fotograferer forældre gerne. Når de lander i USA, kommer der et SWAT-team fra FBI og smider forældrene i jorden, fordi Apples algoritmer har erklæret dem pædofile.

Som jeg læser artiklen, sammenlignes hashes med kendte problematiske billeder - så de vurderer ikke dine private, unikke fotos.

T_A (3) skrev:
Hvis systemet "bare" lavede scan/match med kendte ulovlige billeder i omløb på telefonerne var det noget andet.

"Systemet vil granske billeder gemt på iPhones og iCloud og sammenligne dem med billeder af børnemisbrug fra databasen."

Som jeg læser d.o. er det netop hvad der sker. :)
Gravatar #5 - T_A
6. aug. 2021 13:13
#4

Ahh ja i artiklen er det bedre beskrevet og lader som om den kun tjekker mod kendte billeder.

Det er fra ovenstående uddrag hvor det lød som om den skulle finde dem selv.
"neuralMatch, som er blevet trænet i at scanne billeder ved hjælp 200.000 billeder fra National Center for Missing & Exploited Children, udrulles i USA som udgangspunkt."
Der er jo ikke meget grund til at "træne" deres neural AI, hvis den bare skal sammenligne hashes eller andre værdier, som kun vil fremkomme i det originale billede.
Gravatar #6 - brostenen
6. aug. 2021 13:48
Børnemisbrug... Gad vide om de mener alt misbrug af børn, herunder børnearbejde.
Gravatar #7 - Nize
7. aug. 2021 13:31
En præcision, som IT pressen med fordel kunne belyse.

Det giver mulighed for at angive ting der skal flagges. Punktum. Det kan bruges til alt.

Hvem har noget fra noget upopulært politisk, hvem har noget fra noget kontroversielt revolutionært, hvem har noget omkring seksualitet, hvem har noget om forkert idealogi, osv.

Børneporno er blot stråmanden man bruger, fordi man så kan møde modstandere med spørgsmålet om de de er for børneporno.
Gravatar #8 - Wiking
7. aug. 2021 14:10
De skriver også at det kan og vil blive udvidet, så det ikke kun er HASH de scanner og rapporterer.

Jeg er klart imod overvågning, alt slags.
Og det her er at drive det for vidt.
Gravatar #9 - AppleSheep
7. aug. 2021 18:01
Jeg har godt nok en køn 11 årig datter, som jeg vil ofre mit eget liv for at passe på. Men det Apple gør her, syntes jeg, er direkte uhyggeligt. Det er jo overvågningssamfundet løftet et niveau op.

Jeg kan ikke forestille mig at den slags vil blive lovligt i EU - specielt fordi det er NSA/USA der kommer til at snuse i EU borgers privatliv.

Vi ved allerede at mikrofonen bliver brugt til digitale assistenter og målrettede reklamer på Facebook. Nu kikker de så også med i ens billeder på iCLoud og telefonen (og enda måske også Macs)?
Nu bliver det hele godt nok styret af AI, men tvivl ikke på, at der sidder rigtig mange mennesker bagved systemet, og holder øje med, om systemet køre korrekt samt verificere det produkt AI smider ud i den anden ende.

Nu er vores mikrofoner of billedbibliotek åbnet op. Hvad bliver det næste? Man kan jo snart ikke blive mere blottet.

Nej tak herfra, og jeg håber EU vil holde NSA og Apple på afstand.
Gravatar #10 - wkdskz
8. aug. 2021 10:37
God ide, jeg er for det, men kan godt se folk er hurtige til at blive forargede eller helt misforstå systemet og påstå at danskere der har billeder af deres børn ender i problemer pga da, det var da det dummeste jeg længe har hørt, men det er nok også intelligens niveauet på den gennemsnitlige læser.

Men om i er for det eller ej så er fremtiden total overvågning, og jeg syntes det er helt fint, giver mig en følelse af sikkerhed, hvad det får jer andre til at føle er helt op til jer, og helt op til jer at håndtere det for sådan set fremtiden ud.
Gravatar #11 - larsp
8. aug. 2021 11:01
#10 ang. overvågning generelt. Ja, hvis man lever et snorlige og ubemærkelsesværdigt liv og ikke gør eller ytrer noget der kan støde nogen er overvågning ikke noget problem.

Hvis du aldrig er kommet til at sige en joke i en brandert der kunne blive betragtet som stødende, jamen så lad da smartphonen optage alt du siger og giv transkriptionen til myndigheder, venner og kommende arbejdsgivere :) Send også lige listen over lægemidler du har købt de sidste 5 år. Medicinsk cannabis? Spændende!
Gravatar #12 - nwinther
9. aug. 2021 07:51
De har sgu da kigget med længe.

Det her er ren damage control, fordi der lige om lidt ville være kommet et leak om, at de kigger i dine billeder.

Nu lancerer de det som en anti-pædofili-feature, i stedet for en overvågningsskandale.
Gravatar #13 - ToFFo
9. aug. 2021 08:03
T_A (3) skrev:
Hvis systemet "bare" lavede scan/match med kendte ulovlige billeder i omløb på telefonerne var det noget andet.

"Systemet vil granske billeder gemt på iPhones og iCloud og sammenligne dem med billeder af børnemisbrug fra databasen."

Som jeg læser d.o. er det netop hvad der sker. :) [/quote]

Så de ligger inde med en database over den slags, som de sammenligner med? Det er fucked up xD
Gravatar #14 - kriss3d
9. aug. 2021 12:47
Ni (1) skrev:
Jeg går ikke ind for børneporno, men jeg går heller ikke ind for overvågning. Hvad bliver det næste, der 'lige' skal scannes for?


"Wont someone please think of the children!".

Og derfor fik vi BP filteret fordi ingen tør stille sig op og tale imod det. For hvis man gør er man jo selv en af dem.

Men vi skulle da også lige have ulovlig medicin ind under for det er jo forbudt. Og det er spil sider også. Og musik og pirat tjenester og......

Og resten er historie.


Jeg har set listen over blokerede sider. Den er lang og dels bliver der ikke checket på om de stadig indeholder det de blev spærret for. Men det er meget lidt af det der ud fra URL giver nogen indikation af BP og næsten det hele er alt muligt andet så som musik, pirat tjenester. Medicin osv.
Gravatar #15 - Wiking
9. aug. 2021 19:03
wkdskz (10) skrev:
God ide, jeg er for det, men kan godt se folk er hurtige til at blive forargede eller helt misforstå systemet og påstå at danskere der har billeder af deres børn ender i problemer pga da, det var da det dummeste jeg længe har hørt, men det er nok også intelligens niveauet på den gennemsnitlige læser.

Men om i er for det eller ej så er fremtiden total overvågning, og jeg syntes det er helt fint, giver mig en følelse af sikkerhed, hvad det får jer andre til at føle er helt op til jer, og helt op til jer at håndtere det for sådan set fremtiden ud.


Så har du ikke forstået pointen.
Det starter med A og slutter med Z.
Gravatar #16 - Claus Jørgensen
10. aug. 2021 09:18
Man kan se ikke så mange herinde har sat sig ind i problematikken.

1. Det er kun hvis du har iCloud aktiveret
2. iCloud scanner allerede alle dine billeder, det har været et lovkrav i USA og EU i et årti
3. Hvis du har iCloud aktiveret bliver dine billeder jo allerede automatisk uploadet -- og derfor scannet.

Alle image hosting sider scanner allerede alle dine uploadede billeder for børneporno. Google, Microsoft, Imgur, you name it.
Gravatar #17 - Claus Jørgensen
10. aug. 2021 09:25
AppleSheep (9) skrev:
Jeg kan ikke forestille mig at den slags vil blive lovligt i EU - specielt fordi det er NSA/USA der kommer til at snuse i EU borgers privatliv.
EU er ikke meget bedre

Se bla. https://en.wikipedia.org/wiki/Directive_on_Copyrig...

Og https://en.wikipedia.org/wiki/Electronic_Commerce_...

Og https://en.wikipedia.org/wiki/Digital_Services_Act...
Gravatar #18 - CableCat
10. aug. 2021 10:17
#16 Det er et stort skifte i privacy, da det er dine private fotos og videoer der bliver scannet. Altså det er ikke ting du har delt offenligt.

Det er så at sige en masseransagning af alle iPhones, og det undre mig at det kan være lovligt.

Det skal nok være effektivt i starten, indtil forbyderne tilpasser sig. Derefter kan systemet danne præcedens for at scanne efter andre ting "vi ikke kan li".
Gravatar #19 - Claus Jørgensen
10. aug. 2021 12:54
#18

Du forstår det vist stadigvæk ikke. DE SCANNER DEM ALLEREDE NÅR DU UPLOADER DEM TIL ICLOUD

Gravatar #20 - AppleSheep
10. aug. 2021 13:21
#18

De rensager ikke iPhones men "kun" de billeder der ligger på alle iCloud konti. Så man kan bare slå iCloud Foto backup fra, og man kan har sin børneporno i fred igen.
Gravatar #21 - CableCat
10. aug. 2021 16:27
#19,#20 Nej, Apple scanner ikke dine photos på iCould. De er gemt krypteret der. Med iOS 15 vil foto blive scanneret lokalt på bruges enhed, og hvis der er nok matches, vil Apple få nøglen til at dekryptere de berørte billeder.

Brugeren vil ikke blive informeret om hvilke billeder der matcher. Men Apple vil infomere myndighederne.
Gravatar #22 - iCBM
10. aug. 2021 17:06
AppleSheep (9) skrev:
Jeg har godt nok en køn 11 årig datter, som jeg vil ofre mit eget liv for at passe på. Men det Apple gør her, syntes jeg, er direkte uhyggeligt. Det er jo overvågningssamfundet løftet et niveau op.

Jeg kan ikke forestille mig at den slags vil blive lovligt i EU - specielt fordi det er NSA/USA der kommer til at snuse i EU borgers privatliv.

Vi ved allerede at mikrofonen bliver brugt til digitale assistenter og målrettede reklamer på Facebook. Nu kikker de så også med i ens billeder på iCLoud og telefonen (og enda måske også Macs)?
Nu bliver det hele godt nok styret af AI, men tvivl ikke på, at der sidder rigtig mange mennesker bagved systemet, og holder øje med, om systemet køre korrekt samt verificere det produkt AI smider ud i den anden ende.

Nu er vores mikrofoner of billedbibliotek åbnet op. Hvad bliver det næste? Man kan jo snart ikke blive mere blottet.

Nej tak herfra, og jeg håber EU vil holde NSA og Apple på afstand.

det kommer til danmark

dont worry about that

vore danske politikere er omend endnu mere overvågnings-big-brother-magt liderlige end de amerikanske

vores tidligere og nuværende ministre vil tigge apple om at denne feature rulles ud i danmark

de vil...tigge... apple om det

tag søren pind som eksempel, han var totalt ude af kontrol med hans stådreng hver gang nogen hviskede ordet politistat i øret på ham

Gravatar #23 - AppleSheep
10. aug. 2021 17:37
iCBM (22) skrev:
AppleSheep (9) skrev:
Jeg har godt nok en køn 11 årig datter, som jeg vil ofre mit eget liv for at passe på. Men det Apple gør her, syntes jeg, er direkte uhyggeligt. Det er jo overvågningssamfundet løftet et niveau op.

Jeg kan ikke forestille mig at den slags vil blive lovligt i EU - specielt fordi det er NSA/USA der kommer til at snuse i EU borgers privatliv.

Vi ved allerede at mikrofonen bliver brugt til digitale assistenter og målrettede reklamer på Facebook. Nu kikker de så også med i ens billeder på iCLoud og telefonen (og enda måske også Macs)?
Nu bliver det hele godt nok styret af AI, men tvivl ikke på, at der sidder rigtig mange mennesker bagved systemet, og holder øje med, om systemet køre korrekt samt verificere det produkt AI smider ud i den anden ende.

Nu er vores mikrofoner of billedbibliotek åbnet op. Hvad bliver det næste? Man kan jo snart ikke blive mere blottet.

Nej tak herfra, og jeg håber EU vil holde NSA og Apple på afstand.

det kommer til danmark

dont worry about that

vore danske politikere er omend endnu mere overvågnings-big-brother-magt liderlige end de amerikanske

vores tidligere og nuværende ministre vil tigge apple om at denne feature rulles ud i danmark

de vil...tigge... apple om det

tag søren pind som eksempel, han var totalt ude af kontrol med hans stådreng hver gang nogen hviskede ordet politistat i øret på ham



Heheh.. ok... velkommen tilbage CBM :D
Gravatar #24 - iCBM
10. aug. 2021 17:39
AppleSheep (23) skrev:
iCBM (22) skrev:
AppleSheep (9) skrev:
Jeg har godt nok en køn 11 årig datter, som jeg vil ofre mit eget liv for at passe på. Men det Apple gør her, syntes jeg, er direkte uhyggeligt. Det er jo overvågningssamfundet løftet et niveau op.

Jeg kan ikke forestille mig at den slags vil blive lovligt i EU - specielt fordi det er NSA/USA der kommer til at snuse i EU borgers privatliv.

Vi ved allerede at mikrofonen bliver brugt til digitale assistenter og målrettede reklamer på Facebook. Nu kikker de så også med i ens billeder på iCLoud og telefonen (og enda måske også Macs)?
Nu bliver det hele godt nok styret af AI, men tvivl ikke på, at der sidder rigtig mange mennesker bagved systemet, og holder øje med, om systemet køre korrekt samt verificere det produkt AI smider ud i den anden ende.

Nu er vores mikrofoner of billedbibliotek åbnet op. Hvad bliver det næste? Man kan jo snart ikke blive mere blottet.

Nej tak herfra, og jeg håber EU vil holde NSA og Apple på afstand.

det kommer til danmark

dont worry about that

vore danske politikere er omend endnu mere overvågnings-big-brother-magt liderlige end de amerikanske

vores tidligere og nuværende ministre vil tigge apple om at denne feature rulles ud i danmark

de vil...tigge... apple om det

tag søren pind som eksempel, han var totalt ude af kontrol med hans stådreng hver gang nogen hviskede ordet politistat i øret på ham



Heheh.. ok... velkommen tilbage CBM :D

shit

jeg er genkendt
Gravatar #25 - Claus Jørgensen
10. aug. 2021 19:05
CableCat (21) skrev:
#19,#20 Nej, Apple scanner ikke dine photos på iCould. De er gemt krypteret der.
Jo de gør. Det er et lovkrav at skanne alle uploadede billeder.

Og iCloud er ikke mere krypteret end Google Photos eller OneDrive.
Gravatar #26 - AppleSheep
10. aug. 2021 21:14
Louis Rossmann some læser det igennem online for os.



Gravatar #27 - iCBM
11. aug. 2021 05:17
det viser blot at apple og deres privacy claims hele tiden var et stort hoax
Gravatar #28 - Brunkage
11. aug. 2021 13:20
Her er lige et virkende link til Financial times artikel:

https://webcache.googleusercontent.com/search?q=ca...
Gravatar #29 - Wiking
13. aug. 2021 21:09
Det er lige præcist ikke kun din sky tjeneste, men din personlige enhed.
Det er forkasteligt.
Gravatar #30 - brostenen
15. aug. 2021 09:48
Jeg tror heller ikke dem som virkelig udøver overgreb på børn, ville benytte deres telefon til sådan noget. De bruger vist helt andet udstyr, for ikke at blive snuppet.
Gravatar #31 - nwinther
16. aug. 2021 08:38
brostenen (30) skrev:
Jeg tror heller ikke dem som virkelig udøver overgreb på børn, ville benytte deres telefon til sådan noget. De bruger vist helt andet udstyr, for ikke at blive snuppet.


De er næppe alle så kloge. Nu kan du tage de kriminelle som blev snuppet gennem en eller anden app de troede, var krypteret, men i virkeligheden var udviklet af FBI, eller hvad det var.
Hvis du skal sende et billede eller en film til en anden person, vil du idag formentlig skulle bruge internettet. Og du skal derfor nok have en ret almindelig internetforbindelse og noget grej som du ikke selv har 100% kontrol over.

Men selvfølgelig vil der være nogen, som smutter udenom. Ellers havde vi jo fået bugt med børneporno nu.

Det er nok lidt ligesom når man spørger om de mest succesfulde pirater (Træben og håndkrog) - de mest succesfulde, er dem der aldrig blev opdaget.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login