Facebook uklonio preko 8 miliona kompromitujućih fotografija

Kompanija Facebook je prošle nedelje objavila podatak da su moderatori u poslednja tri meseca uklonili 8.7 miliona kompromitujućih fotografija dece, uz pomoć novog softvera koji pronalazi i automatski označava ovakve sadržaje.

Alat zasnovan na tehnologiji machine learning se pojavio prošle godine kako bi se identifikovale fotografije koje kompromituju decu i pooštrile mere Facebook-ove zabrane objavljivanja fotografija na kojima su maloletnici predstavljeni u seksualnom kontekstu.

Sličan sistem je pušten prošle nedelje i ima za cilj da registruje podvodače, one koji se sprijateljuju sa maloletnicima radi seksualne eksploatacije.

Antigone Davis, zadužen za bezbednost na društvenoj mreži Facebook je izjavio da ova mašina pomaže da se prioritizuju i efikasnije filtriraju problematični sadržaji koje će nakon toga obrađivati obučeni tim u kompaniji.

Facebook trenutno radi na tome da istu tehnologiju primeni i na aplikaciju Instagram.

Pod pritiskom zakonodavca, Facebook je obećao da će ubrzati uklanjanje ekstremnih i nedozvoljenih materijala. Machine learning programi koji svakodnevno pregledaju više milijardi sadržaja koje postavljaju korisnici su ključni u ovom procesu. Ipak, oni nisu savršeni. Ove godine je bilo dosta pritužbi novinskih agencija i oglašivača da su im zbog automatizovanog sistema, pogrešno blokirane pojedine objave.

Davis je rekao da će nova funkcija koja se tiče zaštite dece na internetu sugurno praviti greške, ali da korisnici mogu da se žale ukoliko do toga dođe.

“Radijemo ćemo pogrešiti, samo da sačuvamo bezbednost dece”, rekao je on.

Prema pravilima Facebooka, zabranjene su čak i porodične fotografije na kojima su deca oskudno obučena, iako su postavljene iz dobre namere, jer Facebook brine o tome kako bi drugi, ipak, mogli da zloupotrebe takve slike.

Pre ovog softvera, Facebook se oslanjao na korisnike i filtere koji registruju ‘golotinju’ na fotografijama odraslih ljudi, kako bi pronašao i slike na kojima su deca.

Odvojeni sistem blokira dečju pornografiju koja je prethodno prijavljena nadležnim službama.

Facebook nije ranije objavljivao koliko je kompromitujućeg sadržaja na kom su deca sklonjeno sa mreže, ali se računa da je od 21 milion postova i komentara u prvom tromosečju bilo dosta. U sredu, 24. oktobra kada je objavljena infromacija, akcije su pale za pet odsto.

Facebook kaže da program, takođe, registruje fotografije na kojima su nagi odrasli ljudi i obučena deca, i njih takođe uklanja. Naravno, ima izuzetaka. On prepoznaje umetnost i istoriju, kao što je fotografija koja je nagrađena Pulicerom, na kojoj je naga devojka koja je izbegla napad napalom u ratu u Vijetnamu.

Sistem prepoznaje i ljude koji su blokirali veliki broj korisnika, pa su zatim ubrzano nastavili da kontaktiraju nove maloletnike, objasnio je Davis.

Michelle DeLaune, šef operativne službe u Nacionalnom centru za nestalu i eksploatisanu decu (NCMEC), je rekao da ova organizacija prognozira da će ove godine dobiti oko 16 miliona obaveštenja od Facebooka i drugih kompanija o zloupotrebi dece širom sveta, što je mnogo više od prošlogodišnjih deset miliona.

Ovo povećanje ukazuje na to da je saradnja NCMEC-e sa Facebook-om neophodna, kako bi se softver razvio i omogućio da brže odluči koje dojave je potrebno prvo proceniti.

Ipak, DeLaune je priznao da su ključne “mrtve tačke” šifrovane aplikacije za ćaskanje i tajne “tamne veb stranice” odakle najveći broj dečje pornografije potiče.

Na primer, i šifrovane poruke Facebook-ove aplikacije za ćaskanje WhatsApp sprečavaju machine learning da ih analizira.

DeLaune je rekao da će NCMEC edukovati tehnološke kompanije u nadi da će upotrebiti kreativnost kako bi se ovaj problem uspešno rešio.

Izvor: Reuters

 

Related Articles

Close
Close