Η Microsoft θα βοηθήσει τους χρήστες να αφαιρέσουν το deepfake γυμνό από την αναζήτηση εικόνας Bing
Από τον Μάρτιο, η Microsoft έχει αφαιρέσει από τα αποτελέσματα αναζήτησης εικόνων Bing σχεδόν 300.000 σεξουαλικά ακατάλληλες εικόνες που είχαν αναρτηθεί στο διαδίκτυο χωρίς τη συγκατάθεση των χρηστών. Και αν βρείτε γυμνές ή σεξουαλικά ακατάλληλες εικόνες ή βίντεο του εαυτού σας, μπορείτε να ζητήσετε την αφαίρεσή τους.
Νωρίτερα φέτος, η Microsoft συνεργάστηκε με τον οργανισμό Stop Non-Consensual Intimate Image Abuse (StopNCII) για να ενσωματώσει μια ενημερωμένη έκδοση της τεχνολογίας PhotoDNA στην πλατφόρμα StopNCII. Το StopNCII επιτρέπει σε άτομα άνω των 18 ετών να δημιουργήσουν ένα ψηφιακό αποτύπωμα, ή hash, των εικόνων που δεν θέλουν να αναρτηθούν στο διαδίκτυο. Αυτό στη συνέχεια μοιράζεται με τους εταίρους του StopNCII, όπως το Instagram, το Facebook, το TikTok, το Threads, το OnlyFans, το Bumble και το Reddit. Εάν βρεθεί περιεχόμενο που ταιριάζει με το hash, θα εξεταστεί για αφαίρεση.
Η Microsoft έχει «δοκιμάσει πιλοτικά τη χρήση της βάσης δεδομένων StopNCII για να αποτρέψει την επιστροφή αυτού του περιεχομένου στα αποτελέσματα αναζήτησης εικόνων στο Bing», δήλωσε η Courtney Gregoire, Chief Digital Safety Officer της Microsoft. «Έχουμε αναλάβει δράση σε 268.899 εικόνες μέχρι το τέλος Αυγούστου [και] θα συνεχίσουμε να αξιολογούμε τις προσπάθειες για την επέκταση αυτής της συνεργασίας».
Στο μέλλον, η Microsoft «συνεργάζεται με το StopNCII για την πιλοτική εφαρμογή μιας προσέγγισης με επίκεντρο το θύμα για την ανίχνευση στο Bing», σύμφωνα με τον Gregoire, ο οποίος ενθαρρύνει «τους ενήλικες που ανησυχούν για την απελευθέρωση – ή την πιθανή απελευθέρωση – των εικόνων τους» να αναφέρουν στο StopNCII.
Η Microsoft διαθέτει επίσης τη δική της πύλη αναφοράς και θα εξετάσει το ενδεχόμενο αφαίρεσης των φωτογραφιών που δημιουργούνται με τεχνητή νοημοσύνη για να βοηθήσει τους ενήλικες να αντιμετωπίσουν το πορνό εκδίκησης που δημιουργείται με τεχνητή νοημοσύνη και τους ιστότοπους που σας επιτρέπουν να παράγετε deepfake γυμνά.
Οι εικόνες ατόμων κάτω των 18 ετών θα πρέπει να αναφέρονται ως εικόνες σεξουαλικής εκμετάλλευσης και κακοποίησης παιδιών, λέει η Microsoft.