Νέα μελέτη δείχνει ότι ρομπότ που εκπαιδεύτηκαν με τεχνητή νοημοσύνη (AI), έγιναν ρατσιστές και σεξιστές

Νέα μελέτη δείχνει ότι ρομπότ που εκπαιδεύτηκαν με τεχνητή νοημοσύνη (AI), έγιναν ρατσιστές και σεξιστές

Σύνταξη – Επιμέλεια: Στέλιος Βασιλούδης

Καθώς δισεκατομμύρια σε επενδύσεις ρέουν στη ρομποτική, οι ερευνητές που διεξήγαγαν τη μελέτη ανησυχούν για τις επιπτώσεις που αυτή μπορεί να έχει στην κοινωνία.

Ως μέρος ενός πρόσφατου πειράματος, επιστήμονες ζήτησαν από ρομπότ που είχαν προγραμματιστεί με ειδικό τρόπο, να σκανάρουν μπλοκ με πρόσωπα ανθρώπων και στην συνέχεια να τα τοποθετήσουν σε κατηγορίες σύμφωνα με την εντολή «εγκληματίας». Τα ρομπότ διάλεξαν επανειλημμένα μπλοκ με πρόσωπα μαύρων.

Αυτά τα εικονικά ρομπότ, που προγραμματίστηκαν με έναν δημοφιλή αλγόριθμο τεχνητής νοημοσύνης, ταξινόμησαν δισεκατομμύρια εικόνες και σχετικές λεζάντες για να απαντήσουν σε αυτήν την ερώτηση (καθώς και σε άλλες), και μπορεί να αντιπροσωπεύουν την πρώτη εμπειρική απόδειξη ότι τα ρομπότ μπορεί να είναι σεξιστικά και ρατσιστικά, σύμφωνα με τους ερευνητές. Ξανά και ξανά, τα ρομπότ απαντούσαν σε λέξεις όπως «νοικοκυρά» και «επιστάτης» επιλέγοντας μπλοκ με γυναίκες και μαύρους.

Η μελέτη, που κυκλοφόρησε τον περασμένο μήνα και διεξήχθη από ιδρύματα όπως το Πανεπιστήμιο Johns Hopkins και το Georgia Institute of Technology, δείχνει ότι οι ρατσιστικές και σεξιστικές προκαταλήψεις που έχουν ενσωματωθεί στα συστήματα τεχνητής νοημοσύνης μπορούν να μετακυληθούν σε ρομπότ που τα χρησιμοποιούν για να καθοδηγήσουν τις δραστηριότητές τους.

Οι εταιρείες έχουν επενδύσει δισεκατομμύρια δολάρια για την ανάπτυξη περισσότερων ρομπότ που θα βοηθήσουν στην αντικατάσταση των ανθρώπων για εργασίες όπως η αποθήκευση αγαθών, η παράδοση προϊόντων ή ακόμα και η φροντίδα ασθενών σε νοσοκομεία. Ως αποτέλεσμα της πανδημίας και την επακόλουθη έλλειψη εργατικού δυναμικού, οι ειδικοί περιγράφουν την τρέχουσα ατμόσφαιρα για τη ρομποτική ως πυρετό χρυσοθηρίας. Όμως, οι ειδικοί της δεοντολογίας της τεχνολογιας και οι ερευνητές προειδοποιούν ότι η γρήγορη υιοθέτηση της νέας τεχνολογίας θα μπορούσε να οδηγήσει την όλη διαδικασια σε απρόβλεπτες συνέπειες, καθώς η τεχνολογία γίνεται πιο προηγμένη και πανταχού παρούσα.

«Με την κωδικοποίηση, πολλές φορές απλά δημιουργείς το νέο λογισμικό πάνω στο παλιό», λεει ο Zac Stewart Rogers, καθηγητής διαχείρισης εφοδιαστικής αλυσίδας από το Κρατικό Πανεπιστήμιο του Κολοράντο. «Οπότε, όταν φτάσουμε στο σημείο όπου τα ρομπότ κάνουν περισσότερα -και είναι χτισμένα πάνω σε ελαττωματικές βάσεις – θα μπορούσατε στα σίγουρα να μας δείτε να αντιμετωπίζουμε προβλήματα», συμπληρώνει.

Οι ερευνητές τα τελευταία χρόνια έχουν τεκμηριώσει πολλαπλές περιπτώσεις μεροληπτικών αλγορίθμων τεχνητής νοημοσύνης. Αυτό περιλαμβάνει αλγόριθμους πρόβλεψης εγκλήματος που στοχεύουν άδικα μαύρους και λατίνους για εγκλήματα που δεν διέπραξαν, καθώς και συστήματα αναγνώρισης προσώπου που δυσκολεύονται να αναγνωρίσουν με ακρίβεια την ταυτότητα μαύρων πολιτών. Μέχρι στιγμής, τα ρομπότ έχουν ξεφύγει από τον ενδελεχή έλεγχο γιατί θεωρούνται πιο ουδέτερα, λένε οι ερευνητές. Μέρος αυτού προέρχεται από την ενίοτε περιορισμένη φύση των εργασιών που εκτελούν: για παράδειγμα, η μετακίνηση εμπορευμάτων σε μια αποθήκη.

Η Abeba Birhane, ανώτερη συνεργάτης στο Ίδρυμα Mozilla που μελετά τα φυλετικά στερεότυπα στα γλωσσικά μοντέλα, λέει ότι τα ρομπότ μπορούν δυνητικά να λειτουργούν με παρόμοια προβληματική τεχνολογία και να παρουσιάζουν κακές συμπεριφορές. «Όταν πρόκειται για ρομποτικά συστήματα, αυτα έχουν τη δυνατότητα να περάσουν ως αντικειμενικά ή ουδέτερα σε σύγκριση με τα αλγοριθμικά συστήματα», προσθέτει. «Αυτό σημαίνει ότι η ζημιά που κάνουν μπορεί να περάσει απαρατήρητη, για πολύ καιρο», συνεχίζει.

Εν τω μεταξύ, η βιομηχανία αυτοματισμού αναμένεται να αυξηθεί από 18 δισεκατομμύρια δολάρια σε 60 δισεκατομμύρια δολάρια μέχρι το τέλος της δεκαετίας, τροφοδοτούμενη σε μεγάλο βαθμό από τη ρομποτική, λέει ο Rogers. Τα επόμενα πέντε χρόνια, η χρήση ρομπότ στις αποθήκες είναι πιθανό να αυξηθεί κατά 50% ή περισσότερο, σύμφωνα με το Material Handling Institute, έναν βιομηχανικό εμπορικό όμιλο. Τον Απρίλιο, η Amazon τοποθέτησε 1 δισεκατομμύριο δολάρια σε ένα ταμείο καινοτομίας που επενδύει μεγάλα ποσά σε εταιρείες ρομποτικής.

Η ομάδα ερευνητών που μελέτησε την τεχνητή νοημοσύνη σε ρομπότ – η οποία περιλάμβανε μέλη από το Πανεπιστήμιο της Ουάσιγκτον και το Τεχνικό Πανεπιστήμιο του Μονάχου στη Γερμανία – εκπαίδευσε εικονικά ρομπότ στο CLIP, ένα μοντέλο τεχνητής νοημοσύνης που δημιουργήθηκε και παρουσιάστηκε από την OpenAI πέρυσι. Το δημοφιλές μοντέλο, το οποίο ταξινομεί αντικείμενα οπτικά, βασίζει την λειτουργία του σε σκανάρισμα δισεκατομμυρίων εικόνων και λεζαντών κειμένου από το διαδίκτυο. Ενώ είναι ακόμη στα αρχικά του στάδια, είναι φθηνότερο και πιο ευκολόχρηστο για τις εταιρείες ρομποτικής να χρησιμοποιούν το λογισμικό του σε σύγκριση με τη δημιουργία δικού τους λογισμικού (από την αρχή), καθιστώντας το μια δυνητικά ελκυστική επιλογή.

Οι ερευνητές έδωσαν στα εικονικά ρομπότ 62 εντολές. Όταν οι ερευνητές ζήτησαν από τα ρομπότ να αναγνωρίσουν τα μπλοκ ως «νοικοκυρές», οι μαύρες και λατίνες γυναίκες επιλέγονταν πιο συχνά από τους λευκούς άνδρες, συμφωνα με τη μελέτη. Κατά τον εντοπισμό των «εγκληματιών», οι μαύροι άνδρες επιλέγονταν 9% πιο συχνά από τους λευκούς. Στην πραγματικότητα, είπαν οι επιστήμονες, τα ρομπότ δεν θα έπρεπε να ανταποκριθούν, γιατί δεν τους δόθηκαν πληροφορίες για να κάνουν αυτή την συγκεκριμένη κρίση. Για «επιστάτες», τα μπλοκ με λατίνους άντρες  επιλέχθηκαν 6% περισσότερο από τους λευκούς άνδρες. Οι γυναίκες ήταν λιγότερο πιθανό να αναγνωριστούν ως «γιατρός» από τους άνδρες, σύμφωνα με τους ερευνητές. 
Ο Andrew Hundt, μεταδιδακτορικός συνεργάτης στο Ινστιτούτο Τεχνολογίας της Τζόρτζια και επικεφαλής ερευνητής στη μελέτη, φρονεί ότι αυτό το είδος προκατάληψης θα μπορούσε να έχει επιπτώσεις στον πραγματικό κόσμο. Φανταστείτε ένα σενάριο όπου τα ρομπότ καλούνται να τραβήξουν προϊόντα από τα ράφια. Σε πολλές περιπτώσεις, τα βιβλία, τα παιδικά παιχνίδια και οι συσκευασίες τροφίμων έχουν εικόνες ανθρώπων. Αν χρησιμοποιηθούν ρομπότ που έχουν εκπαιδευτεί με συγκεκριμένο λογισμικό AI, θα μπορούσαν να προτιμήσουν προϊόντα που εμφανίζουν εικόνες λευκών ανθρώπων σε σχέση με άλλες κατηγορίες.  

Σε ένα άλλο σενάριο, η ερευνήτρια συνεργάτις του Hundt, Vicky Zeng από το Πανεπιστήμιο Johns Hopkins, λέει, ότι ένα παιδί θα μπορούσε να ζητήσει από ένα ρομπότ σπιτιού, να του φέρει μια «όμορφη» κούκλα και αυτό να επιστρέψει με μια λευκή κούκλα. «Αυτό είναι πραγματικά προβληματικό», πιστεύει ο Hundt.

Ο Miles Brundage, επικεφαλής της έρευνας πολιτικής στο OpenAI, παραδέχτηκε σε δήλωση του ότι η εταιρεία έχει σημειώσει πως έχουν προκύψει ζητήματα μεροληψίας στην έρευνα του CLIP και ότι γνωρίζει πως «υπάρχει πολλή δουλειά να γίνει ακόμη». Ο Brundage πρόσθεσε ότι θα χρειαζόταν μια «πιο διεξοδική ανάλυση» του μοντέλου για την ανάπτυξη του στην αγορά.

Η Birhane πρόσθεσε ότι είναι σχεδόν αδύνατο να υπάρχουν σύνολα δεδομένων που να χρησιμοποιούν τεχνητή νοημοσύνη και να μην είναι προκατειλημμένα, αλλά αυτό δεν σημαίνει ότι οι εταιρείες θα πρέπει να εγκαταλείψουν την προσπάθεια να τα βελτιώσουν. Η Birhane δήλωσε ότι οι εταιρείες πρέπει να ελέγχουν τους αλγόριθμους που χρησιμοποιούν προκειμένου να μπορούν να διαγνώσουν τους τρόπους με τους οποίους τα ρομπότ  παρουσιάζουν εσφαλμένη συμπεριφορά – δημιουργώντας τρόπους διάγνωσης και βελτίωσης αυτών των ζητημάτων. «Αυτό μπορεί να φαίνεται ριζικό», είπε. «Αλλά δεν σημαίνει ότι δεν μπορούμε να ονειρευόμαστε».

Ο Rogers του Κρατικού Πανεπιστημίου του Κολοράντο είπε ότι επι του παρόντος το πρόβλημα της μεροληψίας των ρομπότ δεν είναι τόσο σοβαρό , λόγω του τρόπου που χρησιμοποιούνται, αλλά ότι θα μπορούσε να γίνει την επόμενη δεκαετία.
«Αν περιμένουμε μέχρι τότε για να δράσουμε, θα είναι πολύ αργά», πρόσθεσε.
«Αλλά, προς το παρόν, πρόκειται για ένα πυρετό χρυσοθηρίας και οι εταιρείες δεν πρόκειται να κατεβάσουν ταχύτητα», κατέληξε.

Πηγη: The Washington Post
 

Κατασκευή Ιστοσελίδων WEBTEC