OpenAI: Υπάλληλοι προειδοποιούν για τον κίνδυνο της προηγμένης τεχνητής νοημοσύνης

OpenAI: Υπάλληλοι προειδοποιούν για τον κίνδυνο της προηγμένης τεχνητής νοημοσύνης

Αρκετοί νυν και πρώην υπάλληλοι της OpenAI και της Google DeepMind μοιράστηκαν μια ανοιχτή επιστολή προειδοποιώντας για τους κινδύνους της προηγμένης τεχνητής νοημοσύνης και την τρέχουσα έλλειψη εποπτείας των εταιρειών που εργάζονται στην τεχνολογία τεχνητής νοημοσύνης.

Οι εργαζόμενοι προτείνουν ότι αντιμετωπίζουμε αρκετούς κινδύνους από την ανάπτυξη της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της περαιτέρω εδραίωσης των υπαρχουσών ανισοτήτων, της χειραγώγησης και της παραπληροφόρησης και της απώλειας ελέγχου των αυτόνομων συστημάτων τεχνητής νοημοσύνης, κάτι που σύμφωνα με την επιστολή θα μπορούσε να οδηγήσει στην εξαφάνιση του ανθρώπου.

Οι εταιρείες τεχνητής νοημοσύνης έχουν «ισχυρά οικονομικά κίνητρα» για να προχωρήσουν στην ανάπτυξη και να αποφύγουν την ανταλλαγή πληροφοριών σχετικά με τα προστατευτικά μέτρα και τα επίπεδα κινδύνου τους. «Δεν πιστεύουμε ότι όλοι μπορούν να βασιστούν για να το μοιραστούν οικειοθελώς», αναφέρεται στην επιστολή, η οποία αναφέρει ότι εναπόκειται σε νυν και πρώην εργαζόμενους να μιλήσουν.

Εφόσον δεν υπάρχει αποτελεσματική κυβερνητική εποπτεία αυτών των εταιρειών, οι νυν και οι πρώην υπάλληλοι είναι από τους λίγους ανθρώπους που μπορούν να τους ζητήσουν να λογοδοτήσουν στο κοινό. Ωστόσο, οι ευρείες συμφωνίες εμπιστευτικότητας μάς εμποδίζουν να εκφράσουμε τις ανησυχίες μας, εκτός από τις ίδιες τις εταιρείες που ενδέχεται να αποτυγχάνουν να αντιμετωπίσουν αυτά τα ζητήματα. Οι συνήθεις προστασίες πληροφοριοδοτών είναι ανεπαρκείς επειδή επικεντρώνονται στην παράνομη δραστηριότητα, ενώ πολλοί από τους κινδύνους που μας απασχολούν δεν έχουν ακόμη ρυθμιστεί.

Οι εργαζόμενοι καλούν τελικά τις εταιρείες τεχνητής νοημοσύνης να προσφέρουν σταθερή προστασία στους καταγγέλλοντες για να μιλήσουν για τους κινδύνους της τεχνητής νοημοσύνης.

Αποφύγετε τη δημιουργία ή την επιβολή συμφωνιών που αποτρέπουν την κριτική για ανησυχίες που σχετίζονται με τον κίνδυνο.

Προσφέρετε μια επαληθεύσιμη ανώνυμη διαδικασία στους υπαλλήλους για να αναφέρουν ανησυχίες σχετικά με τον κίνδυνο στο διοικητικό συμβούλιο, στις ρυθμιστικές αρχές και σε ανεξάρτητους οργανισμούς με σχετική τεχνογνωσία.

Υποστηρίξτε μια κουλτούρα ανοιχτής κριτικής για να επιτρέψετε στους υπαλλήλους να εκφράζουν ανησυχίες σχετικά με τους κινδύνους σχετικά με τις τεχνολογίες στο κοινό, το διοικητικό συμβούλιο, τις ρυθμιστικές αρχές και πολλά άλλα, εφόσον προστατεύονται τα εμπορικά μυστικά.

Αποφύγετε τα αντίποινα κατά των εργαζομένων που μοιράζονται δημόσια εμπιστευτικές πληροφορίες που σχετίζονται με τον κίνδυνο μετά την αποτυχία άλλων διαδικασιών.

Συνολικά 13 υπάλληλοι υπέγραψαν την επιστολή, συμπεριλαμβανομένων επτά πρώην υπαλλήλων της OpenAI, τεσσάρων σημερινών υπαλλήλων της OpenAI, ενός πρώην υπαλλήλου της Google DeepMind και ενός νυν υπαλλήλου της Google DeepMind.

Η OpenAI έχει απειλήσει τους υπαλλήλους με απώλεια ιδίων κεφαλαίων για να μιλήσουν και τους αναγκάζει να υπογράψουν δρακόντειες συμφωνίες NDA που φιμώνουν την κριτική.

Η επιστολή έρχεται καθώς η Apple ετοιμάζεται να ανακοινώσει πολλαπλές λειτουργίες που υποστηρίζονται από AI για το iOS 18 και άλλες ενημερώσεις λογισμικού τη Δευτέρα. Η Apple εργάζεται για τη δική της λειτουργία AI που θα ενσωματωθεί σε εφαρμογές σε όλο το λειτουργικό σύστημα, ενώ έχει υπογράψει συμφωνία με την OpenAI για την ενσωμάτωση των χαρακτηριστικών ChatGPT στο ‌iOS 18‌.

Leave a Reply

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.

Κατασκευή Ιστοσελίδων WEBTEC