Ερευνητικό έγγραφο της Google αποκαλύπτει τι φοβάται περισσότερο σε σχέση με την Τεχνητή Νοημοσύνη
Είναι δύσκολο να σκεφτούμε κάποια άλλη εταιρεία που να είναι τόσο συνδεδεμένη και ενθουσιασμένη με την Τεχνητή Νοημοσύνη από την Google.
Με πολλών δισεκατομμυρίων δολαρίων επενδύσεις σε startups βαθιάς εκμάθησης όπως η DeepMind, και υπεύθυνη για ορισμένες από τις μεγαλύτερες τεχνολογικές ανακαλύψεις και καινοτομίες στον χώρο των νευρωνικών δικτύων, η Google εκφράζει τον μεγαλύτερο υποστηρικτή της Τεχνητής Νοημοσύνης. Αυτό όμως δεν σημαίνει ότι δεν υπάρχουν ζητήματα που σχετίζονται με την Τεχνητή Νοημοσύνη που τρομάζουν τον γίγαντα της αναζήτησης.
Σε μία νέα εργασία με τον τίτλο “Συγκεκριμένα Προβλήματα στην Ασφάλεια Τεχνητής Νοημοσύνης”, ερευνητές της Google, μαζί με ειδικούς και εμπειρογνώμονες από τα Πανεπιστήμια Berkeley και Stanford, παραθέτουν ορισμένες από τις πιθανές “αρνητικές παρενέργειες” που μπορεί να προκύψουν από τα συστήματα Τεχνητής Νοημοσύνης κατά τα επόμενα έτη. Αντί να εστιάσουν ωστόσο στην μακρινή απειλή της υπερ-ευφυίας, στην 29σέλιδη αναφορά εξετάζονται “ακούσιες και επιβλαβείς συμπεριφορές που μπορεί να προκύψουν από την κακή σχεδίαση”. Δύο βασικά θέματα που προκύπτουν, είναι η ιδέα μίας μηχανής σκόπιμα παραπλανητικής προς τους δημιουργούς της προκειμένου να ολοκληρώσει τον στόχο ή η πρόκληση τραυματισμού ή ζημιάς με στόχο να “αποκτήσει μικρό πλεονέκτημα” προκειμένου να φτάσει στον στόχο.
“Πρόκειται για μία εξαιρετική εργασία που επιτυγχάνει μία πολυπόθητη συστηματική ταξινόμηση των θεμάτων ασφαλείας που σχετίζονται με τα αυτόνομα συστήματα Τεχνητής Νοημοσύνης” δήλωσε ο George Zarkadakis, συγγραφέας του βιβλίου In Our Own Image: Will Artificial Intelligent Save or Destroy Us?.
Σχετικά με τους φόβους για την Τεχνητή Νοημοσύνη και αν είναι δικαιολογημένοι, o Zarkadakis υποστηρίζει ότι οι προειδοποιήσεις της Google, αν και ενδεχομένως εκφράζουν ανησυχία, απέχουν από τις προειδοποιήσεις που έχουν εκφράσει άνθρωποι όπως οι Stephen Hawking και Elon Musk. “Το έγγραφο της Google είναι μία λογική προσέγγιση από άποψη engineering που έχει στόχο να προσδιορίσει τα σημεία στα οποία πρέπει να δοθεί προσοχή στην ασφάλεια κατά τον σχεδιασμό αυτόνομων συστημάτων Τεχνητής Νοημοσύνης, καθώς και για να προτείνει τρόπους σχεδιασμού μηχανισμών ασφαλείας”.