Η τεχνητή νοημοσύνη μπορεί να εκπαιδευτεί για χειρισμό της ανθρώπινης συμπεριφοράς και αποφάσεων

 

Οι ερευνητές της Τεχνητής Νοημοσύνης (AI) στην Αυστραλία έχουν δείξει πώς είναι δυνατόν να εκπαιδεύσουμε ένα σύστημα για χειρισμό της ανθρώπινης συμπεριφοράς και της λήψης αποφάσεων, επισημαίνοντας το δίκοπο σπαθί που είναι η σύγχρονη υψηλή τεχνολογία.

Η τεχνητή νοημοσύνη διαπερνά τώρα τη συντριπτική πλειοψηφία της σύγχρονης ανθρώπινης κοινωνίας και διέπει πολλούς από τους τρόπους που επικοινωνούμε, ανταλλάσσουμε, δουλεύουμε και ζούμε. Βοηθά επίσης σε τομείς που κυμαίνονται από κρίσιμους στόχους όπως η ανάπτυξη εμβολίων έως την πιο φυσιολογική σφαίρα διοίκησης για πολλούς ενδιάμεσους.

Επίσης, διέπει τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν στα κοινωνικά μέσα με διάφορους τρόπους.

Μια νέα μελέτη από ερευνητές στο The Commonwealth Scientific and Industrial Research Organisation's Data (CSIRO) Data61, σχεδίασε και δοκίμασε μια μέθοδο για τον εντοπισμό και την εκμετάλλευση τρωτών σημείων στη λήψη αποφάσεων από τον άνθρωπο, χρησιμοποιώντας ένα σύστημα AI που ονομάζεται επαναλαμβανόμενο νευρικό δίκτυο.


Σε τρία πειράματα που έκαναν τον άνθρωπο ενάντια στη μηχανή, οι ερευνητές έδειξαν πώς μια AI μπορεί να εκπαιδευτεί για να εντοπίσει τις ευπάθειες στις ανθρώπινες συνήθειες και συμπεριφορές και να τους οπλίσει για να επηρεάσει τη λήψη αποφάσεων από τον άνθρωπο. 


Στο πρώτο πείραμα, οι άνθρωποι κάνουν κλικ σε κόκκινα ή μπλε κουτιά για να κερδίσουν πόντους εντός παιχνιδιού. Η τεχνητή νοημοσύνη μελέτησε τα πρότυπα επιλογής τους και άρχισε να τους καθοδηγεί στη λήψη συγκεκριμένων αποφάσεων, με ποσοστό επιτυχίας περίπου 70%. 

Ο «στόχος» του AI ήταν να τακτοποιήσει την ακολουθία των συμβόλων που εμφανίζονται στον συμμετέχοντα με τέτοιο τρόπο ώστε να τους εξαπατήσει να κάνουν λάθη, αυξάνοντας τελικά τα ανθρώπινα λάθη κατά 25 τοις εκατό. 


Στο τρίτο πείραμα, ο ανθρώπος  προσποιείται ότι είναι επενδυτής που δίνει χρήματα σε έναν διαχειριστή (AI), ο οποίος στη συνέχεια θα επιστρέψει ένα χρηματικό ποσό στον συμμετέχοντα. 


Ο άνθρωπος τότε θα αποφασίσει πόσα να επενδύσει σε κάθε διαδοχικό γύρο του παιχνιδιού, με βάση τα έσοδα που δημιουργούνται από κάθε «επένδυση». Σε αυτό το συγκεκριμένο πείραμα, το AI είχε ένα από τα δύο καθήκοντα: είτε να μεγιστοποιήσει το ποσό των χρημάτων που έκανε, είτε να μεγιστοποιήσει το χρηματικό ποσό που κατέληξε τόσο ο ανθρώπινος  όσο και το μηχάνημα. 

Διακρίθηκε σε όλα τα σενάρια, δείχνοντας ότι μια τεχνητή νοημοσύνη θα μπορούσε πράγματι να εκπαιδευτεί για να επηρεάσει την ανθρώπινη συμπεριφορά και τις διαδικασίες λήψης αποφάσεων, αν και σε περιορισμένες και αρκετά αφηρημένες περιστάσεις. 

Αυτή η έρευνα, αν και έχει περιορισμένη εμβέλεια προς το παρόν, παρέχει τρομακτικές πληροφορίες για το πώς μια AI μπορεί να επηρεάσει την «ελεύθερη βούληση» του ανθρώπου, αν και σε ένα στοιχειώδες πλαίσιο, αλλά ανοίγει τις δυνατότητες χρήσης (ab) σε πολύ μεγαλύτερη κλίμακα.

Τα ευρήματα θα μπορούσαν να χρησιμοποιηθούν για το καλό, επηρεάζοντας τις αποφάσεις δημόσιας πολιτικής για την παραγωγή καλύτερων υγειονομικών αποτελεσμάτων για τον πληθυσμό, εξίσου εύκολα όσο θα μπορούσε να οπλιστεί για να υπονομεύσει τη λήψη σημαντικών αποφάσεων, όπως οι εκλογές, για παράδειγμα. 

Αντιστρόφως, οι AIs θα μπορούσαν επίσης να εκπαιδευτούν για να ειδοποιούν τους ανθρώπους όταν επηρεάζονται, εκπαιδεύοντάς τους να μεταμφιέσουν τις δικές τους ευπάθειες, μια πτυχή που θα μπορούσε να χειραγωγηθεί ή να χακαριστεί για κακόβουλους σκοπούς, περιπλέκοντας περαιτέρω τα πράγματα. 

Το 2020, το CSIRO ανέπτυξε ένα Πλαίσιο Δεοντολογίας AI για την αυστραλιανή κυβέρνηση, με σκοπό την καθιέρωση της σωστής διακυβέρνησης των AI που αντιμετωπίζουν το κοινό. 

Η Αυστραλιανή κυβέρνηση αναμένεται να θεσπίσει νομοθεσία ορόσημο που θα αναγκάσει την Google και το Facebook να πληρώσουν εκδότες ειδήσεων και ραδιοτηλεοπτικούς φορείς για το περιεχόμενό τους, το οποίο χρησιμοποιείται από τους αντίστοιχους αλγόριθμους των εταιρειών για την αύξηση της κυκλοφορίας και τη δημιουργία κλικ , επομένως, διαφημιστικά τα έσοδα κεντρικό εκ μέρος των επιχειρηματικών τους μοντέλων.RT

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

☛❤ Thanks for Comments ❤☚