«Το αποτέλεσμα θα μπορούσε να είναι η εξαφάνιση»: Eρευνητής προειδοποιεί ότι δεν υπάρχει απόδειξη ότι η AI μπορεί να ελεγχθεί,Ένας ερευνητής, τον οποίο υποστηρίζει ο Έλον Μασκ, κρούει εκ νέου τον κώδωνα του κινδύνου σχετικά με την απειλή της AI (τεχνητή νοημοσύνη) για την ανθρωπότητα. Όπως τονίζει, δεν έχει βρει καμία απόδειξη ότι η τεχνολογία αυτή μπορεί να ελεγχθεί.
Ο ειδικός σε θέματα ασφάλειας της τεχνητής νοημοσύνης, Dr. Roman V. Yampolskiy, έχει λάβει χρηματοδότηση από τον δισεκατομμυριούχο για να μελετήσει προηγμένα ευφυή συστήματα που αποτελούν το επίκεντρο του επερχόμενου βιβλίου του «AI: Unexplainable, Unpredictable, Uncontrollable».Το βιβλίο εξετάζει πώς η τεχνητή νοημοσύνη έχει τη δυνατότητα να αναδιαμορφώσει δραματικά την κοινωνία, όχι πάντα προς όφελος των ανθρώπων, και έχει τη «δυνατότητα να προκαλέσει μια υπαρξιακή καταστροφή».
Ο Dr. Yampsolskiy, ο οποίος είναι αναπληρωτής καθηγητής πληροφορικής στο Πανεπιστήμιο του Louisville, διεξήγαγε μια «εξέταση της επιστημονικής βιβλιογραφίας σχετικά με την τεχνητή νοημοσύνη» και κατέληξε στο συμπέρασμα ότι δεν υπάρχει καμία απόδειξη ότι η τεχνολογία θα μπορούσε να σταματήσει από το να ξεφύγει.Τι πρότεινε για τον έλεγχο της ΑΙ
Για τον πλήρη έλεγχο της τεχνητής νοημοσύνης, ο Dr. Yampsolskiy πρότεινε ότι πρέπει να μπορεί να τροποποιηθεί με επιλογές “αναίρεσης”, να μπορεί να περιοριστεί, να είναι διαφανής και εύκολα κατανοητή στην ανθρώπινη γλώσσα.
«Δεν είναι περίεργο που πολλοί θεωρούν ότι αυτό είναι το πιο σημαντικό πρόβλημα που αντιμετώπισε ποτέ η ανθρωπότητα. Το αποτέλεσμα θα μπορούσε να είναι ευημερία ή εξαφάνιση, και η μοίρα του σύμπαντος κρέμεται από μια κλωστή», τόνισε.Οι ανησυχίες του Μασκ για την AI
Ο Έλον Μασκ φέρεται να έχει παράσχει χρηματοδότηση στον Yampsolskiy στο παρελθόν, αλλά το ποσό και οι λεπτομέρειες είναι άγνωστες. Το 2019, ο Yampsolskiy έγραψε μια ανάρτηση στο Medium ευχαριστώντας τον Μασκ «για τη μερική χρηματοδότηση του έργου του σχετικά με την ασφάλεια της τεχνητής νοημοσύνης».
Ο διευθύνων σύμβουλος της Tesla έχει επίσης κρούσει τον κώδωνα του κινδύνου για την τεχνητή νοημοσύνη, το 2023, όταν ο ίδιος και περισσότεροι από 33.000 εμπειρογνώμονες του κλάδου υπέγραψαν ανοιχτή επιστολή στο The Future of Life Institute.
Στην επιστολή αναφερόταν ότι «τα εργαστήρια Τεχνητής Νοημοσύνης είναι σήμερα εγκλωβισμένα σε έναν ανεξέλεγκτο αγώνα για την ανάπτυξη και την αξιοποίηση όλο και πιο ισχυρών ψηφιακών μυαλών που κανείς -ούτε καν οι δημιουργοί τους- δεν μπορεί να κατανοήσει, να προβλέψει ή να ελέγξει αξιόπιστα». «Τα ισχυρά συστήματα τεχνητής νοημοσύνης θα πρέπει να αναπτύσσονται μόνο όταν είμαστε βέβαιοι ότι τα αποτελέσματά τους θα είναι θετικά και οι κίνδυνοι τους θα είναι διαχειρίσιμοι».
Ο Μασκ έχει εκφράσει την επιθυμία να διασφαλίσει ότι η τεχνητή νοημοσύνη και τα ρομπότ των εταιρειών του μπορούν να διαχειριστούν από ανθρώπους, συμπεριλαμβανομένου του να καταστήσει το ρομπότ “Optimus” της Tesla αρκετά αδύναμο ώστε να μην μπορεί να βλάψει τους ανθρώπους.
«Το ρυθμίζουμε έτσι ώστε να είναι σε μηχανικό επίπεδο, σε φυσικό επίπεδο, ώστε να μπορείτε να τρέξετε μακριά του και πιθανότατα να το εξουδετερώσετε» είχε δηλώσει, ανακοινώνοντας το Optimus το 2021.
Εξέφρασε την ανησυχία του για τα νέα εργαλεία που αναπτύσσονται τα τελευταία χρόνια και τα οποία εγκυμονούν κινδύνους για την ανθρωπότητα, ανεξάρτητα από το όφελος που παρέχουν αυτά τα μοντέλα. Το επερχόμενο βιβλίο του Yampolskiy φαίνεται να απηχεί αυτές τις ανησυχίες.
Τα τελευταία χρόνια, ο κόσμος έχει γίνει μάρτυρας της τεχνητής νοημοσύνης που ξεκίνησε με τη δημιουργία ερωτημάτων, τη σύνταξη μηνυμάτων ηλεκτρονικού ταχυδρομείου και τη συγγραφή κώδικα. Τώρα, τέτοια συστήματα εντοπίζουν τον καρκίνο, δημιουργούν νέα φάρμακα και χρησιμοποιούνται για την αναζήτηση και επίθεση στόχων στο πεδίο της μάχης.
Και οι ειδικοί έχουν προβλέψει ότι η τεχνολογία θα φτάσει στη μοναδικότητα (singularity) μέχρι το 2045, όταν δηλαδή η τεχνολογία θα ξεπεράσει την ανθρώπινη νοημοσύνη και θα έχει την ικανότητα να αναπαράγεται μόνη της, οπότε μπορεί να μην είμαστε σε θέση να την ελέγξουμε.
«Γιατί τόσοι πολλοί ερευνητές υποθέτουν ότι το πρόβλημα του ελέγχου της τεχνητής νοημοσύνης είναι επιλύσιμο;» αναρωτήθηκε ο Yampolskiy. «Εξ όσων γνωρίζουμε, δεν υπάρχει καμία απόδειξη γι’ αυτό, καμία απόδειξη. Πριν ξεκινήσουμε μια προσπάθεια για την κατασκευή μιας ελεγχόμενης AI, είναι σημαντικό να δείξουμε ότι το πρόβλημα είναι επιλύσιμο» τόνισε.
Αν και ο ερευνητής δήλωσε ότι πραγματοποίησε μια εκτεταμένη ανασκόπηση για να καταλήξει στο συμπέρασμα, το ποια ακριβώς βιβλιογραφία χρησιμοποιήθηκε είναι άγνωστο προς το παρόν. Αυτό που έκανε ο Yampolskiy ήταν να παράσχει το σκεπτικό του για τον λόγο που πιστεύει ότι η τεχνητή νοημοσύνη δεν μπορεί να ελεγχθεί – η τεχνολογία μπορεί να μάθει, να προσαρμοστεί και να ενεργήσει ημιαυτόνομα.
«Τέτοιες ικανότητες καθιστούν τις δυνατότητες λήψης αποφάσεων άπειρες, και αυτό σημαίνει ότι υπάρχει άπειρος αριθμός θεμάτων ασφαλείας που μπορούν να προκύψουν», εξήγησε.
Και επειδή η τεχνολογία προσαρμόζεται στην πορεία, οι άνθρωποι μπορεί να μην είναι σε θέση να προβλέψουν τα ζητήματα.«Εάν δεν κατανοούμε τις αποφάσεις της AI και έχουμε μόνο ένα “μαύρο κουτί”, δεν μπορούμε να κατανοήσουμε το πρόβλημα και να μειώσουμε την πιθανότητα μελλοντικών ατυχημάτων», δήλωσε ο Yampolskiy.
«Για παράδειγμα, τα συστήματα τεχνητής νοημοσύνης έχουν ήδη αναλάβει να λαμβάνουν αποφάσεις στην υγειονομική περίθαλψη, τις επενδύσεις, την απασχόληση, τις τράπεζες και την ασφάλεια, για να αναφέρουμε μερικά από αυτά. Τέτοια συστήματα θα πρέπει να είναι σε θέση να εξηγούν πώς κατέληξαν στις αποφάσεις τους, ιδίως για να δείχνουν ότι είναι απαλλαγμένα από προκαταλήψεις» συνέχισε.
«Αν συνηθίσουμε να αποδεχόμαστε τις απαντήσεις της τεχνητής νοημοσύνης χωρίς εξήγηση, αντιμετωπίζοντάς την ουσιαστικά ως ένα σύστημα μαντείας, δεν θα είμαστε σε θέση να καταλάβουμε αν αρχίζει να δίνει λανθασμένες ή χειραγωγικές απαντήσεις» συμπλήρωσε ο Yampolskiy.
Σημείωσε επίσης ότι όσο αυξάνονται οι δυνατότητες της τεχνητής νοημοσύνης, αυξάνεται και η αυτονομία της, αλλά μειώνεται ο έλεγχός μας πάνω της. «Η ανθρωπότητα βρίσκεται αντιμέτωπη με μια επιλογή, θα γίνουμε σαν μωρά, που μας φροντίζουν αλλά δεν έχουμε τον έλεγχο ή θα απορρίψουμε την ύπαρξη ενός χρήσιμου κηδεμόνα αλλά θα παραμείνουμε υπεύθυνοι και ελεύθεροι», προειδοποίησε ο Yampolskiy.
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου