Εάν ένα μοντέλο ΑΙ γίνει επικίνδυνο,καλύτερα να το κλείσετε

 

«Εάν ένα μοντέλο ΑΙ γίνει επικίνδυνο, μπορείτε να το κλείσετε;»: Αυτό ρώτησαν στελέχη των Microsoft και Meta – Και οι 2 απέφυγαν να απαντήσουν.Η Επιτροπή Επικοινωνίας και Ψηφιακής Επιτροπής της Βουλής των Λόρδων συναντήθηκε σήμερα με τον Rob Sherman, Αντιπρόεδρο Πολιτικής και Αναπληρωτή Διευθυντή Προστασίας Προσωπικών Δεδομένων της Meta, και τον Owen Larter, διευθυντή παγκόσμιας υπεύθυνης δημόσιας πολιτικής AI στη Microsoft, για να συζητήσουν για τα μεγάλα γλωσσικά μοντέλα και μερικές ευρύτερες επιπτώσεις της τεχνητής νοημοσύνης. Σε μια εκτεταμένη συζήτηση στην οποία ειπώθηκαν πολλά και αρκετές πληροφορίες δεν έχουν αποκαλυφθεί, ένα συγκεκριμένο στοιχείο τράβηξε την προσοχή όλων.Όταν ρωτήθηκε απευθείας από την πρόεδρο της επιτροπής, βαρόνη Stowell του Beeston, σχετικά με το εάν κάποια από τις εταιρείες θα ήταν σε θέση να ανακαλέσει ένα μοντέλο τεχνητής νοημοσύνης στην περίπτωση που «προσδιοριστεί ως μη ασφαλές» ή να σταματήσει την περαιτέρω ανάπτυξή του και πώς θα μπορούσε αυτό να γίνει, ο Rob Sherman έδωσε μια κάπως περίεργη απάντηση:


«Νομίζω ότι εξαρτάται από το ποια είναι η τεχνολογία και πώς χρησιμοποιείται… ένα από τα πράγματα που είναι πολύ σημαντικά είναι να σκεφτούμε αυτά τα πράγματα εκ των προτέρων, δηλαδή πριν κυκλοφορήσουν… Υπάρχουν πολλά άλλα μέτρα που μπορούμε να λάβουμε, άρα για παράδειγμα, μόλις κυκλοφορήσει ένα μοντέλο, υπάρχει πολλή δουλειά που πρέπει να κάνει αυτός που ονομάζουμε προγραμματιστής του μοντέλου. Επομένως δεν υπάρχει μόνο ένας παίκτης που είναι υπεύθυνος για την ανάπτυξη αυτής της τεχνολογίας…»

«Όταν κυκλοφόρησε το Llama, [εμείς] δημοσιεύσαμε έναν οδηγό υπεύθυνης χρήσης που μιλά για τα βήματα που μπορεί να κάνει ένας προγραμματιστής για να βεβαιωθεί ότι χρησιμοποιείται με ασφάλεια, και περιλαμβάνει πράγματα όπως αυτό που ονομάζουμε fine tuning, το οποίο σημαίνει ότι παίρνεις το μοντέλο και διασφαλίζεις ότι χρησιμοποιείται σωστά…Και στη συνέχεια φιλτράρεις τις εξόδους για να βεβαιωθείς ότι όταν κάποιος το χρησιμοποιεί στην τελική μορφή του με όλες τις δυνατότητες που έχει, το μοντέλο χρησιμοποιείται υπεύθυνα και προσεκτικά».

Ο Owen Larter της Microsoft, εν τω μεταξύ, δεν απάντησε καθόλου. Ανεξάρτητα από αυτό, το γεγονός ότι ο εκπρόσωπος της Meta δεν απάντησε ευθέως στην ερώτηση, αλλά αντ’ αυτού έθεσε την απάντησή του σε ένα ευρύτερο πλαίσιο σχετικά με την υπεύθυνη χρήση του μοντέλου από άλλους δεν προκαλεί έκπληξη.


Πολλά έγιναν κατά τη διάρκεια της συζήτησης σχετικά με την ανάγκη για προσεκτικό χειρισμό μοντέλων τεχνητής νοημοσύνης και τους πιθανούς κινδύνους και ανησυχίες που μπορεί να δημιουργήσει αυτή η νέα τεχνολογία.


Ωστόσο, πέρα από μερικές συμβολικές παραχωρήσεις σε πολιτικές αναδυόμενων χρήσεων και συνεργασίες που δημιουργήθηκαν για τη συζήτηση του θέματος, η συζήτηση έγινε γρήγορα «θολή» καθώς και οι δύο εκπρόσωποι πάλευαν να καθορίσουν σε κάποια σημεία ακόμη και τι ήταν αυτό που συζητούσαν.


Ο Rob Sherman νωρίτερα στη συζήτηση αναφέρθηκε στους πιθανούς κινδύνους από την ανεύθυνη χρήση AI λέγοντας: «Ποιοι είναι οι κίνδυνοι που σκεφτόμαστε, ποια είναι τα εργαλεία που έχουμε για να αξιολογήσουμε εάν υπάρχουν αυτοί οι κίνδυνοι και, στη συνέχεια, ποια είναι τα πράγματα που πρέπει να κάνουμε για να τους μετριάσουν».


Ενώ και οι δύο συμμετέχοντες φαινόταν να συμφωνούν ότι υπήρχε μια «συζήτηση» για τα θέματα που τέθηκαν στο τραπέζι, κανένας δεν φαινόταν ιδιαίτερα πρόθυμος να κάνει αυτή τη συζήτηση. Κάθε ερώτηση απαντήθηκε στα γρήγορα με επιχείρημα μία δυνητική μελλοντική πολιτική, μελλοντικούς μηχανισμούς αξιολόγησης κινδύνων και ορισμένα ακαθόριστα βήματα που έχουν ήδη ληφθεί. Συνολικά για να συνοψίσουμε αυτά που ειπώθηκαν το μήνυμα ήταν: «Εργαζόμαστε πάνω σε αυτό».


Όλα αυτά καθησυχάζουν όσους ανησυχούν για τις εκτεταμένες επιπτώσεις της τεχνητής νοημοσύνης και τους πιθανούς κινδύνους της δημιουργίας και κυκλοφορίας μιας τεχνολογίας, που και οι εταιρείες παραγωγής δυσκολεύονται να την προσδιορίσουν.


Σήμερα ήταν μια ευκαιρία να τεθούν ορισμένα σταθερά σχέδια ως προς τον τρόπο ρύθμισης αυτού του ολοένα και πιο σημαντικού εργαλείου. Ωστόσο πέρα από γενικόλογες παραχωρήσεις για την «προστασία της ασφαλείας» και την ανάγκη μίας «παγκόσμιας συνεκτικής προσέγγισης» για την τεχνητή νοημοσύνη, φαίνεται ότι ο έλεγχος και η ρύθμιση της νέας τεχνολογίας προχωρά με αργό ρυθμό και χωρίς ουσιαστικό αποτέλεσμα μέχρι στιγμής.

 FOXreport.gr

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

☛❤ Thanks for Comments ❤☚