Elon Musk;Η τεχνητή νοημοσύνη είναι μια πολύ μεγαλύτερη απειλή για την ανθρωπότητα από την πυρηνική

 

Ο Elon Musk πιστεύει ότι η έλευση της ψηφιακής υπερκατανόησης είναι μακράν μια πιο επικίνδυνη απειλή για την ανθρωπότητα από τα πυρηνικά όπλα. Πιστεύει ότι το πεδίο της έρευνας για την τεχνητή νοημοσύνη πρέπει να έχει κυβερνητική ρύθμιση. Οι κίνδυνοι της προηγμένης τεχνητής νοημοσύνης διαδόθηκαν στα τέλη του 2010 από

τους Stephen Hawking, Bill Gates & Elon Musk. Αλλά ο Musk από μόνος του είναι ίσως το πιο διάσημο δημόσιο πρόσωπο που εκφράζει την ανησυχία του για την τεχνητή υπερκατανόηση.

Ο υπαρξιακός κίνδυνος από την προηγμένη τεχνητή νοημοσύνη είναι η υπόθεση ότι η ουσιαστική πρόοδος στην τεχνητή γενική νοημοσύνη θα μπορούσε κάποια μέρα να οδηγήσει σε εξαφάνιση του ανθρώπου ή σε κάποια άλλη ανεπανόρθωτη παγκόσμια καταστροφή.

Μία από τις πολλές ανησυχίες σχετικά με την τεχνητή νοημοσύνη είναι ότι ο έλεγχος μιας υπερ-ευφυούς μηχανής ή η ενστάλαξή του με τιμές συμβατές με τον άνθρωπο, μπορεί να αποδειχθεί πολύ πιο δύσκολο πρόβλημα από ό, τι πιστεύαμε προηγουμένως.

Πολλοί ερευνητές πιστεύουν ότι μια υπερ-ευφυΐα φυσικά θα αντισταθεί στις προσπάθειες να την κλείσει ή να αλλάξει τους στόχους της.

Ένας υπαρξιακός κίνδυνος είναι οποιοσδήποτε κίνδυνος που έχει τη δυνατότητα να εξαλείψει όλη την ανθρωπότητα ή, τουλάχιστον, να θέσει σε κίνδυνο ή ακόμη και να καταστρέψει τον σύγχρονο πολιτισμό. Τέτοιοι κίνδυνοι έρχονται σε μορφές φυσικών καταστροφών, όπως τα ηφαίστεια Super, ή αστεροειδείς επιπτώσεις, αλλά ένας υπαρξιακός κίνδυνος μπορεί επίσης να προκαλείται από τον εαυτό του ή να προκαλείται από τον άνθρωπο, όπως όπλα μαζικής καταστροφής. Που συμφωνούν οι περισσότεροι ειδικοί είναι η πιο επικίνδυνη απειλή για την ανθρωπότητα. Αλλά ο Elon Musk σκέφτεται διαφορετικά. Πιστεύει ότι η υπερ-ευφυής τεχνητή νοημοσύνη είναι μια πολύ μεγαλύτερη απειλή για την ανθρωπότητα από τις πυρηνικές.

Ορισμένοι ερευνητές AI και AGI μπορεί να είναι απρόθυμοι να συζητήσουν κινδύνους, ανησυχώντας ότι οι υπεύθυνοι χάραξης πολιτικής δεν έχουν εξελιγμένη γνώση του πεδίου και είναι επιρρεπείς να πείθονται από "ανησυχητικά" μηνύματα ή ανησυχούν ότι τέτοια μηνύματα θα οδηγήσουν σε περικοπές στη χρηματοδότηση της τεχνητής νοημοσύνης.

Δεν μπορεί κανείς να βοηθήσει, αλλά αναρωτιέται, αν η χρηματοδότηση στην έρευνα για την τεχνητή νοημοσύνη είναι πραγματικά πιο σημαντική από την πιθανότητα ισχυρής τεχνητής νοημοσύνης να εξαλείψει την ανθρωπότητα.

Ας ελπίσουμε ότι θα έχουμε την επιλογή να αποφασίσουμε συλλογικά ποια είναι η καλύτερη μας κίνηση και να μην αφήσουμε το θέμα στα χέρια μιας μικρής ομάδας ανθρώπων για να πάρουμε μονομερώς αυτήν την απόφαση για εμάς.




Δεν υπάρχουν σχόλια: