Ναι, Ανησυχούμε για τον Υπαρξιακό Κίνδυνο της Τεχνητής Νοημοσύνης

Ο Oren Etzioni, ένας γνωστός ερευνητής τεχνητής νοημοσύνης, παραπονιέται για ειδησεογραφική κάλυψη πιθανών μακροπρόθεσμων κινδύνων που προκύπτουν από μελλοντική επιτυχία στην έρευνα της τεχνητής νοημοσύνης (βλ. Όχι, οι ειδικοί δεν πιστεύουν ότι η υπερέξυπνη τεχνητή νοημοσύνη είναι απειλή για την ανθρωπότητα ). Αφού έδειξε με το δάχτυλο τον φιλόσοφο της Οξφόρδης Νικ Μπόστρομ και το πρόσφατο βιβλίο του, Υπερευφυΐα , ο Etzioni παραπονιέται ότι η κύρια πηγή δεδομένων του Bostrom σχετικά με την έλευση της νοημοσύνης σε ανθρώπινο επίπεδο αποτελείται από έρευνες σχετικά με τις απόψεις ερευνητών AI. Στη συνέχεια ερευνά τις απόψεις των ερευνητών της τεχνητής νοημοσύνης, υποστηρίζοντας ότι τα αποτελέσματά του διαψεύδουν τις απόψεις του Bostrom.



Είναι σημαντικό να καταλάβουμε ότι ο Etzioni δεν αναφέρεται καν στον λόγο Υπερευφυΐα είχε τον αντίκτυπο που αποδοκιμάζει: η σαφής εξήγηση του γιατί η υπερευφυής τεχνητή νοημοσύνη μπορεί να έχει αυθαίρετα αρνητικές συνέπειες και γιατί είναι σημαντικό να αρχίσουμε να αντιμετωπίζουμε το ζήτημα πολύ εκ των προτέρων. Bostrom δεν βασίζει την υπόθεσή του στις προβλέψεις ότι τα υπεράνθρωπα συστήματα τεχνητής νοημοσύνης επίκεινται. Γράφει, Δεν είναι μέρος του επιχειρήματος αυτού του βιβλίου ότι βρισκόμαστε στο κατώφλι μιας μεγάλης ανακάλυψης στην τεχνητή νοημοσύνη ή ότι μπορούμε να προβλέψουμε με κάθε ακρίβεια πότε μπορεί να συμβεί μια τέτοια εξέλιξη.

Έτσι, κατά την άποψή μας, το άρθρο του Etzioni αποσπά την προσοχή του αναγνώστη από το βασικό επιχείρημα του βιβλίου και στρέφει μια ad hominem επίθεση εναντίον του Bostrom με το πρόσχημα ότι αμφισβητεί τα αποτελέσματα της έρευνάς του. Θεωρούμε απαραίτητο να διορθώσουμε το αρχείο. Ένας από εμάς (ο Russell) συνεισέφερε ακόμη και στην έρευνα του Etzioni, μόνο για να δει την απάντησή του να παρερμηνεύεται εντελώς. Μάλιστα, όπως μας λεπτομερής ανάλυση δείχνει, τα αποτελέσματα της έρευνας του Etzioni είναι απολύτως συνεπή με αυτά που αναφέρει ο Bostrom.





Πώς, λοιπόν, καταλήγει ο Ετζιόνι στο μυθιστορηματικό του συμπέρασμα; Σχεδιάζοντας ένα εργαλείο έρευνας που είναι πιο χαμηλα στο Bostrom’s και μετά παρερμηνεύοντας τα αποτελέσματα.

έχεις τηλέφωνο

Ο υπότιτλος του άρθρου λέει: Αν ρωτήσετε τους ανθρώπους που θα έπρεπε πραγματικά να γνωρίζουν, θα διαπιστώσετε ότι λίγοι πιστεύουν ότι η τεχνητή νοημοσύνη αποτελεί απειλή για την ανθρωπότητα. Έτσι ο αναγνώστης οδηγείται να πιστέψει ότι ο Ετζιόνι έκανε αυτή την ερώτηση στους ανθρώπους που θα έπρεπε πραγματικά να γνωρίζουν, ενώ ο Μπόστρομ όχι. Στην πραγματικότητα, ισχύει το αντίθετο: Bostrom έκανε ρωτήστε ανθρώπους που θα έπρεπε πραγματικά να ξέρουν, αλλά ο Ετζιόνι δεν ρώτησε κανέναν καθόλου. Η Bostrom ερεύνησε τους 100 κορυφαίους ερευνητές τεχνητής νοημοσύνης με τις περισσότερες αναφορές. Περισσότεροι από τους μισούς ερωτηθέντες είπαν ότι πιστεύουν ότι υπάρχει μια σημαντική (τουλάχιστον 15 τοις εκατό) πιθανότητα ότι η επίδραση της νοημοσύνης μηχανών σε ανθρώπινο επίπεδο στην ανθρωπότητα θα είναι κακή ή εξαιρετικά κακή ισορροπία (υπαρξιακή καταστροφή). Η έρευνα του Etzioni, σε αντίθεση με αυτή του Bostrom, δεν έκανε καμία ερώτηση για απειλή για την ανθρωπότητα.

Αντίθετα, κάνει απλώς μια ερώτηση σχετικά πότε θα πετύχουμε υπερευφυΐα. Όπως θα είχαν ήδη προβλέψει τα δεδομένα του Bostrom, κάπως περισσότεροι από τους μισούς (67,5 τοις εκατό) των ερωτηθέντων του Etzioni σημείωσαν άνοδο για περισσότερα από 25 χρόνια για να επιτύχουν υπερευφυΐα - σε τελική ανάλυση, περισσότεροι από τους μισούς ερωτηθέντες του Bostrom έδωσαν ημερομηνίες πέραν των 25 ετών για μόλις 50 τοις εκατό πιθανότητα την επίτευξη απλής νοημοσύνης σε ανθρώπινο επίπεδο. Ένας από εμάς (ο Russell) απάντησε στην έρευνα του Etzioni για περισσότερα από 25 χρόνια, και ο ίδιος ο Bostrom γράφει, για τις δικές του έρευνες, Η δική μου άποψη είναι ότι οι διάμεσοι αριθμοί που αναφέρονται στην έρευνα των ειδικών δεν έχουν αρκετή μάζα πιθανοτήτων σε μεταγενέστερες ημερομηνίες άφιξης.



πότε θα ανακοινωθούν τα αποτελέσματα των προεδρικών εκλογών

Τώρα, έχοντας σχεδιάσει μια έρευνα όπου οι ερωτηθέντες αναμένεται να επιλέξουν περισσότερα από 25 χρόνια, ο Etzioni ανοίγει την παγίδα του: ισχυρίζεται ότι τα 25 χρόνια είναι πέρα ​​από τον προβλέψιμο ορίζοντα και επομένως συμπεραίνει ότι ούτε ο Russell ούτε ο ίδιος ο Bostrom πιστεύουν ότι η υπερέξυπνη τεχνητή νοημοσύνη αποτελεί απειλή. στην ανθρωπότητα. Αυτό θα είναι έκπληξη για τον Russell και τον Bostrom, και πιθανώς για πολλούς άλλους ερωτηθέντες στην έρευνα. (Πράγματι, ο τίτλος του Etzioni θα μπορούσε εξίσου εύκολα να ήταν το 75 τοις εκατό των ειδικών πιστεύουν ότι η υπερέξυπνη τεχνητή νοημοσύνη είναι αναπόφευκτη.) Πρέπει να αγνοήσουμε τους καταστροφικούς κινδύνους απλώς και μόνο επειδή οι περισσότεροι ειδικοί πιστεύουν ότι απέχουν περισσότερα από 25 χρόνια; Σύμφωνα με τη λογική του Etzioni, θα πρέπει επίσης να αγνοούμε τους καταστροφικούς κινδύνους της κλιματικής αλλαγής και να επικρίνουμε αυτούς που τους εκθέτουν.

Σε αντίθεση με τις απόψεις του Ετζιώνη και κάποιων άλλων στο κοινότητα AI , επισημαίνοντας τους μακροπρόθεσμους κινδύνους από την τεχνητή νοημοσύνη είναι δεν ισοδυναμεί με τον ισχυρισμό ότι η υπερευφυής τεχνητή νοημοσύνη και οι κίνδυνοι που την συνοδεύουν είναι επικείμενοι. Ο κατάλογος εκείνων που έχουν επισημάνει τους κινδύνους περιλαμβάνει διαφωτιστές όπως οι Alan Turing, Norbert Wiener, I.J. Καλά, και ο Μάρβιν Μίνσκι. Ακόμα και ο Ορέν Ετζιόνι έχει αναγνώρισε αυτές τις προκλήσεις . Από όσο γνωρίζουμε, κανένα από αυτά δεν υποστήριξε ποτέ ότι η υπερέξυπνη τεχνητή νοημοσύνη ήταν επικείμενη. Ούτε, όπως σημειώθηκε παραπάνω, μπήκε ο Bostrom Υπερευφυΐα .

Ο Etzioni επαναλαμβάνει στη συνέχεια το αμφίβολο επιχείρημα ότι οι προβλέψεις καταστροφής και θλίψης συχνά αποτυγχάνουν να λάβουν υπόψη τα πιθανά οφέλη της τεχνητής νοημοσύνης στην πρόληψη ιατρικών λαθών, στη μείωση των τροχαίων ατυχημάτων και πολλά άλλα. Το επιχείρημα δεν ισχύει καν για τον Bostrom, ο οποίος προβλέπει ότι η επιτυχία στον έλεγχο της τεχνητής νοημοσύνης θα έχει ως αποτέλεσμα μια συμπονετική και χαρούμενη χρήση του κοσμικού προικισμού της ανθρωπότητας. Το επιχείρημα είναι επίσης ανοησία. Είναι σαν να υποστηρίζουμε ότι οι πυρηνικοί μηχανικοί που αναλύουν την πιθανότητα κατάρρευσης σε πυρηνικούς σταθμούς αδυνατούν να εξετάσουν τα πιθανά οφέλη της φθηνής ηλεκτρικής ενέργειας και ότι επειδή οι πυρηνικοί σταθμοί μπορεί μια μέρα να παράγουν πραγματικά φθηνή ηλεκτρική ενέργεια, δεν πρέπει ούτε να αναφέρουμε ούτε να εργαστούμε για την πρόληψη , πιθανότητα κατάρρευσης.

Η εμπειρία μας με το Τσερνόμπιλ υποδηλώνει ότι ίσως δεν είναι συνετό να ισχυριζόμαστε ότι μια ισχυρή τεχνολογία δεν ενέχει κινδύνους. Μπορεί επίσης να μην είναι συνετό να ισχυριστεί κανείς ότι μια ισχυρή τεχνολογία δεν θα πραγματοποιηθεί ποτέ. Στις 11 Σεπτεμβρίου 1933, ο Λόρδος Ράδερφορντ, ίσως ο πιο διακεκριμένος πυρηνικός φυσικός στον κόσμο, περιέγραψε την προοπτική εξαγωγής ενέργειας από άτομα ως σεληνόφως. Λιγότερο από 24 ώρες αργότερα, ο Leo Szilard εφηύρε την πυρηνική αλυσιδωτή αντίδραση που προκαλείται από νετρόνια. ακολούθησαν λεπτομερή σχέδια για πυρηνικούς αντιδραστήρες και πυρηνικά όπλα λίγα χρόνια αργότερα. Σίγουρα είναι καλύτερο να προβλέψουμε την ανθρώπινη ευρηματικότητα παρά να την υποτιμήσουμε, καλύτερα να αναγνωρίσουμε τους κινδύνους παρά να τους αρνηθούμε.



η πραγματική αλήθεια για την κλωνοποίηση

Πολλοί εξέχοντες ειδικοί της τεχνητής νοημοσύνης έχουν αναγνωρίσει την πιθανότητα η τεχνητή νοημοσύνη να παρουσιάζει υπαρξιακό κίνδυνο. Σε αντίθεση με τις ψευδείς δηλώσεις στα μέσα ενημέρωσης, αυτός ο κίνδυνος δεν χρειάζεται να προκύπτει από αυθόρμητη κακόβουλη συνείδηση. Μάλλον, ο κίνδυνος προκύπτει από την απρόβλεπτη και πιθανή μη αναστρέψιμη ανάπτυξη μιας διαδικασίας βελτιστοποίησης πιο έξυπνης από τους ανθρώπους που καθόρισαν τους στόχους της. Αυτό το πρόβλημα αναφέρθηκε ξεκάθαρα από τον Norbert Wiener το 1960, και ακόμα δεν το έχουμε λύσει. Καλούμε τον αναγνώστη να υποστηρίξει τις συνεχείς προσπάθειες για να γίνει αυτό.

Ο Allan Dafoe είναι επίκουρος καθηγητής πολιτικών επιστημών στο Πανεπιστήμιο Yale.

Ο Στιούαρτ Ράσελ είναι καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ.

πόσο είναι τα γυαλιά για αχρωματοψία

Απάντηση από τον/την Oren Etzioni, 2 Νοεμβρίου 2016:

Χαίρομαι που οι καθηγητές Dafoe & Russell και φαίνεται να συμφωνώ σε τρία κρίσιμα ζητήματα. Πρώτον, θα πρέπει να απέχουμε από επιθέσεις ad hominem. Εδώ, πρέπει να ζητήσω μια συγγνώμη: δεν έπρεπε να αναφέρω τον ανώνυμο συνεργάτη της AAAI που παρομοίασε τον Δρ Μπόστρομ με τον Ντόναλντ Τραμπ. Δεν ήθελα να προσφέρω τη φωνή μου σε αυτή τη σύγκριση. Ζήτησα ειλικρινά συγγνώμη από τον Bostrom για αυτό το λάθος μέσω e-mail, μια συγγνώμη που δέχτηκε ευγενικά. Δεύτερον, ως επιστήμονες, πρέπει να αξιολογήσουμε τις δηλώσεις σχετικά με τον κίνδυνο της τεχνητής νοημοσύνης με βάση δεδομένα. Αυτό ήταν το βασικό μου σημείο σύντομο άρθρο , και το άρθρο προσέφερε μοναδικά δεδομένα για αυτό το θέμα. Τρίτον, συμφωνούμε επίσης ότι τα μέσα ενημέρωσης έχουν παραπλανήσει τις επιπτώσεις του έργου του Μπόστρομ - ένα θέμα μείζονος ανησυχίας που αμβλύνθηκε σε κάποιο βαθμό από την Έκθεση του Λευκού Οίκου για την τεχνητή νοημοσύνη . Φυσικά, διαφέρουμε σε πολλές από τις λεπτομέρειες και τις περιπλοκές των επιχειρημάτων, αλλά ο χρόνος θα δείξει.

κρύβω

Πραγματικές Τεχνολογίες

Κατηγορία

Χωρίς Κατηγοριοποίηση

Τεχνολογία

Βιοτεχνολογία

Τεχνική Πολιτική

Την Αλλαγή Του Κλίματος

Άνθρωποι Και Τεχνολογία

Silicon Valley

Χρήση Υπολογιστή

Περιοδικό Mit News

Τεχνητή Νοημοσύνη

Χώρος

Έξυπνες Πόλεις

Blockchain

Feature Story

Προφίλ Αποφοίτων

Σύνδεση Αποφοίτων

Δυνατότητα Ειδήσεων Mit

1865

Η Θέα Μου

77 Mass Ave

Γνωρίστε Τον Συγγραφέα

Προφίλ Στη Γενναιοδωρία

Βλέπεται Στην Πανεπιστημιούπολη

Επιστολές Αποφοίτων

Νέα

Εκλογές 2020

Με Ευρετήριο

Κάτω Από Τον Θόλο

Πυροσβεστική Μάνικα

Άπειρες Ιστορίες

Πανδημικό Τεχνολογικό Έργο

Από Τον Πρόεδρο

Θέμα Εξώφυλλου

Φωτογραφίες

Συνιστάται