Πέμπτη 12 Δεκεμβρίου 2024

Προειδοποίηση! Η τεχνητή νοημοσύνη κατευθύνεταιστον γκρεμό


Ο Στιούαρτ Ράσελ θέλει να χαλιναγωγήσει την τεχνητή νοημοσύνη πριν να είναι πολύ αργά.

Συνέντευξη του καθηγητή πληροφορικής στο Μπέρκλεϊ Στιούαρτ Ράσελ* (Stuart Russell) στην Λη Γουόρθινγκτον (Leah Worthington) από το Άρδην τ. 132

Στην ερώτηση αν ο ανταγωνισμός για την επίτευξη υπεράνθρωπης τεχνητής νοημοσύνης (AI) είναι αναπόφευκτος, ο Στιούαρτ Ράσελ, καθηγητής πληροφορικής του UC Berkeley και κορυφαίος εμπειρογνώμονας σε θέματα AI, απαντά πως ναι. «Η ιδέα των ευφυών μηχανών είναι κατά κάποιον τρόπο ακαταμάχητη», λέει, «και η επιθυμία να δημιουργηθούν ευφυείς μηχανές χρονολογείται χιλιάδες χρόνια πριν. Ο ίδιος ο Αριστοτέλης φανταζόταν ένα μέλλον στο οποίο “το πλήκτρο θα μπορούσε να παίζει μόνο του” και “ο αργαλειός θα μπορούσε να υφαίνει το ύφασμα”». Αλλά το διακύβευμα αυτού του μέλλοντος είναι απίστευτα υψηλό. Όπως επισήμανε ο Ράσελ στο ακροατήριό του, κατά τη διάρκεια μιας ομιλίας που έδωσε στο Λονδίνο το 2013, «η επιτυχία θα ήταν το μεγαλύτερο γεγονός στην ανθρώπινη ιστορία … και ίσως το τελευταίο γεγονός στην ανθρώπινη ιστορία».
Για το καλύτερο ή το χειρότερο, πλησιάζουμε όλο και πιο κοντά σε αυτό το όραμα. Υπηρεσίες όπως οι Χάρτες της Google και οι μηχανές προτάσεων στις ιστοσελίδες ηλεκτρονικών αγορών όπως η Amazon μπορεί να φαίνονται αθώες, αλλά οι προηγμένες εκδόσεις των ίδιων αλγορίθμων επιτρέπουν μια AI (ΤΝ) που είναι πολύ πιο κακόβουλη. (Σκεφτείτε τα παραποιημένα ειδησεογραφικά βίντεο και τη στοχευμένη πολιτική προπαγάνδα).
Οι λάτρεις της τεχνητής νοημοσύνης μάς διαβεβαιώνουν ότι δεν θα μπορέσουμε ποτέ να δημιουργήσουμε μηχανές με υπεράνθρωπη νοημοσύνη. Αλλά ο Ράσελ, ο οποίος διευθύνει το Κέντρο για τη Συμβατή με τον Άνθρωπο Τεχνητή Νοημοσύνη του Μπέρκλεϊ, και έγραψε το βιβλίο Artificial Intelligence: A Modern Approach (Τεχνητή νοημοσύνη: Μια Σύγχρονη Προσέγγιση), που αποτελεί το κλασικό σύγγραμμα για το θέμα, λέει ότι οδεύουμε προς την καταστροφή. Στο επικείμενο βιβλίο του, Human Compatible: Artificial Intelligence and the Problem of Control (Συμβατή με τον άνθρωπο: Η τεχνητή νοημοσύνη και το πρόβλημα του ελέγχου), συγκρίνει τους αισιόδοξους της τεχνητής νοημοσύνης με τον οδηγό λεωφορείου που, καθώς επιταχύνει προς έναν γκρεμό, διαβεβαιώνει τους επιβάτες ότι δεν χρειάζεται να ανησυχούν – θα μείνουν από βενζίνη πριν φτάσουν στον γκρεμό.
«Νομίζω ότι αυτό είναι απλώς ανέντιμο», λέει ο Ράσελ. «Δεν πιστεύω καν ότι θεωρούν πως ενέχει κινδύνους. Είναι απλώς ένας αμυντικός ελιγμός για να αποφύγουν να αναλογιστούν την κατεύθυνση προς την οποία οδηγούνται».
Το πρόβλημα δεν είναι η ίδια η τεχνητή νοημοσύνη, αλλά ο τρόπος με τον οποίο έχει σχεδιαστεί. Οι αλγόριθμοι είναι εγγενώς μακιαβελικοί – θα χρησιμοποιήσουν κάθε μέσο για να επιτύχουν τον στόχο τους. Με λάθος στόχο, λέει ο Ράσελ, οι συνέπειες μπορεί να είναι καταστροφικές. «Είναι κακή μηχανική».
Η πρόταση μιας λύσης στο θεμελιώδες «σχεδιαστικό λάθος» της τεχνητής νοημοσύνης είναι ο στόχος του νέου βιβλίου του καθηγητή Ράσελ, το οποίο κυκλοφορεί τον Οκτώβριο. Πριν από τη δημοσίευση, καθίσαμε μαζί του για να συζητήσουμε την κατάσταση της τεχνητής νοημοσύνης και πώς μπορούμε να αποφύγουμε τη βουτιά στον γκρεμό.

Δεν είστε ο μόνος που κρούει τον κώδωνα του κινδύνου για την τεχνητή νοημοσύνη – σκέφτομαι ανθρώπους όπως ο Έλον Μασκ και ο Στήβεν Χώκινγκ. Τι τροφοδοτεί αυτούς τους φόβους; Η τεχνητή νοημοσύνη;
Το κύριο ζήτημα είναι: τι θα συμβεί όταν οι μηχανές γίνουν αρκετά έξυπνες ώστε να είναι δύσκολο να ελεγχθούν;
Όποιος έχει προσπαθήσει ποτέ να κρατήσει ένα χταπόδι, θα σας πει ότι τα χταπόδια είναι αρκετά έξυπνα ώστε να είναι πολύ δύσκολο να τα κρατήσεις σε ένα μέρος. Βρίσκουν τρόπους διαφυγής, μπορούν να ανοίγουν πόρτες, μπορούν να στριμώχνονται κάτω από πόρτες, μπορούν να βρίσκουν τον δρόμο τους – επειδή είναι έξυπνα. Έτσι, αν φτιάξετε μηχανές που είναι δυνητικά πιο έξυπνες από εμάς, τότε, a priori, δεν είναι καθόλου προφανές το πώς θα ελέγξετε αυτές τις μηχανές και πώς θα αποφύγετε συνέπειες που είναι αρνητικές για τα ανθρώπινα όντα. Αυτή είναι η φύση του προβλήματος.
Μπορείτε να φανταστείτε μια αναλογία με το τι θα συνέβαινε αν ένα ανώτερο εξωγήινο είδος προσγειωνόταν στη Γη. Πώς θα το ελέγχαμε; Και η απάντηση είναι: Δεν θα το κάναμε. Θα είχαμε καταστραφεί. Για να μην καταστραφούμε, πρέπει να εκμεταλλευτούμε το γεγονός ότι δεν πρόκειται για ένα εξωγήινο είδος, αλλά για κάτι που σχεδιάζουμε εμείς. Πώς λοιπόν θα σχεδιάζουμε μηχανές που θα είναι πιο έξυπνες και πιο ισχυρές από εμάς, με τέτοιο τρόπο ώστε να μην αποκτήσουν ποτέ καμία εξουσία επάνω μας;
Ο Έλον Μασκ χρησιμοποιεί πολύ ζωηρή γλώσσα. Είναι επίσης αλήθεια ότι ο Έλον Μασκ και ο Στήβεν Χώκινγκ δεν είναι ερευνητές της τεχνητής νοημοσύνης. Αλλά νομίζω ότι σε κάποιο βαθμό αυτό τους δίνει μια πιο αντικειμενική ματιά σε αυτό το θέμα. Δεν αντιμετωπίζουν αμυντικά την τεχνητή νοημοσύνη, επειδή δεν είναι αυτή η ειδικότητά τους. Νομίζω ότι πολλοί από τους ερευνητές μας αισθάνονται ότι βρίσκονται σε άμυνα, και αυτό τους κάνει να προσπαθούν να βρουν τρόπους να αψηφούν τον κίνδυνο.
Για να είμαι ειλικρινής, και εγώ συνειδητοποίησα τον κίνδυνο μόνο όταν διάβασα τι έλεγαν κάποιοι άνθρωποι εκτός του χώρου.
Με απασχολεί αυτό το γενικό ερώτημα εδώ και πολύ καιρό, από τότε που πρωτοξεκίνησα στο Μπέρκλεϊ – δηλαδή πριν 30 χρόνια ή και περισσότερο. Τι θα συμβεί αν πετύχουμε; Μου φάνηκε ότι κανείς στον χώρο δεν είχε απάντηση σε αυτό το ερώτημα.
Η χολιγουντιανή εκδοχή είναι, σε κάθε περίπτωση, η εξής: «Λοιπόν, η τεχνητή νοημοσύνη θα σας καταστρέψει, επειδή θα αποκτήσει συνείδηση. Και όταν αποκτήσει συνείδηση, θα σας μισήσει. Και όταν σας μισήσει, τότε θα σας καταστρέψει». Όλη αυτή η αφήγηση είναι απλώς ανοησία. Τα συστήματα τεχνητής νοημοσύνης, απ’ όσο γνωρίζουμε, δεν πρόκειται να αποκτήσουν συνείδηση. Επίσης, δεν έχει νόημα να πούμε ότι θα σας μισούν αναγκαστικά, μόνο και μόνο επειδή έχουν συνείδηση. Είναι φτιαγμένα από λογισμικό και το λογισμικό ακολουθεί τους κανόνες. Το αν είναι συνειδητό ή όχι δεν έχει καμία διαφορά. Εξακολουθεί να εκτελεί τη μία γραμμή του κώδικα μετά την άλλη. Η συνειδητότητα είναι εντελώς παραπλανητική.

Ποιο είναι λοιπόν το πραγματικά εφιαλτικό σενάριο, όπως το βλέπετε εσείς;
Σε κάποιον βαθμό μπορείτε ήδη να έχετε κάποιες ενδείξεις για το πώς μοιάζει. Κοιτάξτε τους αλγόριθμους επιλογής περιεχομένου στα μέσα κοινωνικής δικτύωσης – τους αλγόριθμους που αποφασίζουν τι θα δείτε στο προφίλ ειδήσεων ή ποιο βίντεο θα σας προτείνει το YouTube. Αυτοί οι αλγόριθμοι είναι πολύ απλοί αλγόριθμοι τεχνητής νοημοσύνης. Πολλοί από αυτούς έχουν κατασκευαστεί ως αυτό που αποκαλούμε αλγόριθμους «ενισχυτικής μάθησης», οι οποίοι προσπαθούν να μεγιστοποιήσουν κάποια μέτρηση οικονομικής απολαβής ή κλικ στο πληκτρολόγιο. Και για να το πετύχουν αυτό, έμαθαν με μια πολύ απλή διαδικασία πώς να χειραγωγούν τους ανθρώπους και να αλλάζουν το είδος του ατόμου που είσαι, ώστε να γίνεσαι πιο προβλέψιμος στη συμπεριφορά σου ως προς τα κλικ. Αν είσαι πιο προβλέψιμος, μπορούν να βγάλουν περισσότερα χρήματα από σένα. Ξέρουν ακριβώς τι θα κλικάρεις. Πώς λοιπόν σε κάνουν προβλέψιμο; Όπως αποδεικνύεται, με το να σε κάνουν πιο ακραίο στις απόψεις σου. Πολλοί από αυτούς τους αλγόριθμους έχουν μετατρέψει εκατοντάδες εκατομμύρια ανθρώπους στις πιο ακραίες εκδοχές του εαυτού τους.
Αυτό είναι ένα πολύ απλό παράδειγμα, στο οποίο ο αλγόριθμος δεν είναι ιδιαίτερα ευφυής, αλλά έχει επίδραση σε παγκόσμια κλίμακα. Το πρόβλημα είναι ότι ο στόχος της μεγιστοποίησης των κλικ είναι ένας λάθος στόχος, επειδή η εταιρεία –το Facebook ή οτιδήποτε άλλο– δεν πληρώνει για την παρεπόμενη καταστροφή της δημοκρατίας. Νομίζουν ότι μεγιστοποιούν το κέρδος και τίποτα άλλο δεν έχει σημασία. Εν τω μεταξύ, από τη σκοπιά των υπολοίπων, η δημοκρατία μας καταστρέφεται και η κοινωνία μας καταρρέει, κάτι που δεν είναι αυτό που θέλουμε. Έτσι, αυτά τα συστήματα τεχνητής νοημοσύνης που μεγιστοποιούν, με έναν πολύ μονοσήμαντο τρόπο, τον μοναδικό τους στόχο, καταλήγουν να έχουν αυτά τα αποτελέσματα που είναι εξαιρετικά επιβλαβή.
Φανταστείτε τώρα τι θα γινόταν αν αυτοί οι αλγόριθμοι ήταν πραγματικά ευφυείς. Αν οι εφαρμογές είχαν γνώσεις και απόψεις και μπορούσαν πραγματικά να σας χειραγωγήσουν με πολύ πιο στοχευμένο τρόπο. Τότε θα μπορούσαν να έχουν εντελώς καταστροφικά αποτελέσματα. Θα προκαλούσαν στους ανθρώπους την οποιαδήποτε παραμόρφωση που θα ήταν απαραίτητη για να αυξήσουν τα κλικ.
Το απολύτως δυστοπικό τέλος θα ήταν ότι η κοινωνία θα κατέρρεε, ότι οι άνθρωποι θα γίνονταν τελείως δύσπιστοι απέναντι στους άλλους, τελείως απρόθυμοι να βοηθούν ή να συμμορφώνονται με τους συνήθεις κανόνες συμπεριφοράς. Νομίζω ότι, σε κάποιο βαθμό, αυτό συμβαίνει ήδη. Καθώς αλλάζετε την πολιτική σύνθεση ολόκληρου του πληθυσμού, αυξάνετε την πιθανότητα πολέμου, για παράδειγμα. Μεταβάλλεις την προθυμία του πληθυσμού να δεχτεί σκληρές πολιτικές, νόμους και κανονισμούς, και ούτω καθεξής.

Αν είχατε ένα σύστημα του οποίου ο στόχος είναι να επαναφέρετε το επίπεδο του διοξειδίου του άνθρακα στην ατμόσφαιρα στο προβιομηχανικό επίπεδο –ένας στόχος που αντιστρέφει την κλιματική αλλαγή– θα ήσασταν ευχαριστημένοι με αυτό, σωστά;
Ναι, έτσι νομίζω. Αλλά, ξέρετε, ο καταλληλότερος τρόπος για να γίνει αυτό είναι να μειωθεί ο πληθυσμός.


Να ξεφορτωθούμε τους ανθρώπους;

Να ξεφορτωθούμε τους ανθρώπους. Είναι ένα πρόβλημα που έχει λάθος στόχο. Στο σενάριο των μέσων κοινωνικής δικτύωσης, ποιος θα ήταν ο σωστός στόχος;
Κάτι που θα μπορούσατε να κάνετε είναι να πείτε: «Μεγιστοποιήστε τα κλικ, με τον περιορισμό ότι δεν τροποποιείτε τις απόψεις του χρήστη». Και υπάρχουν και άλλοι αλγόριθμοι, αλγόριθμοι μάθησης που προσαρμόζονται στις προτιμήσεις του χρήστη, αλλά δεν τροποποιούν τις προτιμήσεις του χρήστη. Και αυτή είναι μια σημαντική διάκριση.
Γενικά, έχουμε αυτό το πρόβλημα της βελτιστοποίησης, αγνοώντας πράγματα που βρίσκονται εκτός του συγκεκριμένου στόχου. Όταν επιτάσσουμε στόχους στις μηχανές, συνήθως αγνοούμε πολλά άλλα πράγματα που μας ενδιαφέρουν πραγματικά, όπως το να είμαστε ζωντανοί.
Οι μηχανές θα πρέπει να έχουν την επιτακτική υποχρέωση να ωφελούν τους ανθρώπους. Αν ο θεμελιώδης στόχος τους είναι να λειτουργούν προς όφελος των ανθρώπων, αλλά γνωρίζουν ότι δεν ξέρουν τι σημαίνει αυτό, τότε θα κάνουν ερωτήσεις. Θα ζητήσουν άδεια πριν κάνουν κάτι που μπορεί να επηρεάσει οτιδήποτε μας ενδιαφέρει.
Μια παραδοσιακή μηχανή με σταθερό αντικείμενο δεν πρόκειται να σας αφήσει να την απενεργοποιήσετε, διότι τότε δεν θα επιτύχει το στόχο της. Ακόμα και αν αυτός είναι «Φέρε τον καφέ», ή «Κλείσε μου ένα δωμάτιο ξενοδοχείου», θα βρει τρόπους να σας εμποδίσει να την απενεργοποιήσετε. Ενώ, αν δεν είναι βέβαιη για τον στόχο, τότε θα καταλάβει ότι ο άνθρωπος μπορεί να θέλει να την απενεργοποιήσει για να αποτρέψει να συμβεί κάτι κακό.
Αυτό που θέλω να πω είναι ότι το τυπικό μοντέλο της τεχνητής νοημοσύνης είναι εσφαλμένο. Αν υπήρχε ένας τρόπος να μεγιστοποιηθούν τα κλικ, σκοτώνοντας τους πάντες, οι αλγόριθμοι θα σκότωναν τους πάντες. Ευτυχώς, αυτό δεν μεγιστοποιεί τα κλικ, οπότε αυτό δεν έχει συμβεί ακόμα. Αλλά αν [οι αλγόριθμοι] μπορούσαν να βρουν έναν τρόπο, χρησιμοποιώντας την οθόνη, να επανασχεδιάσουν αποτελεσματικά το μυαλό μας ώστε να κάνουμε κλικ όποτε μας λένε να κάνουμε κλικ, τότε αυτό θα έκαναν. Απλώς δεν είναι αρκετά έξυπνοι ακόμα. Ένας πιο έξυπνος αλγόριθμος, που θα κατανοούσε πραγματικά την ανθρώπινη νευροψυχολογία, θα μπορούσε πιθανότατα να βρει έναν τρόπο να χρησιμοποιήσει την οθόνη για να ελέγξει κυριολεκτικά τη συμπεριφορά μας με έναν πολύ άμεσο και εφαρμόσιμο τρόπο, στον οποίο δεν θα μπορούσαμε να αντισταθούμε.


Αυτές είναι πραγματικά τρομακτικές υποθέσεις. Αλλά σίγουρα υπάρχουν κάποια οφέλη από την τεχνητή νοημοσύνη;
Το ουτοπικό σενάριο είναι να επιτύχουμε τεχνητή νοημοσύνη με τρόπο που να μπορεί να ελεγχθεί. Είναι αυτό που αποκαλούμε «αποδεδειγμένα ωφέλιμο», που σημαίνει ότι μπορούμε να αποδείξουμε μαθηματικά ότι τα συστήματα, σχεδιασμένα με τον σωστό τρόπο, θα είναι ωφέλιμα για τα ανθρώπινα όντα.
Ένας τρόπος για να το σκεφτούμε είναι ο εξής: Ποια πράγματα στον κόσμο αυτή τη στιγμή είναι εύκολα και ποια πράγματα είναι δύσκολα; Ποια πράγματα είναι φθηνά και ποια πράγματα είναι πραγματικά ακριβά; Στο βιβλίο μου, χρησιμοποιώ το παράδειγμα της μετάβασης στην Αυστραλία. Αν αυτό συνέβαινε το 1800 και έλεγα: «Πρέπει να πάω στο Σίδνεϊ», τότε αυτό θα κόστιζε το ισοδύναμο πολλών δισεκατομμυρίων δολαρίων, θα χρειάζονταν χιλιάδες άνθρωποι, θα χρειαζόταν τέσσερα ή πέντε χρόνια και θα είχα περίπου 75% πιθανότητες να πεθάνω. Τώρα, απλώς παίρνω το κινητό μου τηλέφωνο, πηγαίνω στη United Airlines, πατάω, πατάω, πατάω, πατάω, πατάω, πατάω, και αύριο βρίσκομαι στο Σίδνεϊ. Και, μιλώντας σχετικά, είναι δωρεάν. Τα ταξίδια έχουν μετατραπεί, από ένα πολύ περίπλοκο, επικίνδυνο και ακριβό πράγμα, σε μια απλή υπηρεσία. Και αν έχετε τεχνητή νοημοσύνη συμβατή με τον άνθρωπο, τότε τα «πάντα γίνονται υπηρεσίες», όλα τα πράγματα που σήμερα είναι δύσκολα. Όπως αν έλεγα: «Θέλω να χτίσω ένα καινούργιο σπίτι». Αυτή τη στιγμή, δεν μπορώ απλά να πάω στο τηλέφωνό μου και να πω, πατήστε, πατήστε, πατήστε, πατήστε, πατήστε, πατήστε, και να έχω ένα νέο σπίτι. Είναι ακριβό, παίρνει πολύ χρόνο, πρέπει να βρεις αρχιτέκτονες, πρέπει να πάρεις άδειες, μετά θα τσακωθείς με τον εργοδηγό και πάντα κοστίζει τρεις φορές περισσότερο. Για πολλούς ανθρώπους, είναι εντελώς απλησίαστο – το κόστος ενός σπιτιού είναι μεγαλύτερο από το ΑΕΠ της ζωής τους.
Ενώ η τεχνητή νοημοσύνη θα μπορούσε να κάνει αυτά τα πράγματα να μοιάζουν με τον τρόπο που γίνονται τα ταξίδια σήμερα. Δηλαδή, εύκολα προσβάσιμα και πολύ φθηνά.
Αυτό που κοστίζει τελικά χρήμα είναι η εμπλοκή των ανθρώπων στη διαδικασία. Ακόμα και οι πρώτες ύλες είναι ουσιαστικά δωρεάν, εκτός από το εργατικό κόστος εξόρυξης. Έχοντας συστήματα τεχνητής νοημοσύνης να κάνουν τα πάντα, το κόστος των υλικών αγαθών γίνεται ουσιαστικά δωρεάν. Έτσι, όλοι στον κόσμο μπορούν να έχουν ένα πολύ αξιοσέβαστο βιοτικό επίπεδο σε επίπεδο υλικών αγαθών. Μπορούν να έχουν πρόσβαση σε υψηλής ποιότητας εκπαίδευση, σε υψηλής ποιότητας υγειονομική περίθαλψη. Και νομίζω ότι αυτό θα ήταν υπέροχο.

Βλέπετε δυνατότητες και για την αντιμετώπιση υπαρξιακών προκλήσεων όπως η κλιματική αλλαγή;
Αυτό είναι προφανώς κάτι στο οποίο μπορούν να βοηθήσουν τα συστήματα τεχνητής νοημοσύνης και η μοντελοποίηση υπολογιστών – τεχνικά ερωτήματα όπως: «Τι θα μπορούσαμε να κάνουμε για να αντιστρέψουμε την κλιματική αλλαγή;». Θα μπορούσαμε να απορροφήσουμε το CO2; Θα μπορούσαμε να αντανακλούμε περισσότερο ηλιακό φως [μακριά από τον πλανήτη];
Το τελευταίο μέρος είναι πολύ πιο πολιτικό. Η δική μου πεποίθηση είναι ότι, αυτή τη στιγμή, θα μπορούσαμε να λύσουμε το πρόβλημα, απλώς έχουμε αποφασίσει να μην το κάνουμε. Συλλογικά, για οποιονδήποτε λόγο, έχουμε αποφασίσει ότι θα αυτοκτονήσουμε κλιματικά. Και αυτό είναι δικό μας λάθος. Τώρα, αν τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν σε αυτό, είναι άλλο ζήτημα.
Υπάρχει ο πειρασμός να πούμε: «Όποιο και αν είναι το πρόβλημα, το σύστημα τεχνητής νοημοσύνης θα είναι αρκετά έξυπνο για να το λύσει. Ναι, θα καταλάβει πώς μπορούμε να ζήσουμε για πάντα. Ναι, θα βρει μια λύση για μεταφορές ταχύτερες από το φως».

Τι κακό έχει αυτός ο πειρασμός;
Το ότι ορισμένα προβλήματα είναι, πολύ απλά, άλυτα. Δεν υπάρχουν «σκουληκότρυπες». Δεν υπάρχει κινητήρας για ταχύτητες που ξεπερνούν το φως. Και ξέρουμε ότι το να ζεις για πάντα δεν είναι εφικτό.
Κάποιοι λένε: «Μπορούμε να φορτώσουμε τον εγκέφαλό μας σε συσκευές πυριτίου». Αλλά δεν υπάρχει καμία εγγύηση ότι, ακόμη και αν ξέραμε τι σημαίνει αυτό –και δεν έχουμε απολύτως καμία ιδέα τι σημαίνει, παρά τα όσα δείχνουν όλες οι ταινίες–, ότι θα εξασφαλίζατε πράγματι μια διαρκή ύπαρξη. Η συνείδησή σας μπορεί να επιβιώσει ή να μην επιβιώσει από οποιαδήποτε τέτοια μετάβαση. Θα έλεγα ότι παίρνετε ένα μεγάλο, μεγάλο ρίσκο.

Στο νέο σας βιβλίο, μιλάτε για την απασχόληση και για το πώς, καθώς τα ευφυή ρομπότ θα αναλαμβάνουν τις χειρωνακτικές εργασίες μας, θα πρέπει να αναλάβουμε πιο υψηλού επιπέδου εργασίες, όπως η τέχνη και η ψυχοθεραπεία. Αλλά είναι δυνατόν, ακόμη και αυτά τα πράγματα, να αναληφθούν από την τεχνητή νοημοσύνη και οι άνθρωποι να καταστούν περιττοί;
Νομίζω ότι αυτό είναι πιθανό. Και ίσως χρειαστεί να ρυθμίσουμε πραγματικά τα είδη των λειτουργιών που θα μπορούσαν να εκτελούν τα συστήματα τεχνητής νοημοσύνης.
Υπάρχουν πράγματα που θέλουμε να κάνουν οι άλλοι άνθρωποι. Θέλω να με συμπαθούν άλλοι άνθρωποι, όχι μηχανές που με συμπαθούν επειδή έτσι είναι φτιαγμένο το πρόγραμμα. Έτσι, αν πρόκειται να γευματίσω με έναν φίλο, είναι επειδή πρόκειται για ένα άλλο ανθρώπινο ον και έχει αξία για μένα επειδή είναι άνθρωπος.
Νομίζω, όμως, ότι έχετε δίκιο, αυτό μπορεί να αλλάξει· μπορεί να φτάσουμε σε μια κατάσταση όπου, στην πραγματικότητα, οι άνθρωποι θα προτιμούσαν να γευματίσουν με τη μηχανή. Επειδή η μηχανή είναι καλύτερη στο να κάνει αστεία ή να κολακεύει τον εγωισμό σας.


Καθώς η τεχνητή νοημοσύνη αναλαμβάνει τις δουλειές που δεν θέλουμε, είναι πιθανό να γίνουμε καλύτεροι άνθρωποι;
Όχι, γιατί, αν διατηρήσουμε το status quo και προσθέσουμε την τεχνητή νοημοσύνη σε αυτό, θα έχουμε κάτι σαν το WALL-E (1), όπου οι άνθρωποι παύουν να προσπαθούν να μάθουν ή να μπορούν να κάνουν κάτι, επειδή το ξέρουν οι μηχανές, και μπορούν να το κάνουν. Γιατί να μπαίνουμε στον κόπο να πηγαίνουμε στο σχολείο; Γιατί να μπεις στον κόπο να κάνεις οτιδήποτε;
Είμαι σίγουρος ότι πάντα θα υπάρχουν άνθρωποι που δεν θα είναι ευχαριστημένοι με το να βρίσκονται όλη μέρα στην ξαπλώστρα. Αλλά πρέπει να καταβάλουμε μια πραγματική πολιτιστική προσπάθεια για να εργαστούμε ενάντια σε αυτή την τάση [προς την τεμπελιά]. Επειδή είναι κατά κάποιον τρόπο μη αναστρέψιμη. Από τη στιγμή που θα σταματήσουμε την όλη διαδικασία της μάθησης και της απόκτησης ικανοτήτων, γνώσεων και δεξιοτήτων, είναι πολύ δύσκολο να την αναιρέσουμε. 

Ο Stuart Russell είναι καθηγητής στον Τομέα Επιστήμης Υπολογιστών στο Μπέρκλεϊ. Η έρευνά του καλύπτει ένα ευρύ φάσμα θεμάτων στην τεχνητή νοημοσύνη, συμπεριλαμβανομένης της μηχανικής μάθησης, της πιθανολογικής συλλογιστικής, της αναπαράστασης γνώσης, του σχεδιασμού, της λήψης αποφάσεων σε πραγματικό χρόνο, της παρακολούθησης πολλαπλών στόχων, της όρασης υπολογιστών, της υπολογιστικής φυσιολογίας και των φιλοσοφικών αρχών. Έχει επίσης συνεργαστεί με τα Ηνωμένα Έθνη για τη δημιουργία ενός νέου παγκόσμιου συστήματος σεισμικής παρακολούθησης για τη Συνθήκη Πλήρους Απαγόρευσης Πυρηνικών Δοκιμών. Στα τρέχοντα ενδιαφέροντά του περιλαμβάνονται η απειλή των αυτόνομων όπλων και το μακροπρόθεσμο μέλλον της τεχνητής νοημοσύνης και η σχέση της με την ανθρωπότητα. Το τελευταίο θέμα αποτελεί το αντικείμενο του νέου του βιβλίου, Human Compatible: AI and the Problem of Control (Viking/Penguin, 2019), απόσπασμα του οποίου δημοσιεύτηκε στους New York Times και το οποίο συμπεριλήφθηκε στα καλύτερα βιβλία του 2019 από τον Guardian, το Forbes, την Daily Telegraph και τους Financial Times. Η συνέντευξη δημοσιεύτηκε στο περιοδικό των αποφοίτων του Μπέρκλεϊ, Καλιφόρνια:

  1. ΓΟΥΟΛ·Υ (αγγλικά: WALL·E): Έτσι ονομάζεται μία ταινία κινουμένων σχεδίων επιστημονικής φαντασίας, παραγωγής 2008, σε σκηνοθεσία του Άντριου Στάντον. Η ταινία δημιουργήθηκε εξ ολοκλήρου με τη χρήση ηλεκτρονικών υπολογιστών από την Pixar και τη χρηματοδότηση ανέλαβε η Walt Disney Pictures. Η ιστορία ακολουθεί ένα ρομπότ με το όνομα ΓΟΥΟΛ·Υ, που έχει σχεδιαστεί για να καθαρίζει την καλυμμένη από απόβλητα γη του μέλλοντος. Έρχεται η στιγμή που ερωτεύεται ένα άλλο ρομπότ, την ΕΥΑ, και την ακολουθεί στο διάστημα, σε μια περιπέτεια που θα αλλάξει τη μοίρα του είδους του και της ανθρωπότητας.

*πηγή: περιοδικό California, 11 Σεπτεμβρίου 2019

ΠΗΓΗ https://ardin-rixi.gr

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου