Ηθική τεχνητή νοημοσύνη φιλόδοξα ελπίζοντας να έχει η τεχνητή νοημοσύνη να μάθει την ηθική συμπεριφορά από μόνη της, όπως η περίπτωση με την τεχνητή νοημοσύνη σε αυτόνομα αυτοοδηγούμενα αυτοκίνητα

Ο Αριστοτέλης είπε περίφημα ότι η εκπαίδευση του νου χωρίς την εκπαίδευση της καρδιάς δεν είναι καθόλου εκπαίδευση.

Θα μπορούσατε να ερμηνεύσετε αυτή τη διορατική παρατήρηση για να υποδείξετε ότι η μάθηση σχετικά με την ηθική και την ηθική συμπεριφορά είναι ζωτικής σημασίας για την ανθρωπότητα. Στην κλασική συζήτηση για τη φύση εναντίον της ανατροφής, πρέπει να αναρωτηθεί κανείς πόσα από τα ηθικά μας ήθη είναι ενστικτωδώς εγγενή ενώ πόσα μαθαίνουμε κατά τη διάρκεια των ημερών μας. Τα νήπια παρατηρούν τους συνανθρώπους τους και προφανώς σταχυολογούν τα ηθικά τους θεμέλια με βάση αυτά που βλέπουν και ακούν. Το ίδιο μπορούμε να πούμε για τους εφήβους. Για τους ανοιχτόμυαλους ενήλικες, θα συνεχίσουν να προσαρμόζονται και να προοδεύουν στην ηθική τους σκέψη ως αποτέλεσμα της εμπειρίας του καθημερινού κόσμου.

Φυσικά, η ρητή διδασκαλία σε κάποιον σχετικά με την ηθική είναι επίσης ισοδύναμη για το μάθημα. Οι άνθρωποι είναι υποχρεωμένοι να μάθουν για ηθικούς τρόπους παρακολουθώντας μαθήματα σχετικά με το θέμα ή ίσως πηγαίνοντας σε εκδηλώσεις και πρακτικές που τους ενδιαφέρουν. Οι ηθικές αξίες μπορούν ξεκάθαρα να προσδιοριστούν και να μοιραστούν ως μέσο για να βοηθήσουν τους άλλους να διατυπώσουν τη δική τους δομή ηθικής. Επιπλέον, η ηθική μπορεί να κρύβεται διακριτικά μέσα σε ιστορίες ή άλλους τρόπους διδασκαλίας που τελικά μεταφέρουν ένα μήνυμα για το τι συνίσταται η ηθική συμπεριφορά.

Έτσι φαίνεται να εμποτίζουν οι άνθρωποι την ηθική.

Τι γίνεται με την Τεχνητή Νοημοσύνη (AI);

Καταλαβαίνω ότι μια τέτοια ερώτηση μπορεί να φαίνεται περίεργη. Σίγουρα περιμένουμε από τους ανθρώπους να ενσωματώσουν την ηθική και να περπατήσουν στη ζωή με κάποια εμφάνιση ηθικού κώδικα. Είναι ένα απλό και προφανές γεγονός. Από την άλλη πλευρά, ένα μηχάνημα ή ένας υπολογιστής δεν φαίνεται να ταιριάζει στο ίδιο πλαίσιο αναφοράς. Η ενστικτώδης αντίδρασή σας μπορεί να είναι ότι είναι παραπλανητικό ή παράξενο να θεωρείτε ότι η τεχνητή νοημοσύνη έχει μια ενσάρκωση ηθικής και ηθικών κωδίκων.

Το καλύτερο που φαίνεται ότι μπορούμε να κάνουμε για την τεχνητή νοημοσύνη είναι να το επινοήσουμε έτσι ώστε να μην παρεκκλίνει από την ηθική συμπεριφορά. Οι προγραμματιστές τεχνητής νοημοσύνης και όσοι διαθέτουν τεχνητή νοημοσύνη θα πρέπει να θεωρηθούν υπεύθυνοι για τη διασφάλιση ότι η τεχνητή νοημοσύνη όπως έχει σχεδιαστεί και όταν εφαρμόζεται είναι ήδη σε συμμόρφωση με τους ηθικούς κανόνες. Έξω από την πύλη, ας πούμε έτσι, η τεχνητή νοημοσύνη θα έπρεπε να είναι ήδη παρθένα και έτοιμη να φύγει ως ένα πλήρως ηθικά σωστό τέχνασμα.

Σίγουρα θα είχατε δίκιο όταν πιστεύατε ότι τα συστήματα τεχνητής νοημοσύνης θα πρέπει πράγματι να είναι κατασκευασμένα ώστε να ταιριάζουν ήδη πλήρως σε μια ηθική βάση. Η κοινωνία ήταν πολύ ενθουσιασμένη όταν κυκλοφόρησε για πρώτη φορά το τελευταίο κύμα συστημάτων AI και φάνηκε να δείχνει ότι βρισκόμασταν σε μια εποχή AI για καλό. Η τεχνητή νοημοσύνη θα βοηθούσε στην επίλυση πολλών από τα πιο δύσκολα προβλήματα του κόσμου. Οι πρόοδοι της τεχνολογίας αξιοποιούνταν για να συμπληρώσουν τις ανθρώπινες ικανότητες με γνωστικές εγκαταστάσεις, αν και επιτρέψτε μου να τονίσω ότι δεν έχουμε ακόμη καμία αισθητή τεχνητή νοημοσύνη και δεν γνωρίζουμε εάν θα επιτευχθεί η αισθανόμενη τεχνητή νοημοσύνη.

Το πρόβλημα με τη βιασύνη για την εισαγωγή της τεχνητής νοημοσύνης στον κόσμο αποκάλυψε σταδιακά το άσχημο κάτω μέρος της τεχνητής νοημοσύνης που είναι γνωστό ως AI για κακό. Υπήρξαν πολλοί τίτλοι σχετικά με συστήματα τεχνητής νοημοσύνης που χρησιμοποιούν αλγοριθμική λήψη αποφάσεων (ADM) που είναι γεμάτη με προκαταλήψεις και ανισότητες. Επιπλέον, μεγάλο μέρος της σύγχρονης τεχνητής νοημοσύνης πάσχει από έλλειψη διαφάνειας, τείνει να είναι ανεξήγητο όσον αφορά την εξήγηση υπολογιστικών αποφάσεων, συχνά εμφανίζει έλλειψη δικαιοσύνης και έχει επιτρέψει σε ορισμένους να εκτρέψουν την ανθρώπινη ευθύνη τους δείχνοντας το δάχτυλο στην τεχνητή νοημοσύνη.

Έχω καλύψει εκτενώς την ηθική τεχνητή νοημοσύνη και την ηθική της τεχνητής νοημοσύνης στα γραπτά μου, συμπεριλαμβανομένων ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Πώς μπορεί να υπάρξει AI για κακό αν λάβουμε ως δηλωμένο κατασκεύασμα ότι η τεχνητή νοημοσύνη θα πρέπει να δημιουργηθεί από την αρχή για να αποφευχθούν ανήθικες ενέργειες;

Η απάντηση είναι πολλαπλή.

Πρώτον, πολλοί προγραμματιστές τεχνητής νοημοσύνης και εταιρείες που ασχολούνται με την τεχνητή νοημοσύνη δεν γνωρίζουν οι ίδιες τη σημασία της διαμόρφωσης της τεχνητής νοημοσύνης τους ώστε να παραμείνουν εντός των ηθικών ορίων. Η ιδέα δεν είναι καθόλου στα ραντάρ τους. Η γοητεία του να κερδίζεις γρήγορα χρήματα κάνει μερικούς να προχωρήσουν σε όποιες άγριες έννοιες τεχνητής νοημοσύνης θέλουν να παράγουν ηθελημένα. Δεν χρειάζεται να καταλάβετε ηθικά πράγματα. Απλώς δημιουργήστε το AI και ξεκινήστε το.

Δεύτερον, υπάρχουν εκείνοι που κατασκευάζουν την τεχνητή νοημοσύνη που εξωραΐζουν την πλήρη επίγνωση των ηθικών προεκτάσεων, αλλά υποβαθμίζουν απροκάλυπτα ή αγνοούν κάπως τις ηθικές θεωρήσεις της τεχνητής νοημοσύνης. Μια κοινή προοπτική είναι το κλασικό μάντρα της τεχνολογίας του στόχου να αποτυγχάνεις γρήγορα και να αποτυγχάνεις συχνά. Απλώς συνεχίστε να επαναλαμβάνετε έως ότου τα πράγματα ελπίζουμε να διευθετηθούν κατάλληλα. Οι πιθανότητες συμπίεσης οποιασδήποτε συστηματικής και στοχαστικής ενσωμάτωσης της ηθικής της τεχνητής νοημοσύνης σε αυτές τις προσπάθειες γρήγορης τεχνητής νοημοσύνης είναι δυστυχώς ελάχιστες. Συζητώ την ανάγκη για την ενδυνάμωση της ηγεσίας προς την ηθική τεχνητή νοημοσύνη στο ο σύνδεσμος εδώ.

Τρίτον, υπάρχει πολλή ασάφεια σχετικά με το ποια ηθικά προστατευτικά κιγκλιδώματα πρέπει να διασκεδάζονται κατά την επινόηση της τεχνητής νοημοσύνης. Σίγουρα, υπάρχουν σήμερα πολλές οδηγίες ηθικής τεχνητής νοημοσύνης, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ, αν και αυτές οι εύχρηστες θεωρητικές αρχές είναι δύσκολο να μετατραπούν απαραίτητα σε λεπτομέρειες για ένα δεδομένο σύστημα AI που κατασκευάζεται. Έχω υποδείξει ότι θα δούμε σιγά σιγά μια εμφάνιση εργαλείων και μεθοδολογιών δημιουργίας τεχνητής νοημοσύνης που περιλαμβάνουν πρακτικές κωδικοποίησης ηθικής τεχνητής νοημοσύνης, συμβάλλοντας στο να κλείσει το χάσμα μεταξύ των αφηρημένων πτυχών και των παροιμιωδών όψεων «λάστιχο συναντά τον δρόμο».

Τέταρτον, σύμφωνα με την έμφαση που δίνεται στο παρόν, διερευνούμε την επηρεαζόμενη περίπτωση της τεχνητής νοημοσύνης που ακόμα κι αν αρχικά συντέθηκε εντός ηθικών ορίων και στη συνέχεια κατά τη χρήση ελίσσεται πέρα ​​από τις υποτιθέμενες ηθικά κωδικοποιημένες παραμέτρους.

Πρέπει να το αποσυσκευάσουμε.

Μεγάλο μέρος της σημερινής τεχνητής νοημοσύνης χρησιμοποιεί τη μηχανική μάθηση (ML) και τη βαθιά μάθηση (DL). Αυτές είναι τεχνικές και τεχνολογίες υπολογιστικής αντιστοίχισης προτύπων. Γενικά, η ιδέα είναι ότι συλλέγετε μαζί πολλά σχετικά δεδομένα για οτιδήποτε υποτίθεται ότι μπορεί να κάνει η τεχνητή νοημοσύνη, τροφοδοτείτε αυτά τα δεδομένα στην επιλεγμένη υπολογιστική αντιστοίχιση προτύπων και η αντιστοίχιση μοτίβου προσπαθεί μαθηματικά να βρει χρήσιμα μοτίβα. Σημειώστε ότι δεν υπάρχει καμία αίσθηση από την πλευρά αυτής της τεχνητής νοημοσύνης (η οποία, πάλι, δεν υπάρχει ακόμα κάτι τέτοιο). Ούτε εμπλέκεται κανένας συλλογισμός κοινής λογικής. Όλα είναι μαθηματικά και υπολογισμοί.

Θα μπορούσε να είναι ότι τα δεδομένα που τροφοδοτούνται στο ML/DL είναι ήδη εμποτισμένα με προκαταλήψεις και ανισότητες. Σε αυτή την περίπτωση, οι πιθανότητες είναι ότι η υπολογιστική αντιστοίχιση προτύπων θα μιμηθεί απλώς τις ίδιες τάσεις. Εάν παρέχετε δεδομένα που ευνοούν τη μία φυλή έναντι της άλλης ή ευνοούν το ένα φύλο έναντι του άλλου, υπάρχει μεγάλη πιθανότητα το ταίριασμα του μοτίβου να κολλήσει σε αυτό ως το μοτίβο που ανακαλύφθηκε.

Ένα μεγάλο πρόβλημα με αυτό το είδος μανδάλωσης είναι ότι μπορεί να δυσκολευτούμε να καταλάβουμε ότι τα μοτίβα βασίζονται σε αυτήν την πτυχή των δεδομένων. Τα ακανθώδη και πολύπλοκα μαθηματικά μπορούν να κάνουν την εμφάνιση τέτοιων μοτίβων που βρέθηκαν αρκετά προβληματική. Ακόμη και η δοκιμή του AI δεν πρόκειται απαραίτητα να αποκαλύψει αυτές τις τάσεις, ανάλογα με το εύρος και το βάθος των δοκιμών που εφαρμόζονται.

Λοιπόν, ας υποθέσουμε ότι έχετε δημιουργήσει ένα σύστημα AI και κάνατε την εργασία σας προσπαθώντας πρώτα να αποφύγετε τη χρήση δεδομένων που είχαν προϋπάρχουσες προκαταλήψεις. Στη συνέχεια, αφού αναλήφθηκαν η Μηχανική Μάθηση και η Βαθιά Μάθηση, δοκιμάσατε τα αποτελέσματα για να δείτε εάν προέκυψαν με κάποιο τρόπο προκαταλήψεις ή ανισότητες. Ας υποθέσουμε ότι δεν μπορείτε να βρείτε τέτοιες δυσάρεστες κλίσεις.

Συνολικά, δίνεται τώρα το πράσινο φως για να προχωρήσουμε και να θέσουμε σε χρήση την τεχνητή νοημοσύνη. Οι άνθρωποι θα αρχίσουν να χρησιμοποιούν το AI και πιθανότατα να υποθέσουν ότι είναι ηθικά σωστό. Το σκέφτονται και οι προγραμματιστές. Η εταιρεία που διαθέτει το AI πιστεύει αυτό. Φεύγουμε όλοι.

Να τι μπορεί να συμβεί.

Ενδεχομένως ενεργοποιείται μια ένδειξη μεροληψίας που δεν βρέθηκε στα αρχικά δεδομένα και που δεν εντοπίστηκε κατά τη δοκιμή του AI. Ίσως αυτό συμβαίνει μόνο σπάνια. Ίσως πιστεύετε ότι όσο είναι σπάνιο, όλα είναι καλά. Ωστόσο, αμφιβάλλω ότι όσοι είναι ευάλωτοι στην εν λόγω προκατάληψη είναι πρόθυμοι να δουν τα πράγματα έτσι. Τολμώ να πω ότι το σύστημα τεχνητής νοημοσύνης και εκείνοι που το διατύπωσαν θα αντιμετωπίσουν επιπτώσεις, είτε στα νομικά δικαστήρια είτε στο ανοιχτό δικαστήριο της κοινωνικής γνώμης.

Μια άλλη παραλλαγή είναι η παροιμιώδης έννοια του να παίρνεις μια ίντσα και να αρπάζεις ένα μίλι. Η εντύπωση μπορεί αρχικά να είναι μικροσκοπική. Κατά τη χρήση της τεχνητής νοημοσύνης, η τεχνητή νοημοσύνη θα μπορούσε να είχε επινοηθεί για να αλλάζει καθώς προχωρούν τα πράγματα. Αυτό το είδος «μάθησης» ή «αυτομάθησης» μπορεί να είναι αρκετά χρήσιμο. Αντί να απαιτείται από τους προγραμματιστές ανθρώπινης τεχνητής νοημοσύνης να τροποποιούν και να προσαρμόζουν συνεχώς το σύστημα τεχνητής νοημοσύνης, η τεχνητή νοημοσύνη είναι κατασκευασμένη για να το κάνει από μόνη της. Χωρίς καθυστερήσεις, χωρίς ακριβά εργατικά κ.λπ.

Το μειονέκτημα αυτής της εύχρηστης αυτορρύθμισης είναι ότι η εντύπωση μπορεί να γίνει όλο και μεγαλύτερη στο πλαίσιο χρήσης από την AI. Ενώ η μεροληψία μπορεί να βρισκόταν σε μια στενή μικρή γωνία, τώρα της δίνεται περιθώριο να επεκταθεί. Η τεχνητή νοημοσύνη δεν φαίνεται να φαίνεται ότι είναι «λάθος» και απλώς επεκτείνει υπολογιστικά κάτι που φαίνεται να λειτουργεί.

Εάν αυτό κάνει τα μαλλιά να σηκώνονται στο κεφάλι σας, θα πρέπει να καθίσετε για την επόμενη παραλλαγή.

Ας υποθέσουμε ότι η προκατάληψη δεν υπήρχε από την αρχή και έχουμε κάθε αιτιολογημένη πεποίθηση ότι η τεχνητή νοημοσύνη είναι εντελώς απαλλαγμένη από προκατάληψη. Είτε σταθήκαμε τυχεροί είτε βεβαιωθήκαμε συστηματικά ότι δεν υπήρχαν προκαταλήψεις πουθενά στα δεδομένα και καμία δεν προέκυψε μέσω της αντιστοίχισης υπολογιστικών προτύπων. Παρά αυτόν τον αναστεναγμό ανακούφισης, το AI επιτρέπεται να προσαρμόζεται κατά τη χρήση. Η πόρτα της Πανδώρας ανοίγει και η τεχνητή νοημοσύνη επιλέγει να έλκει υπολογιστικά προς τις προκαταλήψεις που εντοπίζονται σε ό,τι κι αν κάνει η τεχνητή νοημοσύνη.

Μια νέα προκατάληψη καταβροχθίζεται στην τεχνητή νοημοσύνη και κανείς δεν είναι ιδιαίτερα σοφότερος που συνέβη. Ναι, δημιουργήσαμε ένα τέρας, έναν πραγματικό Φρανκενστάιν.

Πώς μπορεί να αποτραπεί ή τουλάχιστον να επισημανθεί αυτή η εμφάνιση;

Μια προσέγγιση που κερδίζει έλξη συνίσταται στην ενσωμάτωση στο AI ενός στοιχείου συλλογής ηθικής. Το AI έχει κατασκευαστεί για να περιλαμβάνει στοιχεία ηθικής τεχνητής νοημοσύνης. Αυτά τα στοιχεία στη συνέχεια παρακολουθούν ή παρακολουθούν το υπόλοιπο AI ενώ το AI προσαρμόζεται με την πάροδο του χρόνου. Όταν η τεχνητή νοημοσύνη φαίνεται να έχει ξεπεράσει τις προγραμματισμένες ηθικές αρχές, η Ηθική τεχνητή νοημοσύνη προσπαθεί να κάνει σχοινί σε αυτές τις προσαρμογές ή ειδοποιεί τους προγραμματιστές ότι κάτι έχει πάει στραβά.

Μπορείτε να δοκιμάσετε να προγραμματίσετε αυτήν την ικανότητα εποπτείας της ηθικής τεχνητής νοημοσύνης και ελπίζετε ότι θα επικρατήσει όσο χρησιμοποιείται το AI.

Μια άλλη κάπως αμφιλεγόμενη οπτική γωνία θα ήταν η χρήση της Μηχανικής Μάθησης και της Βαθιάς Μάθησης για την εκπαίδευση των πτυχών ηθικής τεχνητής νοημοσύνης στο σύστημα τεχνητής νοημοσύνης.

Πες τι?

Ναι, η ίσως ανορθόδοξη ιδέα είναι ότι αντί ένας άνθρωπος προγραμματιστής να κωδικοποιεί απευθείας ένα σύνολο αρχών ηθικής τεχνητής νοημοσύνης, το AI έχει διαμορφωθεί έτσι ώστε να προσπαθεί να τις «μάθει». Θυμηθείτε ότι σημείωσα εν συντομία ότι η χρήση του ML/DL συνήθως βασίζεται στην τροφοδοσία δεδομένων στους αλγόριθμους και λαμβάνει χώρα μια υπολογιστική αντιστοίχιση προτύπων. Το ερώτημα ενός εκατομμυρίου δολαρίων είναι αν μπορούμε να χρησιμοποιήσουμε τον ίδιο μηχανισμό για να εμποτίσουμε ηθικές αξίες σε ένα σύστημα τεχνητής νοημοσύνης.

Υποθέτω ότι θα μπορούσατε να το παρομοιάσετε με τη συζήτησή μου στην αρχή για το πώς οι άνθρωποι συνειδητοποιούν τις ηθικές αρχές, αν και παρακαλώ μην ανθρωπομορφοποιείτε τη σημερινή τεχνητή νοημοσύνη ως συγκρίσιμη με την ανθρώπινη σκέψη (δεν είναι, και θα επαναλάβω αυτήν την προτροπή σύντομα). Το AI μπορεί να προγραμματιστεί «εγγενώς» με ηθικούς κανόνες AI. Ή το AI θα μπορούσε να «μάθει» ηθικούς κανόνες τεχνητής νοημοσύνης. Μπορείτε να κάνετε και τα δύο, φυσικά, κάτι που έχω καλύψει αλλού, δείτε ο σύνδεσμος εδώ.

Αφιερώστε λίγο χρόνο για να αναλογιστείτε τη φαινομενικά εκπληκτική ιδέα ότι η τεχνητή νοημοσύνη μπορεί να «μάθει» την ηθική και να συμμορφώνεται πιθανώς με ηθικές συμπεριφορές.

Αυτοί οι ερευνητές χρησιμοποιούν ένα παράδειγμα συστήματος τεχνητής νοημοσύνης που υπολογίζει την επιθυμητή θερμοκρασία σε ένα σπίτι για να δείξουν πώς μπορεί να λειτουργήσει: «Πρώτα «παρατήρησε» τη συμπεριφορά των ανθρώπων σε διάφορα νοικοκυριά για μόλις μια εβδομάδα και έβγαλε συμπεράσματα σχετικά με τις προτιμήσεις τους. Στη συνέχεια χρησιμοποίησε έναν αισθητήρα ανίχνευσης κίνησης για να προσδιορίσει αν κάποιος ήταν στο σπίτι. Όταν το σπίτι ήταν άδειο, ο έξυπνος θερμοστάτης μπήκε σε λειτουργία υψηλής εξοικονόμησης ενέργειας. όταν οι άνθρωποι ήταν στο σπίτι, ο θερμοστάτης προσάρμοζε τη θερμοκρασία για να ταιριάζει στις προτιμήσεις τους. Αυτός ο θερμοστάτης πληροί σαφώς τις δύο απαιτήσεις ενός bot ηθικής, αν και πολύ απλή. Αξιολογεί τις προτιμήσεις των ανθρώπων και τις επιβάλλει στους ελέγχους του συστήματος θέρμανσης και ψύξης. Μπορεί να αναρωτηθεί κανείς τι σχέση έχει αυτό με τις κοινωνικές ηθικές αξίες. Αυτός ο θερμοστάτης δίνει τη δυνατότητα σε άτομα με διαφορετικές τιμές να έχουν τις ρυθμίσεις θερμοκρασίας που προτιμούν. Οι κάτοικοι του σπιτιού δεν χρειάζεται να επαναφέρουν τον θερμοστάτη κάθε μέρα όταν έρχονται και φεύγουν. Αυτό το απλό ρομπότ ηθικής μειώνει επίσης το συνολικό ενεργειακό αποτύπωμα της κοινότητας» (σύμφωνα με την εργασία των Amitai Etzioni και Oren Etzioni με τίτλο «AI Assisted Ethics» στον τόμο σχετικά Ηθική και Πληροφορική).

Πριν σκάψω περαιτέρω στις ανατροπές και τις στροφές της ύπαρξης τεχνητής νοημοσύνης που «μαθαίνει» την ηθική συμπεριφορά, θα ήθελα να πω κάτι περισσότερο για την κατάσταση της τεχνητής νοημοσύνης.

Το AI μπορεί να αποτελείται από αυτές τις πιθανές καταστάσεις:

1. Μη ευαίσθητη απλή-παλιά τεχνητή νοημοσύνη του σήμερα

2. Αισθανόμενο AI ανθρώπινης ποιότητας (δεν το έχουμε ακόμη)

3. Αισθανόμενη τεχνητή νοημοσύνη που είναι εξαιρετικά ευφυής (ένα τμήμα πέρα ​​από το #2)

Θα εστιάσω στην υπάρχουσα κατάσταση, η οποία είναι μη ευαίσθητη απλή-παλιά AI. Πολλά από αυτά που μπορείτε να διαβάσετε για την ηθική τεχνητή νοημοσύνη κατά καιρούς καλύπτουν την αισθανόμενη τεχνητή νοημοσύνη και ως εκ τούτου είναι εξαιρετικά εικασιακά. Το λέω ότι είναι κερδοσκοπικό γιατί κανείς δεν μπορεί να καρφώσει την ουρά στον γάιδαρο για το τι θα είναι το αισθανόμενο AI. Ακόμη πιο πέρα ​​από τη σφαίρα της ανθρώπινης ποιότητας τεχνητής νοημοσύνης είναι η πολυσύχναστη υπερ-έξυπνη τεχνητή νοημοσύνη. Υπάρχουν πολλές ιστορίες επιστημονικής φαντασίας και αμφιβολίες σχετικά με το πώς αυτές οι γεύσεις της τεχνητής νοημοσύνης μπορεί να αποφασίσουν να υποδουλώσουν την ανθρωπότητα ή ίσως απλώς να μας εξαφανίσουν όλους. Αυτό είναι γνωστό ως ο υπαρξιακός κίνδυνος του AI. Κατά καιρούς, το δίλημμα διατυπώνεται και ως ο καταστροφικός κίνδυνος της τεχνητής νοημοσύνης.

Κάποιοι ισχυρίζονται ότι μπορεί να είμαστε εντάξει, αρκεί να διατηρήσουμε την τεχνητή νοημοσύνη στο μη ευαίσθητο, απλό και παλιό AI που έχουμε σήμερα. Ας υποθέσουμε ότι δεν μπορούμε να φτάσουμε στο αισθητικό AI. Φανταστείτε ότι ανεξάρτητα από το πόσο σκληρά προσπαθούμε να δημιουργήσουμε αισθητή AI, αποτυγχάνουμε να το κάνουμε. Επίσης, ας υποθέσουμε για λόγους συζήτησης ότι το αισθανόμενο AI δεν προκύπτει από κάποια μυστηριώδη αυθόρμητη διαδικασία.

Δεν είμαστε τότε ασφαλείς ότι αυτή η τεχνητή νοημοσύνη μικρότερου διαμετρήματος, που είναι το φανταστικό μόνο δυνατό είδος τεχνητής νοημοσύνης, θα είναι σε χρήση;

Όχι πραγματικά.

Λίγο πολύ, είναι πιθανό να προκύψουν τα ίδια γενικά ζητήματα. Δεν προτείνω ότι το AI «σκέφτεται» τον τρόπο που θέλει να μας καταστρέψει. Όχι, η συνηθισμένη μη ευαίσθητη τεχνητή νοημοσύνη τοποθετείται απλώς σε θέσεις ισχύος που μας βυθίζουν στην αυτοκαταστροφή. Για παράδειγμα, βάζουμε μη ευαίσθητη τεχνητή νοημοσύνη σε όπλα μαζικής καταστροφής. Αυτά τα αυτόνομα όπλα δεν μπορούν να σκεφτούν. Ταυτόχρονα, οι άνθρωποι δεν παραμένουν πλήρως ενήμεροι. Ως αποτέλεσμα, η τεχνητή νοημοσύνη ως μορφή αυτόνομου αυτοματισμού καταλήγει ακούσια να προκαλεί καταστροφικά αποτελέσματα, είτε από ανθρώπινη εντολή να το κάνει, είτε από σφάλμα ή σφάλμα, είτε από εμφυτευμένες κακές ενέργειες, είτε με αυτοπροσαρμογές που οδηγούν τα πράγματα σε αυτό. άσχημο μονοπάτι κ.λπ.

Θα ισχυριζόμουν ότι το πρόβλημα ηθικής της τεχνητής νοημοσύνης υπάρχει και για τις τρεις αυτές προβλεπόμενες καταστάσεις της τεχνητής νοημοσύνης, δηλαδή ότι έχουμε ηθικά ζητήματα τεχνητής νοημοσύνης με μη-συναίσθητο απλό και παλιό AI και με αισθανόμενη τεχνητή νοημοσύνη που είναι είτε απλώς ανθρώπινο επίπεδο είτε η εκτεταμένη τεχνητή νοημοσύνη που φτάνει το αναγνωρισμένο επίπεδο υπερνοημοσύνης.

Δεδομένης αυτής της απογοητευτικής δήλωσης, μπορούμε με βεβαιότητα να συζητήσουμε το μέγεθος και τη δυσκολία που σχετίζονται με τα ηθικά προβλήματα σε κάθε ένα από τα αντίστοιχα επίπεδα της τεχνητής νοημοσύνης. Η συνηθισμένη άποψη είναι ότι η δυσάρεστη δεοντολογία της τεχνητής νοημοσύνης είναι λιγότερο ανυπέρβλητη στο μη συναισθηματικό AI, πιο σκληρή σε επίπεδο τεχνητής νοημοσύνης που είναι ισότιμη με τον άνθρωπο και είναι μια αληθινή κεφαλιά στο στάδιο υποθέσεων της αισθανόμενης υπερ-έξυπνης τεχνητής νοημοσύνης.

Όσο καλύτερη γίνεται η τεχνητή νοημοσύνη, τόσο χειρότερο γίνεται το πρόβλημα ηθικής της τεχνητής νοημοσύνης.

Ίσως αυτός είναι ένας απαράβατος νόμος της φύσης.

Επιστρέφοντας στο επίκεντρο της σημερινής τεχνητής νοημοσύνης, η προσπάθεια να «μάθει» η τεχνητή νοημοσύνη ηθικές συμπεριφορές μέσω της σύγχρονης Machine Learning και Deep Learning είναι γεμάτη ανησυχίες και δύσκολα προβλήματα. Ας υποθέσουμε ότι η τεχνητή νοημοσύνη αποτυγχάνει να συγκεντρώσει τις επιθυμητές ηθικές αρχές; Πώς θα ξέρουμε με βεβαιότητα ότι παραπαίει σε κάτι τέτοιο; Επίσης, άλλα μέρη ενός συστήματος τεχνητής νοημοσύνης θα παρακάμψουν δυνητικά τις συγκεντρωμένες ηθικές κατασκευές; Προσθέστε σε αυτό ότι εάν η τεχνητή νοημοσύνη προσαρμόζεται εν κινήσει, οι προσαρμογές θα μπορούσαν να μειώσουν τις ηθικές πτυχές ή ακούσια να τις κατακλύσουν εντελώς.

Για να γίνουν τα πράγματα χειρότερα, η «μάθηση» μπορεί να οδηγήσει στην προσγείωση του AI σε πραγματικά ανήθικες συμπεριφορές. Ενώ πιστεύαμε ότι κάναμε το σωστό ωθώντας την τεχνητή νοημοσύνη να είναι ηθική, αποδεικνύεται ότι η τεχνητή νοημοσύνη γλίστρησε σε μοτίβο που ταιριάζει με τις ανήθικες πτυχές. Μιλάμε για να πυροβολήσουμε το δικό μας πόδι, θα μπορούσε οπωσδήποτε να συμβεί.

Σε αυτή τη συγκυρία αυτής της συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά πρόσθετα παραδείγματα από τον πραγματικό κόσμο που θα μπορούσαν να τονίσουν πώς η τεχνητή νοημοσύνη η «μάθηση» της ηθικής μπορεί να εφαρμοστεί στη σημερινή τεχνητή νοημοσύνη (εκτός από το νόστιμο teaser του παραδείγματος του θερμοστάτη).

Χαίρομαι που ρωτήσατε.

Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να προσδιορίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με τη δυνατότητα της τεχνητής νοημοσύνης να «μάθει» ηθικούς κανόνες τεχνητής νοημοσύνης και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι αυτά που το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά την οδήγηση.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμη ένα αληθινό αυτοκίνητο αυτο-οδήγησης στο Επίπεδο 5, το οποίο δεν γνωρίζουμε ακόμη και αν αυτό θα είναι δυνατό να επιτευχθεί και ούτε πόσο θα χρειαστεί να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτο-οδηγούμενα αυτοκίνητα και ηθικός εμβολιασμός AI

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Πιστεύω ότι παρέχει αρκετή λιτανεία προειδοποιήσεων για να υπογραμμίσει αυτό που πρόκειται να αναφέρω.

Είμαστε έτοιμοι τώρα να κάνουμε μια βαθιά βουτιά στα αυτοοδηγούμενα αυτοκίνητα και τις δυνατότητες ηθικής τεχνητής νοημοσύνης, που συνεπάγεται τον ισχυρό ισχυρισμό ότι μπορούμε να κάνουμε την τεχνητή νοημοσύνη να «μάθει» για ηθικές συμπεριφορές από μόνη της.

Ας χρησιμοποιήσουμε ένα πολύ απλό παράδειγμα. Ένα αυτοοδηγούμενο αυτοκίνητο βασισμένο σε τεχνητή νοημοσύνη βρίσκεται σε εξέλιξη στους δρόμους της γειτονιάς σας και φαίνεται να οδηγεί με ασφάλεια. Στην αρχή, είχατε αφιερώσει ιδιαίτερη προσοχή σε κάθε φορά που καταφέρνατε να ρίξετε μια ματιά στο αυτο-οδηγούμενο αυτοκίνητο. Το αυτόνομο όχημα ξεχώριζε με τη σχάρα ηλεκτρονικών αισθητήρων που περιλάμβανε βιντεοκάμερες, μονάδες ραντάρ, συσκευές LIDAR και άλλα παρόμοια. Μετά από πολλές εβδομάδες που το αυτοοδηγούμενο αυτοκίνητο ταξιδεύει στην κοινότητά σας, τώρα μόλις και μετά βίας το παρατηρείτε. Σε ό,τι σας αφορά, είναι απλώς ένα ακόμη αυτοκίνητο στους ήδη πολυσύχναστους δημόσιους δρόμους.

Για να μην πιστεύετε ότι είναι αδύνατο ή απίθανο να εξοικειωθείτε με τα αυτόνομα αυτοκίνητα, έχω γράψει συχνά για το πώς οι τοποθεσίες που εμπίπτουν στο πεδίο των δοκιμών αυτοοδηγούμενων αυτοκινήτων έχουν σταδιακά συνηθίσει να βλέπουν τα κομψά οχήματα. δείτε την ανάλυσή μου στο αυτό το σύνδεσμο εδώ. Πολλοί από τους ντόπιους τελικά μεταπήδησαν από το να εκπέμπουν ένα εκτεταμένο χασμουρητό πλήξης για να παρακολουθήσουν αυτά τα αυτοκινούμενα αυτοκίνητα.

Πιθανώς ο κύριος λόγος αυτή τη στιγμή που μπορεί να παρατηρήσουν τα αυτόνομα οχήματα είναι ο παράγοντας ερεθισμού και εκνευρισμού. Τα bythe-book συστήματα οδήγησης τεχνητής νοημοσύνης διασφαλίζουν ότι τα αυτοκίνητα τηρούν όλα τα όρια ταχύτητας και τους κανόνες του δρόμου. Για τους ταραχώδεις οδηγούς με τα παραδοσιακά αυτοκίνητά τους που οδηγούνται από ανθρώπους, εκνευρίζεστε κατά καιρούς όταν κολλάτε πίσω από τα αυστηρά νομοθετικά αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη.

Αυτό είναι κάτι που ίσως χρειαστεί να το συνηθίσουμε όλοι, δικαίως ή αδίκως.

Επιστροφή στο παραμύθι μας. Μια μέρα, ας υποθέσουμε ότι ένα αυτοοδηγούμενο αυτοκίνητο στην πόλη ή την πόλη σας οδηγεί και συναντά μια κατάσταση όπου ένας πεζός περιμένει να διασχίσει το δρόμο. Ας υποθέσουμε ότι ο πεζός δεν έχει δικαίωμα διέλευσης από μόνος του. Ένα αυτοκίνητο που οδηγείται από ανθρώπους θα μπορούσε να περάσει δίπλα από τον πεζό και να το κάνει απολύτως νόμιμο. Ομοίως, το σύστημα οδήγησης τεχνητής νοημοσύνης μπορεί νόμιμα να προσπεράσει τον πεζό που περιμένει.

Το να αποφασίσει αν θα σταματήσει και θα αφήσει τον πεζό να περάσει απέναντι είναι εντελώς διακριτικό για τον οδηγό, ανεξάρτητα από το αν είναι άνθρωπος οδηγός ή σύστημα οδήγησης τεχνητής νοημοσύνης.

Είμαι βέβαιος ότι έχετε αντιμετωπίσει τέτοιες καταστάσεις αμέτρητες φορές. Ίσως βιάζεστε, για να μην σταματήσετε να αφήσετε τον πεζό να περάσει. Σε άλλη περίπτωση, έχετε άφθονο χρόνο για να φτάσετε στον προορισμό σας, επομένως επιλέγετε να σταματήσετε και να επιτρέψετε στο άτομο που περιμένει να περπατήσει απέναντι. Η διάθεσή σας και οι ιδιαίτερες συνθήκες υπαγορεύουν τι θα επιλέξετε να κάνετε.

Τίποτα σχετικά με αυτό το σενάριο δεν φαίνεται ασυνήθιστο ή ενοχλητικό.

Πριν εξετάσω την πλευρά των πραγμάτων με την τεχνητή νοημοσύνη, μπορεί να σας ενδιαφέρει να μάθετε ότι αυτή η συγκεκριμένη πτυχή της διακριτικής ευχέρειας που επιτρέπει σε έναν πεζό να διασχίσει έναν δρόμο έχει μελετηθεί προσεκτικά. Οι ερευνητές έχουν εντοπίσει ότι κατά καιρούς η επιλογή του οδηγού μπορεί να εξαρτάται προφανώς από φυλετικές ή φυλετικές προκαταλήψεις. Ένας ανθρώπινος οδηγός μπορεί να αυξήσει το μέγεθος του πεζού που περιμένει και να επιλέξει να επιτρέψει στο άτομο να διασχίσει φαινομενικά με βάση τις εγγενείς προκαταλήψεις του οδηγού. Το αν ο οδηγός συνειδητοποιεί ότι το κάνει είναι θέμα συνεχούς έρευνας. Δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ.

Έχω θέσει τις βάσεις για να εξερευνήσουμε τι μπορεί να κάνει ένα σύστημα οδήγησης τεχνητής νοημοσύνης σε περίπτωση διάβασης πεζών.

Ο συμβατικός προγραμματισμός της τεχνητής νοημοσύνης μπορεί να συνεπάγεται ότι οι προγραμματιστές τεχνητής νοημοσύνης αποφασίζουν να σταματούν πάντα το σύστημα οδήγησης τεχνητής νοημοσύνης και να αφήνουν τον πεζό να διασχίσει. Αυτό φαίνεται να είναι το ηθικά σωστό ή αστικό πράγμα που πρέπει να κάνουμε. Το αυτοοδηγούμενο αυτοκίνητο αναβάλλει στον άνθρωπο που περιμένει που θέλει να διασχίσει το δρόμο.

Τολμώ να πω, αν ήσασταν επιβάτης μέσα σε ένα αυτοοδηγούμενο αυτοκίνητο και η τεχνητή νοημοσύνη σταματούσε πάντα για όλους τους πεζούς που περιμένουν με διακριτικότητα, μπορεί να τρελαθείτε. Το γρήγορο ταξίδι σας στο παντοπωλείο μπορεί να πάρει πολλές φορές περισσότερο χρόνο για να πραγματοποιηθεί. Θυμηθείτε επίσης ότι δεν αναφερόμαστε σε πεζούς που έχουν το ευσεβές νόμιμο δικαίωμα διέλευσης, καθώς σε αυτές τις περιπτώσεις προφανώς θα έχει ήδη προγραμματιστεί η τεχνητή νοημοσύνη να επιτρέπει πάντα. Εστιάζουμε μόνο στις διακριτικές περιστάσεις.

Υπάρχουν περισσότερα μειονεκτήματα σε αυτή τη δήλωση ότι σταματάμε πάντα για να αφήνουμε διακριτικούς πεζούς να διασχίζουν το δρόμο.

Αυτοί που κατασκευάζουν και διαθέτουν αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη θέλουν οι άνθρωποι να επιβαίνουν σε αυτά. Η ιδέα είναι ότι έχοντας αυτοοδηγούμενα αυτοκίνητα, θα μπορούσαμε να μειώσουμε τον αριθμό των ετήσιων τροχαίων ατυχημάτων, τα οποία επί του παρόντος προκαλούν περίπου 40,000 θανάτους ετησίως και 2.5 εκατομμύρια τραυματισμούς μόνο στις Ηνωμένες Πολιτείες, δείτε τη συλλογή στατιστικών μου στο αυτό το σύνδεσμο εδώ. Εκτός από αυτόν τον σεβαστό κοινωνικό στόχο, οι αυτοκινητοβιομηχανίες και οι κατασκευαστές τεχνολογίας αυτόνομης οδήγησης ελπίζουν να κερδίσουν χρήματα από τις δημιουργίες τους με τεχνητή νοημοσύνη, φυσικά.

Το αναφέρω αυτό γιατί οι άνθρωποι μπορεί να αποφασίσουν να μην οδηγούν αυτοκίνητα αν το σύστημα οδήγησης AI κάνει πράγματα που ΧΩΡΙΣ λογο καταλήγουν να καθυστερούν τα ταξίδια. Οποιοσδήποτε καθημερινός άνθρωπος θα μπορούσε να σκεφτεί ότι επιλέγοντας έναν άνθρωπο οδηγό το ταξίδι μπορεί να είναι πιο γρήγορο και, επομένως, η επιλογή ενός αυτοοδηγούμενου αυτοκινήτου με τεχνητή νοημοσύνη για ένα ταξίδι μπορεί να βρεθεί πολύ χαμηλά στη λίστα των επιλογών του. Αυτό με τη σειρά του θα σήμαινε ότι δεν θα είχαμε την επιδιωκόμενη μείωση των τροχαίων ατυχημάτων και επίσης ότι οι κατασκευαστές θα θεωρούσαν ενδεχομένως τα προϊόντα τους ασύμφορα.

Δεδομένου αυτού του συνόλου επιχειρημάτων, μπορεί να σας παρακινήσει να σκεφτείτε ότι η τεχνητή νοημοσύνη δεν θα πρέπει ποτέ να σταματήσει όταν εμφανίζεται μια διακριτική περίπτωση ενός πεζού που θέλει να διασχίσει το δρόμο. Απλώς προγραμματίστε το σύστημα οδήγησης AI να κάνει ό,τι είναι αυστηρά νόμιμο. Εάν δεν υπάρχει νομική απαίτηση να αφήσετε έναν πεζό να περάσει, τότε σκληρή τύχη για αυτόν τον πεζό που περιμένει. Ίσως το άτομο θα πρέπει να φτάσει σε ένα σημείο διέλευσης που επιτρέπει τη νομική βάση της τεχνητής νοημοσύνης που σταματά το αυτοοδηγούμενο αυτοκίνητο.

Μπορείτε να φανταστείτε την κατακραυγή για αυτό;

Οι άνθρωποι στην πόλη ή την πόλη σας ανακαλύπτουν σταδιακά ότι τα αυτοοδηγούμενα αυτοκίνητα με τεχνητή νοημοσύνη δεν θα επιτρέψουν ποτέ σε έναν διακριτικό πεζό να περάσει. Αυτό το καταραμένο οργισμένο AI! Είναι σαν το AI να χτυπά τη μύτη του στους ανθρώπους. Ένα κακομαθημένο παλληκάρι ενός κομματιού μη καλού αυτοματισμού. Για να το ολοκληρώσετε, φανταστείτε ότι υπάρχουν τεκμηριωμένες περιστάσεις πεζών που χρειάζονται απεγνωσμένα να περάσουν και η τεχνητή νοημοσύνη δεν θα σταματούσε καθόλου.

Εν τω μεταξύ, άνθρωποι οδηγοί σταματούσαν πρόθυμα για να αφήσουν αυτούς τους «απελπισμένους» ανθρώπους να περάσουν με ασφάλεια τον δρόμο.

Ως αποτέλεσμα αυτής της αγανάκτησης, τα αυτοοδηγούμενα αυτοκίνητα με τεχνητή νοημοσύνη δεν είναι πλέον ευπρόσδεκτα στους δρόμους και τις παρακάμψεις της περιοχής σας. Οι άδειες που είχαν εκδοθεί από τους άρχοντες της πόλης ανακαλούνται. Το να απομακρύνουμε τους αχάριστους βάναυσους από τους δρόμους μας είναι η φωνητική βοή.

Εντάξει, φαίνεται να βρισκόμαστε ανάμεσα σε ένα βράχο και ένα σκληρό μέρος. Η τεχνητή νοημοσύνη δεν πρέπει πάντα να αφήνει τον διακριτικό πεζό να διασχίζει (μην σταματάτε πάντα). Η τεχνητή νοημοσύνη δεν θα πρέπει πάντα να εμποδίζει έναν διακριτικό πεζό να περάσει (μην κάνετε πάντα μεγέθυνση). Τι να κάνω?

Η προφανής απάντηση θα ήταν ο προγραμματισμός της τεχνητής νοημοσύνης να ενεργεί με διακριτικό τρόπο.

Σας ζητώ να εξετάσετε το ADM (αλγοριθμική λήψη αποφάσεων) από το οποίο θα έπρεπε να αποτελείται. Θα προσπαθήσει η τεχνητή νοημοσύνη να ανιχνεύσει τη φύση του πεζού και να χρησιμοποιήσει τα χαρακτηριστικά που διακρίνονται ως βάση για να αποφασίσει εάν θα σταματήσει το αυτοοδηγούμενο αυτοκίνητο ή όχι; Ίσως κάποιος μεγαλύτερης ηλικίας να είναι ο τρόπος να επιλέξει. Αλλά είναι αυτή η διάκριση λόγω ηλικίας; Και ούτω καθεξής.

Ίσως το σύστημα οδήγησης AI είναι προγραμματισμένο να σταματά κατά τη διάρκεια της ημέρας και να μην σταματά ποτέ κατά τη διάρκεια της νύχτας. Η λογική πιθανώς είναι ότι θεωρείται ασφαλέστερο για τους αναβάτες του αυτοοδηγούμενου αυτοκινήτου ότι το αυτόνομο όχημα σταματάει κατά τη διάρκεια της ημέρας αλλά όχι τις πιο δύσκολες ώρες της βραδινής ώρας.

Αυτό ίσως ακούγεται λογικό. Μέρος του προβλήματος θα είναι οι προσδοκίες των πεζών. Να τι εννοώ. Οι πεζοί βλέπουν τα αυτοοδηγούμενα αυτοκίνητα με τεχνητή νοημοσύνη να σταματούν για διακριτικές διαβάσεις, κάτι που συμβαίνει στο φως της ημέρας. Οι πεζοί δεν γνωρίζουν ποια κριτήρια χρησιμοποιεί η τεχνητή νοημοσύνη για να αποφασίσει να σταματήσει. Η υπόθεση ορισμένων πεζών είναι ότι η τεχνητή νοημοσύνη θα σταματά πάντα (μη συνειδητοποιώντας ότι το φως της ημέρας έναντι της νύχτας είναι ο πραγματικός καθοριστικός παράγοντας). Ως αποτέλεσμα, εκείνοι οι πεζοί που πιστεύουν ότι το αυτοοδηγούμενο αυτοκίνητο θα σταματά πάντα θα ρισκάρουν και θα αρχίσουν να διασχίζουν όταν το σύστημα οδήγησης AI δεν στοχεύει καθόλου να σταματήσει (το οποίο, το AI πιθανότατα θα σταματήσει εάν ο πεζός μπαίνει στο δρόμο, αν και αυτό θα μπορούσε να είναι ζοφερό και η φυσική μπορεί να αποκλείσει την τεχνητή νοημοσύνη από το να σταματήσει το αυτοοδηγούμενο αυτοκίνητο ανεπαρκή χρόνο για να αποφύγει το χτύπημα του φαινομενικά «πλανητικού» πεζού).

Ας υποθέσουμε ότι οι προγραμματιστές τεχνητής νοημοσύνης και οι εταιρείες που συναρμολογούν και κατασκευάζουν τα αυτό-οδηγούμενα αυτοκίνητα στην πόλη σας δεν είναι σίγουροι για το πώς να βελτιώσουν την τεχνητή νοημοσύνη σε αυτό το θέμα.

Αποφασίζουν να «εκπαιδεύσουν» το AI σε δεδομένα που συλλέγονται από όλη την περιοχή. Αποδεικνύεται ότι υπάρχουν πολλές κάμερες τοποθετημένες στην πόλη που έχουν καταγράψει τις πηγαινοερχόμενες αυτοκίνητα σε όλο τον δήμο. Αυτά τα δεδομένα δείχνουν πολλές περιπτώσεις πεζών που επιδιώκουν να διασχίσουν το δρόμο με διακριτικό τρόπο. Όλα τα δεδομένα τροφοδοτούνται σε ένα σύστημα μηχανικής μάθησης και βαθιάς μάθησης για να εξαχθεί αυτό που θεωρείται συνηθισμένο σε αυτήν τη δικαιοδοσία.

Εκπαιδεύουμε την τεχνητή νοημοσύνη να κάνει αυτό που επιδεικνύουν τα τοπικά ηθικά ήθη;

Με άλλα λόγια, εάν μια δεδομένη πόλη είχε μια τοπική κουλτούρα που τείνει περισσότερο να σταματά και να αφήνει διακριτικούς πεζούς να διασχίζουν, όπως αποδεικνύεται από τις ενέργειες του ανθρώπινου οδηγού, το ML/DL δυνητικά θα έπαιρνε υπολογιστικά αυτό το μοτίβο. Στη συνέχεια, η τεχνητή νοημοσύνη θα εκπαιδευτεί να κάνει το ίδιο. Στο άλλο άκρο, εάν οι άνθρωποι οδηγοί σταματούν σπάνια, η τεχνητή νοημοσύνη θα έπαιρνε ενδεχομένως αυτό το «μάθημα» από την υπολογιστική ανάλυση των δεδομένων. Το AI θα κάνει όπως κάνουν οι άνθρωποι, κάπως.

Ο ισχυρισμός είναι ότι οι ηθικές συμπεριφορές των ανθρώπων αποτυπώνονται στα δεδομένα και ότι η τεχνητή νοημοσύνη πρόκειται να διαποτίσει αυτές τις ίδιες ηθικές αρχές μέσω υπολογιστικής ανάλυσης. Ένας ηθικολόγος θα το περιέγραφε γενικά ως μια κοινοτική προσέγγιση της ηθικής. Οι κοινές αξίες της κοινότητας αντικατοπτρίζονται στις προσπάθειες της κοινότητας γενικότερα.

Αυτό μπορεί να φαίνεται σαν μια κομψή λύση.

Δυστυχώς, υπάρχουν πολλές παγίδες.

Ένα ίσως προφανές πρόβλημα είναι ότι οι άνθρωποι οδηγοί μπορεί ήδη να ασκούν κάποια μορφή μεροληψίας στην επιλογή να σταματήσουν ή να μην σταματήσουν (όπως αναφέρθηκε προηγουμένως). Η τεχνητή νοημοσύνη θα είναι τότε αντιγραφή αυτών των προκαταλήψεων. Θέλουμε να είναι έτσι;

Σκεφτείτε ένα άλλο πρόβλημα. Ας υποθέσουμε ότι οι άνθρωποι οδηγοί δεν αποδέχονται εύκολα τον τρόπο λειτουργίας των αυτοοδηγούμενων αυτοκινήτων με τεχνητή νοημοσύνη. Ακριβώς επειδή οι άνθρωποι οδηγοί ήταν, ας πούμε, πρόθυμοι να σταματήσουν, αυτό μπορεί να μην θεωρηθεί εξίσου για τα αυτόνομα αυτοκίνητα. Μπορεί οι άνθρωποι να εκνευρίζονται από τα αυτοοδηγούμενα αυτοκίνητα με τεχνητή νοημοσύνη που συνεχίζουν να σταματούν για διακριτικούς πεζούς, παρόλο που το ίδιο συμβαίνει από ανθρώπους οδηγούς, αλλά αυτό δεν φαίνεται να ενοχλεί τους ανθρώπινους οδηγούς.

Εκτός από το να είναι ενοχλητικό, μπορείτε επίσης να φανταστείτε την πιθανότητα οι άνθρωποι οδηγοί να οδηγούν άθελά τους προς τα πίσω αυτοκίνητα αυτόνομης οδήγησης. Εάν ένας άνθρωπος οδηγός δεν περίμενε ότι το αυτο-οδηγούμενο αυτοκίνητο θα σταματήσει για έναν πεζό, και εάν το αυτοκίνητο που οδηγείται από τον άνθρωπο βρίσκεται ακριβώς πίσω από το αυτο-οδηγούμενο αυτοκίνητο, μπορεί να προκύψει τρομερή αναντιστοιχία προσδοκιών. Το σύστημα οδήγησης τεχνητής νοημοσύνης σταματά το αυτοοδηγούμενο αυτοκίνητο. Ο ανθρώπινος οδηγός δεν περίμενε αυτή την ενέργεια. Ο άνθρωπος οδηγός χτυπά το αυτο-οδηγούμενο αυτοκίνητο. Ακολουθούν τραυματισμοί και πιθανώς θάνατοι.

Επισήμανα επίτηδες τις πιθανότητες ανθρώπινης βλάβης.

Ο πεζός που διασχίζει το δρόμο μπορεί να φαίνεται με μια γρήγορη ματιά ως μια ασήμαντη ερώτηση. Φαίνεται ότι κανείς δεν μπορεί να πληγωθεί με όποια μέθοδο η τεχνητή νοημοσύνη επιλέξει να σταματήσει ή να μην σταματήσει. Λανθασμένος! Υπάρχει πιθανότητα να χτυπηθεί ο πεζός. Υπάρχει πιθανότητα ένα αυτοκίνητο που οδηγείται από άνθρωπο να μπει στο αυτο-οδηγούμενο αυτοκίνητο. Ο οδηγός και οι επιβάτες του αυτοκινήτου που οδηγείται από ανθρώπους μπορεί να τραυματιστούν. Οι αναβάτες μέσα στο αυτοοδηγούμενο αυτοκίνητο μπορεί να τραυματιστούν. Πρόσθετες μεταθέσεις πιθανής ανθρώπινης βλάβης οραματίζονται εύκολα.

Συμπέρασμα

Μιλώντας για ανθρώπινη βλάβη, θα σας δώσω κάτι άλλο για να σας ταράζει το μυαλό σε αυτό το αίνιγμα ηθικής τεχνητής νοημοσύνης.

Μια είδηση ​​ανέφερε ότι ένας άνδρας οδηγούσε ένα αυτοκίνητο σε μια διασταύρωση και είχε ένα πράσινο φως για να το κάνει. Ένα άλλο αυτοκίνητο που οδηγείται από ανθρώπους επέλεξε να τρέξει στο κόκκινο φανάρι της διασταύρωσης και παράνομα και με ασφάλεια μπήκε ανεμπόδιστα στη διασταύρωση, απειλώντας να χτυπήσει το αυτοκίνητο που κινούνταν νομίμως.

Ο οδηγός είπε στους δημοσιογράφους ότι έπρεπε να επιλέξει μεταξύ του χτυπήματος ή θα μπορούσε να στρίψει με το αυτοκίνητό του για να αποφύγει το χτύπημα, αλλά υπήρχαν πεζοί κοντά και η παρεκτροπή θα μπορούσε να θέσει σε κίνδυνο αυτούς τους ανθρώπους. Τι θα έκανες? Μπορείτε να επιλέξετε να χτυπηθείτε από αυτό το διαφαινόμενο αυτοκίνητο και ίσως ζωντανά να πείτε την ιστορία. Εναλλακτικά, μπορείτε να προσπαθήσετε να αποφύγετε το χτύπημα, αλλά εν τω μεταξύ να τρέξετε κάτω από αθώους πεζούς.

Μεγάλο μέρος της καθημερινής μας οδήγησης έχει τέτοιου είδους ηθικά τεράστιες και στιγμιαίες αποφάσεις που πρέπει να ληφθούν. Το έχω συζητήσει εκτενώς, μαζί με τη συσχέτιση αυτών των οδηγικών αποφάσεων ζωής ή θανάτου με το περίφημο ή κάποιο ας πούμε περίφημο πρόβλημα του τρόλεϊ, δείτε την επεξεργασία μου στο ο σύνδεσμος εδώ.

Αντικαταστήστε τον ανθρώπινο οδηγό σε αυτό το σενάριο με ένα σύστημα οδήγησης AI.

Τι θέλετε να κάνει το AI;

Αυτή είναι μια περίπλοκη ερώτηση.

Μια προσέγγιση είναι ο προγραμματισμός της τεχνητής νοημοσύνης ώστε να κάνει δυναμικά την κίνηση καθαρά ευθεία, επομένως ούτε καν υπολογιστικά να εξετάζει άλλες επιλογές, όπως η απομάκρυνση από την πιθανή σύγκρουση. Θα περίμενα ότι οι αναβάτες σε αυτοοδηγούμενα αυτοκίνητα θα αναστατωθούν όταν μάθουν ότι η τεχνητή νοημοσύνη δεν επινοήθηκε για να κάνει τίποτα άλλο από το να χτυπήσει. Μπορείτε να περιμένετε μηνύσεις και σάλο.

Μια άλλη προσέγγιση θα ήταν να προσπαθήσουμε να προγραμματίσουμε την τεχνητή νοημοσύνη ώστε να εξετάσει τις διάφορες δυνατότητες. Ποιος όμως μπορεί να δημιουργήσει το ADM που αποφασίζει προς ποια κατεύθυνση θα ακολουθήσει το σύστημα οδήγησης AI; Φαίνεται ότι το να επιτραπεί στους προγραμματιστές τεχνητής νοημοσύνης να λαμβάνουν τέτοιες βαριές αποφάσεις από μόνοι τους είναι γεμάτο με άφθονες ανησυχίες.

Θα μπορούσατε να προσπαθήσετε να αφήσετε την τεχνητή νοημοσύνη να «μάθει» από δεδομένα ανθρώπινης οδήγησης που συλλέγονται από καθημερινές καταστάσεις κυκλοφορίας. Αυτό είναι παρόμοιο με το δίλημμα της διάβασης πεζών και την προηγούμενη προτεινόμενη ιδέα της χρήσης συγκεντρωμένων δεδομένων για να συλλέξει η τεχνητή νοημοσύνη όποια και αν ήταν τα τοπικά ηθικά ήθη. Υπάρχουν πολλές προειδοποιήσεις σχετικά με αυτό, όπως εάν τα μοτίβα που ανακαλύφθηκαν ML/DL είναι κατάλληλα ή όχι, κ.λπ.

Είχα επίσης προειδοποιήσει ότι υπάρχει πιθανότητα η τεχνητή νοημοσύνη να συλλέξει ίσως ανήθικη συμπεριφορά, ανάλογα με τα ηθικά ήθη που εμπλέκονται. Για παράδειγμα, ας υποθέσουμε ότι η τεχνητή νοημοσύνη προσγειώθηκε με κάποιο τρόπο σε ένα υπολογιστικό μοτίβο για να στοχεύει πάντα τους πεζούς κάθε φορά που ένα άλλο αυτοκίνητο απειλούσε να χτυπήσει το αυτοοδηγούμενο αυτοκίνητο.

Ωχ, προσέχετε τους πεζούς, θα είστε έτοιμοι στόχοι.

Ώρα να κλείσουμε τη συζήτηση προς το παρόν και να το κάνουμε με μια ενθαρρυντική τελική σκέψη.

Ίσως γνωρίζετε ότι ο Isaac Asimov πρότεινε τους «Τρεις νόμους της ρομποτικής» το 1950 και μέχρι σήμερα είμαστε ερωτευμένοι με αυτούς τους διακηρυγμένους κανόνες. Αν και οι κανόνες φαίνονται να είναι εύκολα δεκτοί, όπως ότι ένα σύστημα τεχνητής νοημοσύνης ή ένα ρομπότ δεν πρέπει να βλάψει έναν άνθρωπο και ούτε να επιτρέπει σε έναν άνθρωπο να βλάψει, υπάρχουν πολλές κρίσιμες αποχρώσεις που καθιστούν αυτό το περίπλοκο και μερικές φορές αβάσιμο, δείτε την ανάλυσή μου στο ο σύνδεσμος εδώ.

Σε κάθε περίπτωση, εδώ είναι και κάτι άλλο για το οποίο είναι επίσης γνωστός ο Ασίμοφ, αν και λιγότερο: «Ποτέ μην αφήνεις την ηθική σου αίσθηση να εμποδίζει να κάνεις το σωστό».

Για την ηθική τεχνητή νοημοσύνη που όλοι ελπίζουμε να επινοήσουμε, πρέπει να έχουμε κατά νου ότι η εμποτισμένη ηθική της τεχνητής νοημοσύνης μπορεί να μην είναι αυτή που περιμέναμε και ότι κατά κάποιο τρόπο η τεχνητή νοημοσύνη θα πρέπει να κάνει ό,τι είναι σωστό. Καλά τα είπε ο Ασίμοφ. Πολύ πριν, ο Αριστοτέλης φαινόταν να σκέφτεται αρκετά παρόμοια συναισθήματα.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- η-υπόθεση-με-ai-σε-αυτόνομα-αυτο-οδηγούμενα-αυτοκίνητα/