Ηθική της τεχνητής νοημοσύνης παλεύει με τα αναπόφευκτα ατυχήματα της τεχνητής νοημοσύνης, τα οποία έρχονται και πάνω από τα αυτόνομα αυτοοδηγούμενα αυτοκίνητα

Ίσως γνωρίζετε κάποιον που φαίνεται να είναι ιδιαίτερα επιρρεπής σε ατυχήματα;

Φαίνεται ότι το κάνουμε όλοι.

Ίσως το άτομο είναι εκείνο το είδος που μπορεί να γλιστρήσει πάνω σε μια μπανανόφλουδα ή να χτυπήσει πάνω από ένα πολύτιμο βάζο στο σαλόνι σας. Αποτελούν ανθρώπινο μαγνήτη για ατυχήματα του ενός ή του άλλου είδους. Θα μπορούσε να είναι τόσο κακό που να μην αισθάνεστε ακόμη και να είστε κοντά τους μερικές φορές. Μπορεί να πάθεις τη δυσοίωνη υπερχείλιση ή να υποστείς τις άδοξες συνέπειες ενός από τα δυσάρεστα ατυχήματά τους.

Αλλά ίσως είμαστε υπερβολικά σκληροί όταν υποδηλώνουμε ότι κάποιος έχει μεγαλύτερη προδιάθεση για ατυχήματα από άλλους. Θα μπορούσε να προβληθεί ένα επιχείρημα ότι ατυχήματα μπορεί να συμβούν σε οποιονδήποτε από εμάς. Όλοι μας υπόκεινται στην πιθανότητα να διαπράξουμε ή να εμπλακούμε σε ένα ατύχημα. Συμπεριλαμβάνονται οι καλύτεροι από εμάς.

Ας βάλουμε πάνω σε αυτή τη συζήτηση μια επιπλέον ενοχλητική ερώτηση.

Είναι τα ατυχήματα αναπόφευκτα;

Με άλλα λόγια, ανεξάρτητα από το πόσο σκληρά μπορεί να προσπαθήσουμε να αποτρέψουμε τα ατυχήματα, θα μπορούσε να είναι αναπόσπαστο ότι, ωστόσο, υπάρχει ακόμη η πιθανότητα και η απόλυτη βεβαιότητα ότι θα συμβούν ατυχήματα. Μπορείτε να προσπαθήσετε να προστατέψετε τον κόσμο από ατυχήματα. Αυτό φαίνεται αναμφίβολα συνετό. Αλλά με τον ένα ή τον άλλο τρόπο, τα ατυχήματα θα εξακολουθούν να σηκώνουν το άσχημο κεφάλι τους.

Όπως λένε, τα ατυχήματα περιμένουν να συμβούν.

Μπορεί να είναι χρήσιμο να διευκρινιστεί τι σημαίνει η αναφορά σε κάποιο συμβάν που χαρακτηρίζεται κατάλληλα ως ατύχημα. Ο συνηθισμένος ορισμός του λεξικού είναι ότι ένα ατύχημα είναι ένας τύπος περιστατικού που συμβαίνει απροσδόκητα και ακούσια, για το οποίο υπάρχει ένα ατυχές αποτέλεσμα που αποτελείται από μια φαινομενική ζημιά ή τραυματισμό.

Ξεσυσκευάστε προσεκτικά αυτόν τον ορισμό.

Το εν λόγω περιστατικό είναι απροσδόκητο. Αυτό σημαίνει ότι δεν φαίνεται να συνειδητοποιήσαμε ότι θα προέκυπτε το ίδιο το ατύχημα.

Το εν λόγω περιστατικό είναι ακούσιο. Αυτό υποδηλώνει ότι πρέπει να αποκλείσουμε τις περιστάσεις στις οποίες κάποιος επιχείρησε σκόπιμα να συμβεί το περιστατικό. Εάν ένας φαρσέρ τοποθετήσει μια μπανανόφλουδα στο πάτωμα όπου ξέρει ότι θα πατήσει ένας άτυχος και ανυποψίαστος αθώος, θα δυσκολευτείτε να ισχυριστείτε ότι το άτομο που σκόνταψε πάνω της είχε πάθει ατύχημα. Αντίθετα, εξαπατήθηκαν και οδηγήθηκαν ύπουλα σε μια παγίδα.

Ο ορισμός περιλαμβάνει επίσης το κριτήριο ότι το αποτέλεσμα είναι ατυχές. Ένα ατύχημα υπό αυτό το πρίσμα πρέπει να οδηγήσει σε άσχημο αποτέλεσμα. Το άτομο που χτύπησε κατά λάθος ένα βάζο έχει ραγίσει και πιθανώς να έχει καταστρέψει το απολαυστικό αντικείμενο που δεν μπορεί να επισκευαστεί. Ο ιδιοκτήτης του αγγείου βλάπτεται από την απώλεια της αξίας του. Το άτομο που έτρεξε στο βάζο μπορεί τώρα να χρωστάει στον ιδιοκτήτη για την απώλεια. Ο παράδεισος να μην έχει κοπεί ή να έχει κοπεί κάποιος από το σπάσιμο του αγγείου.

Για λόγους ίσης ισορροπίας, θα θέλαμε να σημειώσουμε ότι υπάρχουν επίσης τα λεγόμενα «καλά» ατυχήματα. Ένα άτομο θα μπορούσε να βρεθεί σε μεγάλη περιουσία ή να αποκομίσει κάποιο άλλο ζωτικό όφελος λόγω του αποτελέσματος ενός ατυχήματος. Ένα από τα πιο συχνά αναφερόμενα παραδείγματα είναι ο Sir Alexander Fleming και η αναγνωρισμένη ανακάλυψη της πενικιλίνης. Η ιστορία λέει ότι ήταν λίγο απρόσεκτος στο εργαστήριό του και όταν επέστρεφε από διακοπές δύο εβδομάδων βρήκε ένα καλούπι σε ένα από τα πιάτα καλλιέργειας του. Σύμφωνα με πληροφορίες, είπε για το θέμα: «Κάποιος μερικές φορές βρίσκει αυτό που δεν ψάχνει. Όταν ξύπνησα λίγο μετά την αυγή της 28ης Σεπτεμβρίου 1928, σίγουρα δεν σχεδίαζα να φέρω επανάσταση σε όλη την ιατρική ανακαλύπτοντας το πρώτο αντιβιοτικό ή βακτηριακό δολοφόνο στον κόσμο. Αλλά υποθέτω ότι αυτό ακριβώς έκανα».

Θα παραμερίσουμε τα ευνοϊκά ατυχήματα και θα εστιάσουμε εδώ στα θλιβερά ατυχήματα. Η εκδοχή των ατυχημάτων είναι όπου αυτές οι αρνητικές συνέπειες μπορεί να είναι ιδιαίτερα απειλητικές για τη ζωή ή να έχουν επαχθή αποτελέσματα. Όσο το δυνατόν περισσότερο, τα αρνητικά ατυχήματα που θέλουμε να ελαχιστοποιήσουμε (και, φυσικά, τα ανοδικά ατυχήματα που θα θέλαμε να μεγιστοποιήσουμε, αν αυτό είναι εφικτό, αν και θα καλύψω αυτήν την παραλλαγή χαμογελαστού προσώπου σε επόμενη στήλη).

Θα ήθελα να επαναδιατυπώσω ελαφρώς την προηγούμενη ερώτηση σχετικά με το αναπόφευκτο των ατυχημάτων. Μέχρι στιγμής, έχουμε κρατήσει την προσοχή μας σε ατυχήματα που συμβαίνουν στη συγκεκριμένη περίπτωση ενός μεμονωμένου ατόμου. Δεν υπάρχει αμφιβολία ότι τα ατυχήματα μπορούν επίσης να επηρεάσουν ένα πλήθος ανθρώπων ταυτόχρονα. Αυτό μπορεί να συναντηθεί ιδιαίτερα όταν οι άνθρωποι βυθίζονται σε ένα περίπλοκο σύστημα του ενός ή του άλλου είδους.

Ετοιμαστείτε για μια παραλλαγή της προηγούμενης ερώτησης.

Είναι αναπόφευκτα τα ατυχήματα του συστήματος;

Θα πρέπει να το σκεφτούμε αυτό.

Ας υποθέσουμε ότι ένα εργοστασιακό δάπεδο έχει διαμορφωθεί για την κατασκευή ανταλλακτικών για αυτοκίνητα. Αυτοί που σχεδίασαν το εργοστάσιο ανησυχούν ας πούμε εξαιρετικά για εργατικά ατυχήματα που μπορεί να συμβούν. Οι εργαζόμενοι στα εργοστάσια υποχρεούνται να φορούν κράνη ανά πάσα στιγμή. Οι πινακίδες στο εργοστάσιο προτρέπουν να προσέχετε τα ατυχήματα και να είστε προσεκτικοί στην εργασία σας. Λαμβάνονται όλα τα μέτρα προφύλαξης για την αποφυγή ατυχημάτων.

Σε αυτό το σύστημα, ίσως ελπίζουμε ότι κανείς δεν θα υποστεί ποτέ ατύχημα. Πιστεύετε ότι υπάρχει μηδενική πιθανότητα να συμβεί ένα ατύχημα; Θα τολμούσα να προτείνω ότι κανένας λογικός στοχαστής δεν θα στοιχηματίσει ότι η πιθανότητα ατυχήματος είναι μηδενική σε αυτή την περίπτωση. Οι πιθανότητες να συμβεί ένα ατύχημα μπορεί να είναι πολύ χαμηλές, ωστόσο εξακολουθούμε να γνωρίζουμε και να υποθέτουμε ότι, παρά όλες τις προφυλάξεις, εξακολουθεί να υπάρχει ένας μικρός κίνδυνος να συμβεί ένα ατύχημα.

Όλα αυτά υποδηλώνουν την ιδέα ότι σε ένα σύστημα επαρκούς πολυπλοκότητας είμαστε υποχρεωμένοι να πιστεύουμε ότι ατυχήματα θα εξακολουθήσουν να συμβαίνουν, ανεξάρτητα από το πόσο σκληρά προσπαθούμε να τα αποτρέψουμε. Υποστηρίζουμε διστακτικά στη ρήτρα ότι τα ατυχήματα στο σύστημα είναι πράγματι αναπόφευκτα. Μια μεγαλειώδης δήλωση αυτού του διαμετρήματος θα μπορούσε να έχει μια προειδοποίηση ότι το σύστημα θα πρέπει να έχει κάποιο κατώφλι πολυπλοκότητας, έτσι ώστε να είναι ουσιαστικά αδύνατο να καλυφθούν όλες οι βάσεις για την πλήρη αποφυγή ατυχημάτων.

Τώρα έχετε εισαχθεί προσεκτικά βήμα-βήμα σε μια ευρεία θεωρία σχετικά με τα ατυχήματα που μπορούν να χαρακτηριστούν ως Κανονικά Ατυχήματα ή Θεωρία Κανονικών Ατυχημάτων (NAT). Ακολουθεί μια εύχρηστη περιγραφή από ερευνητές που εξέτασαν αυτήν την έννοια: «Σε αρκετά μεγάλη κλίμακα, οποιοδήποτε σύστημα θα προκαλέσει «κανονικά ατυχήματα». Πρόκειται για αναπόφευκτα ατυχήματα που προκαλούνται από συνδυασμό πολυπλοκότητας, σύζευξης μεταξύ εξαρτημάτων και πιθανής βλάβης. Ένα κανονικό ατύχημα διαφέρει από τα πιο συνηθισμένα ατυχήματα αστοχίας εξαρτημάτων, καθώς τα γεγονότα και οι αλληλεπιδράσεις που οδηγούν σε κανονικό ατύχημα δεν είναι κατανοητές από τους χειριστές του συστήματος» (όπως αναφέρεται στο «Κατανόηση και αποφυγή αστοχιών τεχνητής νοημοσύνης: Πρακτικός οδηγός» των Robert Williams και Ρομάν Γιαμπόλσκι, Φιλοσοφίες εφημερίδα).

Ο λόγος που σε έφερα στη χώρα των λεγόμενων κανονικά ατυχήματα είναι ότι ίσως χρειαστεί να εφαρμόσουμε προσεκτικά αυτή τη θεωρία σε κάτι που σταδιακά και αναπόφευκτα γίνεται πανταχού παρόν στην κοινωνία μας, δηλαδή την έλευση της Τεχνητής Νοημοσύνης (AI).

Ας εμβαθύνουμε σε αυτό.

Μερικοί άνθρωποι εσφαλμένα υποθέτουν ότι η τεχνητή νοημοσύνη θα είναι η τελειότητα. Τα συστήματα AI δεν θα κάνουν λάθη και δεν θα μας φέρουν σε μπελάδες, λένε οι εικασίες. Το μόνο που χρειάζεται να κάνετε είναι να βεβαιωθείτε ότι αυτοί οι προγραμματιστές τεχνητής νοημοσύνης κάνουν αρκετά καλή δουλειά και voila, η τεχνητή νοημοσύνη δεν θα κάνει ποτέ κάτι που θα μπορούσε να ερμηνευθεί ως τυχαίο ή ως πρόκληση ατυχήματος.

Όχι τόσο γρήγορα σε αυτή την υποθετική πεποίθηση. Εάν είστε διατεθειμένοι να αγοράσετε τη θεωρία του κανονικά ατυχήματα, κάθε AI οποιασδήποτε ουσιαστικής πολυπλοκότητας θα προκαλέσει αναπόφευκτα ένα ατύχημα. Ανεξάρτητα από το πόσο αργά τη νύχτα κάνουν αυτοί οι προγραμματιστές τεχνητής νοημοσύνης για να αποτρέψουν ένα ατύχημα, η τεχνητή νοημοσύνη σίγουρα κάποια στιγμή θα εμπλακεί σε ένα ατύχημα. Αυτός είναι ο τρόπος με τον οποίο θρυμματίζεται το μπισκότο. Και δεν υπάρχει ανάπαυλα κλαίγοντας στο χυμένο γάλα μας για αυτό.

Σκεφτείτε τη σύνθεση της AI και τις εννοιολογικές αρχές της κανονικά ατυχήματα.

Οραματιστείτε ότι έχουμε ένα σύστημα τεχνητής νοημοσύνης που ελέγχει τα πυρηνικά όπλα. Το AI έχει κατασκευαστεί προσεκτικά. Κάθε πιθανός έλεγχος και ισορροπία έχει κωδικοποιηθεί στο σύστημα AI. Είμαστε ασφαλείς από ένα ατύχημα που βασίζεται σε AI που μπορεί να συμβεί; Εκείνοι που υποστηρίζουν την άποψη των κανονικών ατυχημάτων θα έλεγαν ότι δεν είμαστε τόσο ασφαλείς όσο θα μπορούσε να υποτεθεί. Δεδομένου ότι η τεχνητή νοημοσύνη είναι πιθανό να είναι ιδιαίτερα περίπλοκη, ένα κανονικό ατύχημα περιμένει σιωπηλά εκεί μέσα να εμφανιστεί κάποια μέρα, ίσως τη χειρότερη δυνατή στιγμή.

Η ουσία αυτών των ακανθωδών ερωτήσεων και επιφυλάξεων είναι ότι πρέπει να είμαστε προσεκτικοί ότι η τεχνητή νοημοσύνη είναι βέβαιο ότι θα είναι φορτωμένη από ατυχήματα και η ανθρωπότητα πρέπει να κάνει κάτι λογικό και προληπτικό για τους κινδύνους που μπορεί να προκύψουν. Όπως θα δείτε σε μια ή δύο στιγμές, αυτό είναι ένα διαφαινόμενο ζήτημα όσον αφορά τη χρήση της τεχνητής νοημοσύνης, και ο τομέας της Ηθικής AI και της Ηθικής AI παλεύει αρκετά για το τι πρέπει να κάνει. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Πριν κατεβούμε σε μια τρύπα από κουνέλι, ας βεβαιωθούμε ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της τεχνητής νοημοσύνης. Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει κατά κάποιο τρόπο αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου που σας δίνει συμβουλές. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ). Όλα αυτά τα σενάρια θα ενίσχυαν την εκτίμηση της πηγής.

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), η οποία αξιοποιεί την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Συνολικά, μια γενική ελπίδα είναι ότι καθιερώνοντας μια αίσθηση των αρχών ηθικής της τεχνητής νοημοσύνης θα μπορέσουμε τουλάχιστον να αυξήσουμε την κοινωνική συνείδηση ​​για το τι μπορεί να κάνει η τεχνητή νοημοσύνη ευεργετικά και να παράγει αρνητικά. Έχω συζητήσει εκτενώς διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής της τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ίσως χρειαστεί να προσθέσουμε στις καταξιωμένες λίστες Δεοντολογίας της τεχνητής νοημοσύνης που πρέπει να εξετάσουμε ρητά και να αναλάβουμε απροκάλυπτα μέτρα για να αποτρέψουμε ή τουλάχιστον να μετριάζουμε δραστικά τη βασισμένη στην τεχνητή νοημοσύνη κανονικά ατυχήματα που μπορεί να συμβεί. Όσοι αναπτύσσουν τεχνητή νοημοσύνη πρέπει να κάνουν το καλύτερο δυνατό σε αυτό το μέτωπο. Εκείνοι που αναπτύσσουν AI πρέπει να κάνουν το ίδιο. Όσοι χρησιμοποιούν ή υπόκεινται με κάποιο τρόπο σε τεχνητή νοημοσύνη θα πρέπει να είναι επιφυλακτικοί και προσεκτικοί για την πιθανότητα ατυχημάτων με τεχνητή νοημοσύνη που φαινομενικά πρόκειται να προκύψουν.

Ίσως μπείτε στον πειρασμό να σκεφτείτε ότι μπορούν να ενσωματωθούν αρκετές προφυλάξεις στο AI ώστε οι πιθανότητες ατυχήματος να μηδενιστούν. Για εκείνους που είναι τεχνικοί, η συνήθης ύβρις είναι ότι εάν ένα κομμάτι της τεχνολογίας μπορεί να δημιουργήσει ένα πρόβλημα, ένα άλλο κομμάτι τεχνολογίας μπορεί σίγουρα να λύσει το πρόβλημα. Απλώς συνεχίστε να πετάτε όλο και περισσότερη τεχνολογία μέχρι να λυθεί το πρόβλημα.

Λοιπόν, εκείνοι που έχουν μελετήσει ατυχήματα προσανατολισμένα σε συστήματα θα τείνουν να διαφωνούν και να απαντούν ευγενικά στην υποτιθέμενη τεχνοτροπία προτείνοντας μια άποψη γνωστή ως Swiss Cheese Model (SCM): «Στο SCM, τα επίπεδα ασφάλειας διαμορφώνονται ως κομμάτια τυρί με τρύπες που αντιπροσωπεύουν αδύναμα σημεία σε κάθε στρώμα ασφαλείας. Με την πάροδο του χρόνου, οι τρύπες αλλάζουν σχήμα και μετακινούνται. Τελικά, ανεξάρτητα από το πόσες φέτες τυριού (στρώματα ασφαλείας) υπάρχουν, οι τρύπες θα ευθυγραμμιστούν επιτρέποντας μια ευθεία βολή μέσα από όλες τις φέτες τυριού (συμβαίνει ένα ατύχημα)» (σύμφωνα με την προηγούμενη αναφορά των Robert Williams και Roman Yampolskiy ).

Δεν θέλω να κολλήσω σε αυτήν την πλευρική εφαπτομένη σχετικά με το εάν υπάρχει ή όχι ένας εγγυημένος τρόπος προγραμματισμού της τεχνητής νοημοσύνης ώστε να αποτρέπεται πλήρως και πάντα κάθε πιθανότητα ατυχήματος. Υπάρχουν όλες οι προσεγγίσεις μαθηματικής και υπολογιστικής απόδειξης που δοκιμάζονται. Νομίζω ότι είναι λογικό και δίκαιο να δηλώσουμε ότι δεν έχουμε σήμερα μια επεκτάσιμη μέθοδο εργασίας ούτε τεχνολογίες που να μπορούν να εγγυηθούν μια τέτοια μηδενική πιθανότητα, συν ότι σίγουρα είμαστε γεμάτοι τόνους επί τόνους τεχνητής νοημοσύνης που παράγεται με άμμο γνωρίζω σίγουρα δεν έχει επιδιώξει να συμμορφωθεί με τέτοιες πρακτικές. Αυτό το τελευταίο σημείο είναι κρίσιμο, καθώς ακόμα κι αν μπορούμε να επινοήσουμε κάτι σε ένα εργαστήριο τεχνητής νοημοσύνης, η κλιμάκωση αυτού στις εκατοντάδες άγριες και ξέγνοιαστες προσπάθειες τεχνητής νοημοσύνης που βρίσκονται σε εξέλιξη και που θα συνεχίσουν να αναδύονται είναι ένα κομβικό ζήτημα και δεν είναι πιθανό να λυθεί ακόμα και αν μια υπολογιστική μηχανή αποδείξεως είναι ασήμι σφαίρα υπήρχε.

Ένα άλλο σημείο που πιστεύω ότι αξίζει μια σύντομη αναφορά είναι η τεχνητή νοημοσύνη που μετατρέπεται σε αβλαβείς ενέργειες ως αποτέλεσμα κακόβουλων ανθρώπινων παραγόντων. Δεν πρόκειται να τοποθετήσω αυτές τις περιπτώσεις στη σφαίρα των ατυχημάτων με τεχνητή νοημοσύνη. Θυμηθείτε ότι η εναρκτήρια συζήτηση πρότεινε ότι ο ορισμός του ατυχήματος στο λεξικό ήταν ένα περιστατικό ενός ατυχήματος ακούσιος φύση. Εάν ένας ανθρώπινος απατεώνας του κυβερνοχώρου καταφέρει να κάνει ένα σύστημα τεχνητής νοημοσύνης να κάνει κακά πράγματα, δεν κατατάσσω αυτό το AI ως ατύχημα. Πιστεύω ότι θα συμβαδίσετε με αυτό το τεκμήριο.

Μια ενδιαφέρουσα ερώτηση προκύπτει σχετικά με το πόσες από τις διάφορες ανεπιθύμητες ενέργειες της τεχνητής νοημοσύνης μπορούν να αποδοθούν σε καθαρά ένα ατύχημα με τεχνητή νοημοσύνη έναντι της δόλιας πράξης ενός κυβερνοεγκληματία. Σύμφωνα με ορισμένες από τις υπάρχουσες βάσεις δεδομένων αναφοράς περιστατικών τεχνητής νοημοσύνης, φαίνεται ότι τα ατυχήματα με τεχνητή νοημοσύνη συμβαίνουν περισσότερο από τα περιστατικά που προκαλούνται από κακόβουλο τρόπο, αν και πρέπει να λάβετε αυτή την ιδέα με μια μεγάλη δόση αλατιού. Το λέω αυτό γιατί υπάρχει μεγάλος πειρασμός να μην αναφέρετε πότε έγινε επίθεση σε ένα σύστημα τεχνητής νοημοσύνης και ίσως να είστε κάπως πιο πρόθυμοι να αναφέρετε όταν συμβαίνει ένα ατύχημα με τεχνητή νοημοσύνη.

Υπάρχει μια εξαιρετικά σημαντική προειδοποίηση που πρέπει να συζητήσουμε σχετικά με τα ατυχήματα με τεχνητή νοημοσύνη.

Η χρήση της συνθηματικής φράσης «ατυχήματα τεχνητής νοημοσύνης» είναι γενικά ανεπιθύμητη και πρόκειται να δημιουργήσει ένα μεγάλο χάος για όλους μας, που σημαίνει για όλη την κοινωνία. Όταν ένας άνθρωπος πιθανότατα έχει ένα ατύχημα, συχνά σηκώνουμε τους ώμους μας και είμαστε συμπονετικοί στο άτομο που είχε το ατύχημα. Φαίνεται ότι αντιμετωπίζουμε τη λέξη «ατύχημα» σαν να σημαίνει ότι κανείς δεν είναι υπεύθυνος για αυτό που συνέβη.

Ας πάρουμε το παράδειγμα της εμπλοκής σε τροχαίο ατύχημα. Ένα αυτοκίνητο στρίβει διάπλατα στη δεξιά στροφή και κατά λάθος πέφτει σε ένα άλλο αυτοκίνητο που πήγαινε ευθεία. Σοκ, ήταν απλώς ένα ατύχημα και έγινε κατά λάθος. Εκείνοι που δεν συμμετείχαν στο περιστατικό θα αφήσουν ίσως το θέμα να ξεφύγει εάν το συμβάν διατυπωθεί ως απλώς ένα ατύχημα που συνέβη.

Έχω την αίσθηση, ωστόσο, ότι αν ήσασταν στο αυτοκίνητο που χτυπήθηκε, δεν θα ήταν τόσο συμπαθητικός με τον οδηγό που έκανε την υπερβολικά μεγάλη στροφή. Η γνώμη σας θα ήταν σίγουρα ότι ο άλλος οδηγός ήταν ένας άθλιος οδηγός και ότι είτε μια φαινομενικά παράνομη ή ασύνετη οδήγηση οδήγησε στο ατύχημα. Ονομάζοντας το περιστατικό ως «ατύχημα», ο οδηγός που είχε κολλήσει βρίσκεται τώρα σε κάπως μειονεκτική θέση, καθώς φαίνεται ότι όλα συνέβησαν τυχαία, και όχι από τα χέρια του οδηγού που μπέρδεψε.

Στην πραγματικότητα, η λέξη «ατύχημα» είναι τόσο γεμάτη με ποικίλες έννοιες που σε γενικές γραμμές, οι κυβερνητικές στατιστικές για τα τροχαία ατυχήματα αναφέρονται στο θέμα ως συγκρούσεις αυτοκινήτων ή τροχαία, αντί να χρησιμοποιούν τη φράση τροχαία ατυχήματα. Μια σύγκρουση αυτοκινήτου ή ένα τροχαίο ατύχημα δεν φαίνεται να έχει καμία επίπτωση στο πώς προέκυψε το περιστατικό. Εν τω μεταξύ, η διατύπωση ενός «αυτοκινητικού ατυχήματος» σχεδόν μας κάνει να σκεφτούμε ότι ήταν μια ιδιορρυθμία της μοίρας ή κάπως έξω από τα χέρια της ανθρωπότητας.

Μπορείτε να δείτε άφθονα πώς γίνεται αυτή η υποδηλωτική σκέψη όταν αναφέρεται σε ατυχήματα τεχνητής νοημοσύνης. Δεν θέλουμε οι προγραμματιστές τεχνητής νοημοσύνης να κρύβονται πίσω από την υποδηλωτική ασπίδα ότι η τεχνητή νοημοσύνη προκάλεσε κατά λάθος κάποιον κακό. Το ίδιο ισχύει και για εκείνους που αναπτύσσουν AI. Θα μπορούσατε να υποστηρίξετε ότι η διατύπωση των «ατυχημάτων τεχνητής νοημοσύνης» είναι σχεδόν μια ανθρωπομορφοποίηση της τεχνητής νοημοσύνης που θα παραπλανήσει την κοινωνία ώστε να επιτρέψει στους ανθρώπους που βρίσκονταν στα παρασκήνια της τεχνητής νοημοσύνης να ξεφύγουν από την ευθύνη. Για τη συζήτησή μου σχετικά με την αυξανόμενη σημασία του να θεωρούνται οι άνθρωποι υπεύθυνοι για την τεχνητή νοημοσύνη τους, δείτε τη συζήτησή μου στο αυτό το σύνδεσμο εδώ και αυτό το σύνδεσμο εδώ.

Θα χρησιμοποιώ στο εξής τη συνθηματική φράση των ατυχημάτων τεχνητής νοημοσύνης, αλλά το κάνω διστακτικά και μόνο επειδή είναι ο συμβατικός τρόπος αναφοράς σε αυτό το φαινόμενο. Οι προσπάθειες να διατυπωθεί διαφορετικά αυτό τείνουν να είναι δυστυχώς πιο διογκωμένες και όχι τόσο ευανάγνωστες. Φροντίστε να ερμηνεύσετε τη συνθηματική φράση με τρόπο που να μην σας κάνει να κοιτάξετε από την άλλη πλευρά και να μην καταλάβετε ότι οι άνθρωποι που βρίσκονται κάτω από το AI είναι ένοχοι όταν η τεχνητή νοημοσύνη στραβώνει.

Για να σας βοηθήσουμε να δείξουμε την πιθανή σύγχυση ή τις παραπλανητικές πτυχές της αναφοράς στην τεχνητή νοημοσύνη ως πρόκληση ατυχημάτων, μπορούμε να επιστρέψουμε στις παρατηρήσεις μου σχετικά με το χτύπημα ενός βάζου. Σκεφτείτε αυτό το παράδειγμα τεχνητής νοημοσύνης: «Αυτό το πρόβλημα έχει να κάνει με πράγματα που γίνονται από ατύχημα ή αδιαφορία από την τεχνητή νοημοσύνη. Ένα ρομπότ καθαρισμού που χτυπά ένα βάζο είναι ένα παράδειγμα αυτού. Τα σύνθετα περιβάλλοντα έχουν τόσα πολλά είδη «βάζας» που είναι απίθανο να μπορέσουμε να προγραμματίσουμε ένα πέναλτι για όλες τις παρενέργειες» (σύμφωνα με την εργασία των Robert Williams και Roman Yampolskiy).

Ένα σύστημα τεχνητής νοημοσύνης που χρησιμοποιείται σε ένα νοικοκυριό και στη συνέχεια «τυχαία» χτυπά ένα βάζο φαίνεται να υποδηλώνει ότι κανείς δεν πρέπει να κατηγορηθεί για αυτήν την αρνητική ενέργεια του AI. Ήταν απλώς ένα ατύχημα, θα μπορούσε κανείς να κατακρίνει με θλίψη. Από την άλλη πλευρά, θα έπρεπε δικαίως να αναρωτηθούμε γιατί το σύστημα τεχνητής νοημοσύνης δεν ήταν προγραμματισμένο να χειρίζεται την περίσταση του αγγείου γενικά. Ακόμα κι αν οι προγραμματιστές τεχνητής νοημοσύνης δεν περίμεναν ότι ένα βάζο αυτό καθεαυτό εμπίπτει στο πεδίο των αντικειμένων που θα μπορούσαν να συναντήσουν, μπορούμε σίγουρα να αναρωτηθούμε γιατί δεν υπήρχε κάποια γενική αποφυγή αντικειμένων που θα εμπόδιζε το σύστημα τεχνητής νοημοσύνης να χτυπήσει το βάζο (επομένως, το AI μπορεί βεβαίως να μην ταξινομήσει το αγγείο ως αγγείο, αλλά θα μπορούσε να το είχε αποφύγει ως ανιχνεύσιμο αντικείμενο που πρέπει να αποφευχθεί).

Έχω προβλέψει και συνεχίζω να προβλέπω ότι σταδιακά οδεύουμε προς μια τεράστια νομική μάχη για την εμφάνιση συστημάτων τεχνητής νοημοσύνης που εμπλέκονται σε «ατυχήματα τεχνητής νοημοσύνης» και προκαλούν κάποιας μορφής βλάβη. Μέχρι στιγμής, η κοινωνία δεν έχει αντιδράσει με κανέναν σημαντικό τρόπο στη νομική απώθηση της τεχνητής νοημοσύνης που φτυαρίζεται στην αγορά και παράγει δυσμενείς συνέπειες, είτε εκ προθέσεως είτε ακούσια. Το σημερινό συγκρότημα της τεχνητής νοημοσύνης που έχει γίνει χρυσαυγίτης μισοψημένο κατασκευαστές τεχνητής νοημοσύνης και εκείνοι που εφαρμόζουν βιαστικά την ανάπτυξη της τεχνητής νοημοσύνης είναι τυχεροί αυτή τη στιγμή και παραμένουν σχετικά ανέγγιχτοι από αστικές αγωγές και ποινικές διώξεις.

Οι νομικές αντιδράσεις που προκαλούνται από AI έρχονται, αργά ή γρήγορα.

Προχωρώντας, πώς μπορούμε να προσπαθήσουμε να αντιμετωπίσουμε το αναπόφευκτο των λεγόμενων ατυχημάτων τεχνητής νοημοσύνης;

Ένα πράγμα που μπορούμε να κάνουμε αμέσως είναι να προσπαθήσουμε να προβλέψουμε πώς μπορεί να συμβούν ατυχήματα με τεχνητή νοημοσύνη. Προβλέποντας τα ατυχήματα τεχνητής νοημοσύνης, μπορούμε τουλάχιστον να επιδιώξουμε να επινοήσουμε μέσα για να τα περιορίσουμε ή να ελαχιστοποιήσουμε την πιθανότητα να συμβούν. Επιπλέον, μπορούμε να προσπαθήσουμε να τοποθετήσουμε προστατευτικά κιγκλιδώματα έτσι ώστε όταν συμβεί ατύχημα με τεχνητή νοημοσύνη, να μειώνονται οι πιθανότητες αποδεικτικής βλάβης.

Ένα χρήσιμο σύνολο παραγόντων που περιγράφηκαν στο προηγούμενο ερευνητικό άρθρο Κατανόηση και αποφυγή αποτυχιών AI: Ένας πρακτικός οδηγός περιλαμβάνει αυτές τις ιδιότητες (όπως αναφέρονται από την ερευνητική εργασία):

  • Το σύστημα που επηρεάζεται από τις εξόδους του AI.
  • Χρονική καθυστέρηση μεταξύ των εξόδων τεχνητής νοημοσύνης και του μεγαλύτερου συστήματος, παρατηρησιμότητα συστήματος, επίπεδο ανθρώπινης προσοχής και ικανότητα των χειριστών να διορθώσουν τη δυσλειτουργία του AI.
  • Η μέγιστη δυνατή ζημιά από κακόβουλη χρήση των συστημάτων που ελέγχει το AI.
  • Σύζευξη των στοιχείων σε γειτνίαση με το AI και πολυπλοκότητα των αλληλεπιδράσεων.
  • Χάσμα γνώσης για την τεχνητή νοημοσύνη και άλλες χρησιμοποιούμενες τεχνολογίες και το ενεργειακό επίπεδο του συστήματος.

Σε αυτή τη συγκυρία αυτής της έντονης συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά ενδεικτικά παραδείγματα που θα μπορούσαν να διευκρινίσουν περαιτέρω το θέμα των ατυχημάτων με τεχνητή νοημοσύνη. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να εντοπίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, έτσι ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με την εμφάνιση των λεγόμενων ατυχημάτων τεχνητής νοημοσύνης και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτο-οδηγούμενα αυτοκίνητα και περιστατικά τεχνητής νοημοσύνης

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Πιστεύω ότι παρέχει αρκετή λιτανεία προειδοποιήσεων για να υπογραμμίσει αυτό που πρόκειται να αναφέρω.

Είμαστε έτοιμοι τώρα να κάνουμε μια βαθιά βουτιά στα αυτοοδηγούμενα αυτοκίνητα και τις δυνατότητες ηθικής τεχνητής νοημοσύνης που συνεπάγονται την εμφάνιση των λεγόμενων ατυχημάτων τεχνητής νοημοσύνης.

Οραματιστείτε ότι ένα αυτοοδηγούμενο αυτοκίνητο βασισμένο σε τεχνητή νοημοσύνη βρίσκεται σε εξέλιξη στους δρόμους της γειτονιάς σας και φαίνεται να οδηγεί με ασφάλεια. Στην αρχή, είχατε αφιερώσει ιδιαίτερη προσοχή σε κάθε φορά που καταφέρνατε να ρίξετε μια ματιά στο αυτο-οδηγούμενο αυτοκίνητο. Το αυτόνομο όχημα ξεχώριζε με τη σχάρα ηλεκτρονικών αισθητήρων που περιλάμβανε βιντεοκάμερες, μονάδες ραντάρ, συσκευές LIDAR και άλλα παρόμοια. Μετά από πολλές εβδομάδες που το αυτοοδηγούμενο αυτοκίνητο ταξιδεύει στην κοινότητά σας, τώρα μόλις και μετά βίας το παρατηρείτε. Σε ό,τι σας αφορά, είναι απλώς ένα ακόμη αυτοκίνητο στους ήδη πολυσύχναστους δημόσιους δρόμους.

Για να μην πιστεύετε ότι είναι αδύνατο ή απίθανο να εξοικειωθείτε με τα αυτόνομα αυτοκίνητα, έχω γράψει συχνά για το πώς οι τοποθεσίες που εμπίπτουν στο πεδίο των δοκιμών αυτοοδηγούμενων αυτοκινήτων έχουν σταδιακά συνηθίσει να βλέπουν τα κομψά οχήματα. Πολλοί από τους ντόπιους τελικά μεταπήδησαν από το να εκπέμπουν ένα εκτεταμένο χασμουρητό πλήξης για να παρακολουθήσουν αυτά τα αυτοκινούμενα αυτοκίνητα.

Πιθανώς ο κύριος λόγος αυτή τη στιγμή που μπορεί να παρατηρήσουν τα αυτόνομα οχήματα είναι ο παράγοντας ερεθισμού και εκνευρισμού. Τα bythe-book συστήματα οδήγησης τεχνητής νοημοσύνης διασφαλίζουν ότι τα αυτοκίνητα τηρούν όλα τα όρια ταχύτητας και τους κανόνες του δρόμου. Για τους ταραχώδεις οδηγούς με τα παραδοσιακά αυτοκίνητά τους που οδηγούνται από ανθρώπους, εκνευρίζεστε κατά καιρούς όταν κολλάτε πίσω από τα αυστηρά νομοθετικά αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη.

Αυτό είναι κάτι που ίσως χρειαστεί να το συνηθίσουμε όλοι, δικαίως ή αδίκως.

Επιστροφή στο παραμύθι μας.

Μια μέρα, το αυτοοδηγούμενο αυτοκίνητο πέφτει σε ατύχημα.

Ενώ έκανε μια δεξιά στροφή, το σύστημα οδήγησης AI αιώρησε ευρέως το αυτόνομο όχημα και ένα αυτοκίνητο που οδηγούσε τον άνθρωπο χτυπήθηκε. Το αυτοκίνητο που οδηγούσε τον άνθρωπο προχωρούσε ευθεία στην κατάλληλη λωρίδα κυκλοφορίας. Δεν υπήρχε ιδιαίτερη ευκαιρία για τον άνθρωπο οδηγό να παρεκτραπεί ή να αποφύγει το χτύπημα. Επιπλέον, δεν υπήρχε καμία προειδοποίηση ή ένδειξη από το αυτοοδηγούμενο αυτοκίνητο ότι επρόκειτο να κάνει ευρέως τη δεξιά στροφή.

Είναι ατύχημα;

Μπορούμε με βεβαιότητα να πούμε ότι περιλαμβάνεται στην κατηγορία του ατυχήματος AI. Η βάση για έναν τέτοιο ισχυρισμό είναι ότι υπήρχε ένα σύστημα οδήγησης AI στο τιμόνι του αυτο-οδηγούμενου αυτοκινήτου. Κάπως, για οποιονδήποτε λόγο, η τεχνητή νοημοσύνη επέλεξε να κάνει μια μεγάλη ταλάντευση όταν έκανε μια δεξιά στροφή. Το αποτέλεσμα οδήγησε στο αυτοοδηγούμενο αυτοκίνητο να χτυπήσει ένα αυτοκίνητο που οδηγούσε άνθρωπο.

Θυμηθείτε την προηγούμενη συζήτηση σχετικά με τις έννοιες που σχετίζονται με τη λέξη «ατύχημα» και δείτε πώς παίζουν τέτοιου είδους τόνοι σε αυτό το σενάριο. Επίσης, να θυμάστε ότι συζητήσαμε την περίπτωση ενός ανθρώπου οδηγού που έκανε μια μεγάλη στροφή δεξιά και έπεσε πάνω σε ένα συνάνθρωπο αυτοκίνητο. Συνειδητοποιήσαμε ότι η ιδέα ότι αυτή η πράξη είναι «ατύχημα» είναι παραπλανητική και μπερδεμένη. Ο ανθρώπινος οδηγός που έκανε τη φαρδιά αιώρηση μπορούσε να κρυφτεί πίσω από την ιδέα ότι ένα ατύχημα απλώς συνέβη φαινομενικά τυχαία ή ιδιοτροπίες της μοίρας.

Αντί να χαρακτηρίσουμε το σενάριο ως «ατύχημα τεχνητής νοημοσύνης» στην περίπτωση του αυτο-οδηγούμενου αυτοκινήτου που βασίζεται σε τεχνητή νοημοσύνη να πάει διάπλατα και να χτυπήσει το αυτοκίνητο που οδηγείται από ανθρώπους, ίσως θα έπρεπε να πούμε ότι επρόκειτο για τροχαίο ατύχημα ή σύγκρουση αυτοκινήτου που περιελάμβανε αυτο-οδηγούμενο οδηγώντας αυτοκίνητο και αυτοκίνητο που οδηγείται από ανθρώπους. Μπορούμε τότε να απαλλαγούμε από την κενή σύγχυση ότι είναι ένα ατύχημα άγνωστων μέσων.

Ποια πιστεύετε ότι θα ήταν η αντίδραση του κοινού στο περιστατικό;

Λοιπόν, εάν η αυτοκινητοβιομηχανία ή η εταιρεία τεχνολογίας αυτόνομης οδήγησης μπορεί να επιμείνει στην επισήμανση του θέματος ως ατύχημα, μπορεί να είναι σε θέση να παρακάμψει τις πιθανές αντιδράσεις από την ευρύτερη κοινότητα. Ένα αίσθημα συμπάθειας για τα ατυχήματα που λέγονται όλα θα έρρεε ενδεχομένως στη συγκεκριμένη περίσταση. Για περισσότερες πληροφορίες σχετικά με τον τρόπο με τον οποίο οι πόλεις, οι κομητείες και οι ηγέτες των πολιτειών θα αντιδράσουν δυνητικά σε περιστατικά αυτόνομων οχημάτων με τεχνητή νοημοσύνη, δείτε τη συζήτηση μιας μελέτης του Χάρβαρντ της οποίας συνοδήγησα και όπως περιγράφεται στο ο σύνδεσμος εδώ.

Εάν η κατάσταση περιγράφεται ξεκάθαρα ως τροχαίο ατύχημα ή σύγκρουση αυτοκινήτου, ίσως αυτό θα μπορούσε να επιτρέψει στη συνέχεια να συνειδητοποιήσουμε ότι κάποιος ή κάτι φταίει ίσως για το συμβάν. Μια σπασμωδική αντίδραση μπορεί να είναι ότι το AI πρέπει να θεωρηθεί υπεύθυνο. Το θέμα είναι ότι έως ότου αποφασίσουμε να χρίσουμε την τεχνητή νοημοσύνη ως νομικό πρόσωπο, δεν θα μπορέσετε να αποδώσετε την ευθύνη στην ίδια την τεχνητή νοημοσύνη (δείτε τη συζήτησή μου για την τεχνητή νοημοσύνη και το νομικό πρόσωπο στο ο σύνδεσμος εδώ).

Μπορούμε να επιθεωρήσουμε το σύστημα οδήγησης τεχνητής νοημοσύνης για να προσπαθήσουμε να καταλάβουμε τι οδήγησε στη φαινομενικά ακατάλληλη οδήγηση και στο επακόλουθο τροχαίο ατύχημα. Αυτό όμως δεν σημαίνει ότι η τεχνητή νοημοσύνη θα λογοδοτήσει. Στα αρμόδια μέρη περιλαμβάνονται οι προγραμματιστές τεχνητής νοημοσύνης, ο χειριστής του στόλου του αυτοοδηγούμενου αυτοκινήτου και άλλοι. Συμπεριλαμβάνω και άλλους αφού υπάρχει πιθανότητα η πόλη να θεωρηθεί εν μέρει υπεύθυνη για το σχεδιασμό της γωνίας όπου έγινε η στροφή. Επιπλέον, ας υποθέσουμε ότι ένας πεζός έτρεχε από τη γωνία και το σύστημα οδήγησης τεχνητής νοημοσύνης επέλεξε να αποφύγει το άτομο και όμως στη συνέχεια μπλέχτηκε στο τροχαίο.

Και ούτω καθεξής.

Συμπέρασμα

Θα θέλαμε να μάθουμε τι υπολόγιζε υπολογιστικά το AI και τι είχε προγραμματιστεί να κάνει. Έκανε το AI όπως ήταν κωδικοποιημένο; Ίσως η τεχνητή νοημοσύνη αντιμετώπισε ένα σφάλμα ή ένα σφάλμα στον προγραμματισμό, το οποίο δεν δικαιολογεί τις ενέργειες, αλλά παρέχει περισσότερες πληροφορίες για το πώς προέκυψε η συντριβή.

Τι είδους προστατευτικά κιγκλιδώματα AI προγραμματίστηκαν στο σύστημα οδήγησης AI; Αν υπήρχαν προστατευτικά κιγκλιδώματα, θα θέλαμε να καταλάβουμε γιατί φαινόταν ότι δεν αποτρέπουν το τροχαίο ατύχημα. Ίσως το σύστημα οδήγησης AI θα μπορούσε να είχε σταματήσει αντί να κάνει τη στροφή. Θα θέλαμε να μάθουμε ποιες εναλλακτικές λύσεις αξιολόγησε υπολογιστικά η τεχνητή νοημοσύνη κατά τη διάρκεια του συμβάντος.

Εκτός από το να καταλήξουμε στο τέλος του συγκεκριμένου περιστατικού, ένας άλλος εύλογος προβληματισμός είναι εάν το σύστημα οδήγησης τεχνητής νοημοσύνης έχει κάποιο ελάττωμα ή άλλη ενσωματωμένη πτυχή που θα κάνει παρόμοια είδη δυσμενών ενεργειών. Ουσιαστικά, αυτό το περιστατικό μπορεί να είναι ενδεικτικό για περισσότερα στο μέλλον. Πώς χρησιμοποιήθηκαν προσομοιώσεις καταστάσεων οδήγησης που βασίζονται σε υπολογιστή για να προσπαθήσουν να προβλέψουν αυτό το είδος συστήματος οδήγησης τεχνητής νοημοσύνης; Υπήρχαν επαρκείς δοκιμές οδήγησης στο οδόστρωμα για να προσδιορίσουν τα ζητήματα τεχνητής νοημοσύνης που θα μπορούσαν να οδήγησαν στο τροχαίο ατύχημα;

Αυτό το σενάριο υπογραμμίζει ένα αμφιλεγόμενο αίνιγμα που αντιμετωπίζει την εμφάνιση αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη.

Πάει κάπως έτσι.

Από τη μία πλευρά, υπάρχει η επιθυμία της κοινωνίας να υιοθετήσει γρήγορα αυτοκίνητα αυτόνομης οδήγησης λόγω της ελπίδας ότι τα συστήματα οδήγησης τεχνητής νοημοσύνης θα είναι εξίσου ασφαλή ή πιθανώς ασφαλέστερα από τους ανθρώπους οδηγούς. Μόνο στις Ηνωμένες Πολιτείες, έχουμε αυτή τη στιγμή σχεδόν 40,000 ανθρώπινους θανάτους ετησίως λόγω τροχαίων ατυχημάτων και περίπου 2.5 εκατομμύρια ανθρώπινους τραυματισμούς. Οι αναλύσεις υποδεικνύουν ότι ένα μεγάλο μέρος αυτών των τροχαίων ατυχημάτων αποδίδεται σε ανθρώπινο λάθος, όπως οδήγηση σε κατάσταση μέθης, οδήγηση με αποσπασμένη προσοχή κ.λπ. (δείτε την αξιολόγησή μου για τέτοια στατιστικά στοιχεία στο ο σύνδεσμος εδώ).

Τα συστήματα οδήγησης AI δεν πίνουν και οδηγούν. Δεν θα χρειαστούν ξεκούραση και δεν θα φθαρούν ενώ βρίσκονται στο τιμόνι. Η υπόθεση είναι ότι καθιερώνοντας τα αυτόνομα αυτοκίνητα ως βιώσιμο τρόπο μεταφοράς, μπορούμε να μειώσουμε τον αριθμό των ανθρώπινων οδηγών. Αυτό με τη σειρά του θα πρέπει να σημαίνει ότι θα μειώσουμε συνοπτικά τον αριθμό των ετήσιων ανθρώπινων θανάτων και τραυματισμών από τροχαία ατυχήματα.

Μερικοί ειδήμονες είπαν ότι θα καταλήξουμε με μηδενικούς θανάτους και μηδενικούς τραυματισμούς, και αυτά τα αυτοοδηγούμενα αυτοκίνητα υποτίθεται ότι δεν θα τρακάρουν, αλλά αυτό είναι ένα εντελώς παράλογο και εντελώς ψευδές σύνολο προσδοκιών. Εξήγησα γιατί αυτό είναι τόσο ανειλικρινές ο σύνδεσμος εδώ.

Σε κάθε περίπτωση, ας υποθέσουμε ότι πρόκειται να έχουμε κάποιους αριθμούς τροχαίων ατυχημάτων στα οποία εμπλέκονται τα αυτόνομα αυτοκίνητα. Ας υποθέσουμε επίσης ότι αυτά τα αυτοκινητιστικά ατυχήματα θα έχουν κάποιους θανάτους και τραυματισμούς. Το ερώτημα που ταλαιπωρείται είναι εάν εμείς ως κοινωνία είμαστε πρόθυμοι να ανεχτούμε τέτοιες περιπτώσεις. Κάποιοι λένε ότι εάν έστω και ένα θάνατο ή ένας τραυματισμός συμβεί ως αποτέλεσμα αληθινών αυτοοδηγούμενων αυτοκινήτων, ολόκληρο το κιτ και το kaboodle θα πρέπει να κλείσουν.

Η αντίθετη άποψη είναι ότι εάν οι ζωές που σώζονται μειώνουν τους ετήσιους αριθμούς, θα πρέπει να συνεχίσουμε να ενθαρρύνουμε την έλευση των αυτοοδηγούμενων αυτοκινήτων και να μην αντιδρούμε με τόσο παράλογο τρόπο. Θα χρειαστεί να αποδεχτούμε την προϋπόθεση ότι θα υπάρχουν ακόμη και κάποιοι θάνατοι και τραυματισμοί, ακόμη και με αυτοκίνητα αυτόνομης οδήγησης, και ωστόσο να συνειδητοποιήσουμε ότι ο ετήσιος αριθμός εάν μειωθεί υποδηλώνει ότι βρισκόμαστε στο σωστό δρόμο.

Φυσικά, ορισμένοι υποστηρίζουν ότι δεν θα πρέπει να έχουμε αυτοοδηγούμενα αυτοκίνητα στους δημόσιους δρόμους μας έως ότου είτε να ελευθερωθούν για τέτοια χρήση ως αποτέλεσμα εκτεταμένων και εξαντλητικών προσομοιώσεων που βασίζονται σε υπολογιστή είτε μέσω ιδιωτικών δοκιμών κλειστής διαδρομής. Το αντεπιχείρημα είναι ότι ο μόνος βιώσιμος και ταχύτερος τρόπος για να ξεκινήσετε τα αυτόνομα αυτοκίνητα είναι η χρήση δημόσιων δρόμων και ότι οποιεσδήποτε καθυστερήσεις στην υιοθέτηση αυτοοδηγούμενων αυτοκινήτων θα επιτρέψουν διαφορετικά να συνεχιστούν οι φρικτές μετρήσεις των ανθρωπο-οδηγούμενων αυτοκινήτων. Έχω καλύψει εκτενέστερα αυτή τη συζήτηση στις στήλες μου και προτρέπω τους αναγνώστες να εξετάσουν αυτές τις συζητήσεις για να κατανοήσουν πλήρως τις προοπτικές για αυτό το αμφιλεγόμενο θέμα.

Ας ολοκληρώσουμε τα πράγματα προς το παρόν.

Ατυχήματα τεχνητής νοημοσύνης θα συμβούν. Πρέπει να αντισταθούμε στην παρόρμηση να ερμηνεύσουμε ένα ατύχημα με τεχνητή νοημοσύνη ως φαινομενικά λάθος και, λοιπόν, αφήστε τους κατασκευαστές και αυτούς που αναπτύσσουν την τεχνητή νοημοσύνη να είναι κατηγορηματικά απροσπέλαστοι.

Υπάρχει μια πρόσθετη ανατροπή που σας αφήνω ως μια τελευταία ενδιαφέρουσα σκέψη για την ημέρα σας.

Ο κωμικός Dane Cook φέρεται να είπε αυτό το αστείο για τα τροχαία ατυχήματα: «Μερικές μέρες πριν, είχα ένα τροχαίο ατύχημα. Δεν είναι δικό μου λάθος. Ακόμα κι αν δεν φταις εσύ, ο άλλος βγαίνει από το αυτοκίνητό του και σε κοιτάζει σαν να φταις εσύ: Γιατί σταμάτησες στο κόκκινο και με άφησες να σε χτυπήσω κάνοντας 80!».

Εκεί που η ανατροπή έρχεται στο προσκήνιο είναι η πιθανότητα ένα σύστημα τεχνητής νοημοσύνης να επιλέξει να επιμείνει ότι όταν συμβαίνει ένα ατύχημα τεχνητής νοημοσύνης με τη συγκεκριμένη τεχνητή νοημοσύνη, η τεχνητή νοημοσύνη υποστηρίζει ότι το περιστατικό ήταν λάθος του ανθρώπου και σίγουρα όχι του AI. Παρεμπιπτόντως, αυτό θα μπορούσε να είναι πέρα ​​για πέρα ​​αληθινό και ο άνθρωπος μπορεί να προσπαθεί να αποδιοπομπαίος τράγος της τεχνητής νοημοσύνης ισχυριζόμενος ότι έφταιγε η τεχνητή νοημοσύνη.

Ή ίσως η τεχνητή νοημοσύνη προσπαθεί να εξοντώσει τον άνθρωπο.

Βλέπετε, το AI που επινοούμε μπορεί να είναι δύσκολο με αυτόν τον τρόπο, είτε τυχαία είτε όχι.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- οδήγηση-αυτοκίνητα-και/