Μαθήματα ηθικής τεχνητής νοημοσύνης και αυτόνομων συστημάτων που προέκυψαν από εκείνη την πρόσφατη πτήση της Alaska Airlines όπου ο πιλότος και ο συγκυβερνήτης διαφώνησαν πριν από την απογείωση και επέλεξαν απότομα να επιστρέψουν με ταξί στον τερματικό σταθμό και ακολουθούσαν χωριστούς δρόμους

Οι αεροπορικές εταιρείες είναι αρκετά στην επικαιρότητα τον τελευταίο καιρό.

Βρισκόμαστε στην καλοκαιρινή κρίση των πτήσεων. Οι κουρασμένοι και απογοητευμένοι επιβάτες βρίσκονται αντιμέτωποι με κάθε είδους διακοπές πτήσεων και παραμορφώσεις στον προγραμματισμό των αεροπορικών εταιρειών. Οι πτήσεις ακυρώνονται απροσδόκητα. Οι πτήσεις έχουν καθυστέρηση. Οι επιβάτες αναθυμιάζουν. Υπήρξαν δυστυχώς πολλές περιπτώσεις επιβατών που επέτρεψαν σε αυτές τις ταραχές να ξεσπάσουν, και έχουμε δει τραγικά πάρα πολλά viral βίντεο με αντιπαραθέσεις πρόσωπο με πρόσωπο και μερικές φορές σφυροκοπήματα.

Πιο σπάνια μαθαίνουμε για διαφωνίες μεταξύ πιλότου και συγκυβερνήτη που μπορεί να προκύψουν ενώ βρίσκεστε στο πιλοτήριο.

Αυτό είναι μια μεγάλη έκπληξη.

Πράγματι, εκπλήσσουμε φυσικά όταν πιστεύουμε ότι ένας πιλότος και ο συγκυβερνήτης θα έμοιαζαν με μια σοβαρή διαφωνία σε οποιοδήποτε στάδιο μιας πτήσης. Εάν η διαφωνία σχετίζεται με το ποια μάρκα καφέ είναι η καλύτερη, η υπόθεση μας είναι ότι αυτό δεν θα παρέμβει στην προσπάθεια εργασίας που συνεπάγεται η πτήση του αεροπλάνου. Οι δυο τους απλώς θα απέκρουαν την έλλειψη αντιπαράθεσης σε ένα φαινομενικά άσχετο θέμα. Η επαγγελματική τους συμπεριφορά και η μακροχρόνια εκπαίδευση των πιλότων θα άρχιζαν και θα επέστρεφαν την εστίασή τους πίσω στα στοιχεία της πτήσης.

Σκεφτείτε όμως όταν α επαγγελματική διαφωνία παρεμβαίνει.

Θα μοιραστώ εν συντομία μαζί σας μια είδηση ​​που δημοσιεύτηκε ευρέως σχετικά με ένα πρόσφατο περιστατικό κάτι που συνέβη κατά τη διάρκεια μιας πτήσης στις ΗΠΑ σχετικά με μια υποτιθέμενη επαγγελματική διαφωνία στο πιλοτήριο.

Αυτό αναφέρεται κυρίως εδώ για να μπορέσουμε να εξερευνήσουμε ένα σχετικό θέμα που έχει μεγάλη σημασία για την έλευση της Τεχνητής Νοημοσύνης (AI). Βλέπετε, μπορεί να υπάρχει μια μορφή επαγγελματικής διαφωνίας μεταξύ όχι μόνο των ανθρώπων σε μια διαφωνία ανθρώπου με άνθρωπο, αλλά μπορεί επίσης να συμβεί κάτι παρόμοιο εν μέσω της υιοθέτησης της τεχνητής νοημοσύνης και των επαγγελματικών διαφωνιών που προκύπτουν ως εκ τούτου μεταξύ ανθρώπου και τεχνητής νοημοσύνης . Προκύπτουν όλα τα είδη ηθικής τεχνητής νοημοσύνης. Για την εκτενή και διαρκή κάλυψη των θεμάτων Ηθικής AI και ηθικής τεχνητής νοημοσύνης, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Ετοιμαστείτε για μια συναρπαστική ιστορία.

Όπως αναφέρθηκε πρόσφατα στις ειδήσεις, μια περίπτωση «επαγγελματικής διαφωνίας» προφανώς προέκυψε κατά τη διάρκεια πτήσης της Alaska Airline που πήγαινε από την Ουάσιγκτον στο Σαν Φρανσίσκο. Σύμφωνα με τις ειδήσεις, η πτήση είχε απομακρυνθεί από την πύλη και περίμενε στην άσφαλτο για άδεια για ταξί και πτήση. Μια καταιγίδα ήταν σε εξέλιξη και οδήγησε σε καθυστέρηση πτήσης μεγαλύτερη από μιάμιση ώρα. Αποδεικνύεται ότι το αεροπλάνο τελικά γύρισε και επέστρεψε στην πύλη, κάτι που κάποιοι από τους επιβάτες θα μπορούσαν κανονικά να υποθέτουν ότι ήταν απλώς ένα προληπτικό μέτρο ασφαλείας που σχετίζεται με την καταιγίδα.

Σύμφωνα με διάφορα tweets, φαίνεται ότι ο πιλότος και ο συγκυβερνήτης είχαν κάποιου είδους εχθρότητα κατά τη διάρκεια της παραμονής τους στο πιλοτήριο και κατά κάποιο τρόπο κατέληξαν στο συμπέρασμα ότι η πιο συνετή προσέγγιση θα ήταν να καθαρίσουν την πτήση και να επιστρέψουν στο τερματικό σταθμό. . Τα tweets υποδήλωναν ότι ο καπετάνιος και ο πρώτος αξιωματικός προφανώς δεν μπορούσαν να συνεννοηθούν μεταξύ τους. Η αεροπορική εταιρεία εξέδωσε αργότερα μια δήλωση ότι η κατάσταση ήταν ατυχής (η κατάσταση δεν αναφέρθηκε ρητά ούτε εξηγήθηκε αυτή καθαυτή), οι δύο αξιωματικοί πτήσης αξιολογήθηκαν από τη διοίκηση και κρίθηκαν ικανοί να πετάξουν, τα πληρώματα ανταλλάχθηκαν και η πτήση τελικά πραγματοποιήθηκε και αργότερα έφτασε στο Σαν Φρανσίσκο.

Κατά μία έννοια, εάν πράγματι ο πιλότος και ο συγκυβερνήτης είχαν μια επαγγελματική διαφωνία, όπως εάν το αεροπλάνο ήταν κατάλληλα έτοιμο για πτήση ή εάν ο κίνδυνος να πετάξει μέσα από μια καταιγίδα ήταν εντός του κατάλληλου εύρους ασφαλείας, αυτοί οι επιβάτες θα έπρεπε να ανακουφιστούν και ευγνώμων που το αεροπλάνο επέστρεψε στην πύλη. Καλύτερα να είσαι ασφαλής παρά να λυπάσαι. Η πρόσθετη καθυστέρηση αξίζει πολύ την υποτιθέμενη μείωση των κινδύνων που σχετίζονται με ένα θεωρούμενο σκληρό ή δυσμενές πτητικό ταξίδι.

Μερικοί άνθρωποι μπορεί να εκπλαγούν που θα μπορούσε να προκύψει μια τέτοια επαγγελματική διαφωνία.

Ίσως έχουμε μια λανθασμένη εντύπωση ότι όλα όσα συμβαίνουν στο πιλοτήριο είναι απολύτως ακριβή και καλογραμμένα. Κάθε μορφή ανθρώπινης διακριτικής ευχέρειας έχει φαινομενικά εξαλειφθεί από τη διαδικασία. Με βάση τους ακριβείς και λεπτομερώς υπολογισμένους χάρτες, μια πτήση είτε είναι εντάξει να προχωρήσει είτε όχι. Δεν μπορεί να υπάρξει καμία διαφωνία όταν ολόκληρο το κιτ και το caboodle πιστεύεται ότι βασίζονται σε αδιάψευστους λογισμούς γεγονότων και αριθμών.

Δεν είναι αυτή η πλήρης αλήθεια του θέματος. Σίγουρα, υπάρχει μια σωρεία πρωτοκόλλων και όλων των ειδών οι έλεγχοι και οι ισορροπίες, αλλά αυτό δεν συμπιέζει όλη την ανθρώπινη κρίση. Οι πιλότοι και οι συγκυβερνήτες εξακολουθούν να ασκούν ανθρώπινη κρίση. Ευτυχώς, αυτή η ανθρώπινη κρίση ακονίζεται με χρόνια πτήσης. Οι πιθανότητες είναι ότι ένας πιλότος και ο συγκυβερνήτης ενός εμπορικού επιβατικού αεροπλάνου έχουν αρκετή προηγούμενη εμπειρία πτήσης και αξιοποιούν εύκολα την πολυετή εις βάθος συλλογιστική και κρίση τους που σχετίζεται με την παρουσία τους στα χειριστήρια πτήσης.

Δεδομένου του αξιοσημείωτου ρόλου της ανθρώπινης κρίσης, θα μπορούσαμε λογικά να αναμένουμε ότι ένας πιλότος και ο συγκυβερνήτης θα έχουν μερικές φορές επαγγελματικές διαφωνίες. Τις περισσότερες φορές πιθανώς υπάρχει πολύ μικρή τέτοια διαφωνία. Ο πιλότος και ο συγκυβερνήτης για τις καθημερινές πτήσεις είναι πιθανό να είναι καλά ευθυγραμμισμένοι με την κυριαρχία της εποχής. Μόνο όταν ένα σενάριο πτήσης μπορεί να ξεφύγει από τα συμβατικά όρια, θα περιμέναμε να προκύψουν πιο έντονες τριβές.

Αν υπάρχει έντονη διαφορά απόψεων μεταξύ των δύο, θα τολμούσα να πω ότι θέλουμε να το κατακερματίσουν.

Φανταστείτε μια κατάσταση όπου ο πιλότος θέλει διακαώς να προχωρήσει, αλλά ο συγκυβερνήτης αντιλαμβάνεται ότι οι κίνδυνοι είναι πολύ μεγάλοι. Θα φαινόταν ανεπιθύμητο και μόνο να υποκλίνεται ο συγκυβερνήτης στον πιλότο. Ο συγκυβερνήτης είναι ένας έλεγχος και ισορροπία σε σχέση με αυτό που μπορεί να σκέφτεται να κάνει ένας πιλότος. Για εκείνους που θέλουν ένας συγκυβερνήτης να σιωπήσει και να ενεργεί αποκλειστικά χωρίς σκέψη σε ό,τι διατάξει ο πιλότος, καλά, αυτό δεν αποτελεί μεγάλη διαβεβαίωση. Ο συγκυβερνήτης δεν είναι απλώς ένας εφεδρικός «πιλότος» που μπαίνει στην εικόνα μόνο όταν ο πιλότος είναι εντελώς ανίκανος. Αυτή είναι μια λανθασμένη κατανόηση της αξίας του να έχεις πιλότο και συγκυβερνήτη στο πιλοτήριο.

Υπάρχει και η άλλη οπτική γωνία σε αυτό.

Σκεφτείτε την περίπτωση ενός πιλότου που δεν πιστεύει ότι πρέπει να προχωρήσει μια πτήση και εν τω μεταξύ ο συγκυβερνήτης είναι γκαντ-χο για να σηκωθεί στον αέρα. Τι τότε? Σύμφωνα με την αναμενόμενη ιεραρχία, ο πιλότος υποτίθεται ότι υπερισχύει συμβατικά έναντι του συγκυβερνήτη. Ο καθορισμένος ρόλος του να είναι ο κύριος υπεύθυνος καθιστά τον πιλότο μεγαλύτερο από αυτό που διαφορετικά είναι κάπως ίσο. Κανονικά, ο πιλότος έχει περισσότερο συνολικό χρόνο πτήσης από τον συγκυβερνήτη και, επομένως, ο συγκυβερνήτης υποτίθεται ιεραρχικά να τηρεί τις επιθυμίες του πιλότου (όταν είναι εντός λογικής).

Σε κάθε περίπτωση, νομίζω ότι όλοι μπορούμε να συμφωνήσουμε ότι η επιλογή να μην πετάξετε είναι σίγουρα μια λιγότερο επικίνδυνη επιλογή από το να αποφασίσετε να πετάξετε. Μόλις το αεροπλάνο είναι στον αέρα, τα επίπεδα κινδύνου γίνονται τεράστια σε σύγκριση με το να είναι σε οποιοδήποτε συνηθισμένο σταθερό έδαφος. Μια συνηθισμένη εμπορική πτήση που απλώς επιστρέφει με ταξί στον τερματικό σταθμό χωρίς να έχει επιβιβαστεί στον αέρα, θα ήταν μια αρκετά φιλική λύση σε κάθε έντονη επίπονη συζήτηση σχετικά με την πτήση.

Ας αλλάξουμε ταχύτητες και ας χρησιμοποιήσουμε αυτή την εκθαμβωτική είδηση ​​για έναν εντελώς διαφορετικό αλλά σχετικό σκοπό.

Σταδιακά έχουμε ανάμεσά μας μια επικράτηση αυτόνομων συστημάτων που βασίζονται σε AI. Μερικές φορές η τεχνητή νοημοσύνη εκτελεί την εκπομπή, σαν να λέγαμε. Το AI κάνει τα πάντα από το Α έως το Ω και θα μπορούσαμε να το ερμηνεύσουμε ως AI που είναι πλήρως αυτόνομο ή σχεδόν έτσι. Σε άλλες περιπτώσεις, μπορούμε να έχουμε τεχνητή νοημοσύνη που αλληλεπιδρά και σε κάποιο βαθμό είναι προγραμματισμένη να βασίζεται στην ύπαρξη ενός ανθρώπου στον βρόχο.

Θα ήθελα να επικεντρωθώ στο θέμα ενός αυτόνομου ή ημι-αυτόνομου συστήματος που βασίζεται στην τεχνητή νοημοσύνη, το οποίο από την αρχή θα έχει έναν άνθρωπο στο βρόχο. Η τεχνητή νοημοσύνη και ο άνθρωπος έρχονται σκόπιμα μαζί και υποτίθεται ότι συνεργάζονται μεταξύ τους. Είναι κοόρτες στην εκτέλεση μιας συγκεκριμένης εργασίας. Η τεχνητή νοημοσύνη από μόνη της δεν υποτίθεται ότι ενεργεί στην εργασία. Η τεχνητή νοημοσύνη πρέπει να αλληλεπιδρά με τον καθορισμένο άνθρωπο-in-the-loop.

Αναφέρω αυτόν τον χαρακτηρισμό για να διαφοροποιήσω τις καταστάσεις όπου ο άνθρωπος στον βρόχο θεωρείται μια προαιρετική πτυχή. Ουσιαστικά, η τεχνητή νοημοσύνη έχει ελεύθερα τα χέρια. Εάν το AI επιλέξει να κάνει χρήση του ανθρώπου, ας το κάνει. Δεν απαιτείται η τεχνητή νοημοσύνη να αγγίζει τη βάση ή να δουλεύει χέρι-χέρι με τον καθορισμένο άνθρωπο. Οι αναλύσεις που πρόκειται να αναφέρω είναι σίγουρα σχετικές με αυτό το είδος προαιρετικός ρύθμιση αλληλεπίδρασης, αλλά δεν είναι αυτό στο οποίο οδηγώ συγκεκριμένα στη συγκεκριμένη συζήτηση.

Εντάξει, έχουμε λοιπόν ένα είδος εργασίας στο οποίο ένας άνθρωπος και μια τεχνητή νοημοσύνη θα εργαστούν μαζί, αδιαχώριστα ο ένας από τον άλλο. Με μια αφηρημένη έννοια, έχουμε έναν άνθρωπο που κάθεται στο ένα κάθισμα και ένα σύστημα τεχνητής νοημοσύνης που κάθεται στο άλλο συνοδευτικό κάθισμα. Το λέω αυτό αναιδώς επειδή δεν περιορίζουμε αυτή τη συζήτηση σε ένα ρομπότ, για παράδειγμα, που μπορεί στην πραγματικότητα να κάθεται σε ένα κάθισμα. Αναφέρομαι μεταφορικά στην ιδέα ότι η τεχνητή νοημοσύνη κάπου συμμετέχει στο έργο και το ίδιο και ο άνθρωπος. Φυσικά, το πού βρίσκονται δεν είναι ιδιαίτερα ζωτικής σημασίας για τη συζήτηση.

Μπορεί να μην είστε σίγουροι για το πότε μπορεί να προκύψει μια τέτοια περίσταση.

Πανεύκολο.

Αργότερα, θα συζητήσω την έλευση των αυτόνομων οχημάτων και των αυτοοδηγούμενων αυτοκινήτων. Σε ορισμένα επίπεδα αυτονομίας, η τεχνητή νοημοσύνη και ο άνθρωπος υποτίθεται ότι συνεργάζονται. Το AI μπορεί να οδηγεί το αυτοκίνητο και να ζητά από τον άνθρωπο να αναλάβει τα χειριστήρια οδήγησης. Ο άνθρωπος μπορεί να οδηγεί το αυτοκίνητο και να ενεργοποιεί το AI για να αναλάβει τα χειριστήρια. Εναλλάσσονται στα χειριστήρια οδήγησης.

Επιπλέον, ορισμένα σχέδια έχουν το AI να είναι ουσιαστικά ενεργό όλη την ώρα (ή, εκτός αν είναι απενεργοποιημένο), έτσι ώστε το AI να είναι πάντα έτοιμο. Επιπλέον, η τεχνητή νοημοσύνη μπορεί να παρέμβει άμεσα, ακόμη και χωρίς να το ζητήσει ο άνθρωπος, ανάλογα με την κατάσταση που εκτυλίσσεται. Ας υποθέσουμε για παράδειγμα ότι ο άνθρωπος φαίνεται να έχει αποκοιμηθεί στο τιμόνι. Δεδομένου ότι ο άνθρωπος φαινομενικά δεν μπορεί να ενεργοποιήσει την τεχνητή νοημοσύνη (επειδή το άτομο κοιμάται), η τεχνητή νοημοσύνη μπορεί να προγραμματιστεί ώστε να αναλαμβάνει τους ελέγχους από τον άνθρωπο.

Ορισμένα σχέδια φέρνουν την τεχνητή νοημοσύνη και τους ανθρώπους σε μια διπλή προσέγγιση οδήγησης. Το AI οδηγεί και ο άνθρωπος οδηγεί. Ή, αν προτιμάτε, ο άνθρωπος οδηγεί και το AI οδηγεί επίσης. Ο καθένας τους οδηγεί το όχημα. Το παρομοιάζω με εκείνα τα ειδικά στημένα αυτοκίνητα που ίσως χρησιμοποιούσατε όταν παρακολουθούσατε την εκπαίδευση οδηγού και υπήρχαν δύο σετ χειριστηρίων οδήγησης στο όχημα, ένα για τον μαθητή οδηγό και ένα για τον εκπαιδευτή οδήγησης.

Αυτό είναι μόνο ένα παράδειγμα μιας ρύθμισης στην οποία η τεχνητή νοημοσύνη και οι άνθρωποι μπορεί να εργάζονται από κοινού σε μια εργασία. Όλες οι δυνατότητες υπάρχουν. Άλλα είδη αυτόνομων οχημάτων θα μπορούσαν να επινοηθούν παρόμοια, όπως αεροπλάνα, drones, υποβρύχια, πλοία επιφανείας, τρένα κ.λπ. Δεν χρειάζεται να εξετάζουμε μόνο τις ρυθμίσεις οχημάτων και μεταφοράς. Οραματιστείτε τον ιατρικό τομέα και τις χειρουργικές επεμβάσεις που εκτελούνται από κοινού από έναν γιατρό και ένα σύστημα AI. Η λίστα είναι ατελείωτη.

Σχεδόν μου αρέσει να αναφέρομαι στο κλασικά θορυβώδες αστείο για έναν άνθρωπο και μια τεχνητή νοημοσύνη που μπαίνουν μαζί σε ένα μπαρ. Είναι πολύ γέλιο για όσους ασχολούνται με την τεχνητή νοημοσύνη.

Σοβαρά, ας επιστρέψουμε στο επίκεντρο ενός ανθρώπου και ενός συστήματος τεχνητής νοημοσύνης που εργάζονται μαζί σε μια δεδομένη εργασία. Πρώτον, θέλω να αποφύγω την ανθρωπομορφοποίηση της τεχνητής νοημοσύνης, κάτι που θα τονίσω παντού. Το AI δεν είναι ευαίσθητο. Παρακαλώ να το έχετε υπόψη σας.

Εδώ είναι κάτι που πρέπει να σκεφτείτε: Ένας καθορισμένος άνθρωπος-in-the-loop θα είναι πάντα σε απόλυτη συμφωνία με ένα συνεργαζόμενο AI;

Για οποιαδήποτε περίπλοκη εργασία, θα φαινόταν απίθανο ο άνθρωπος και η τεχνητή νοημοσύνη να είναι εξ ολοκλήρου και πάντα σε πλήρη δέσμευση. Ο άνθρωπος σε ορισμένες περιπτώσεις πιθανώς πρόκειται να διαφωνήσει με την τεχνητή νοημοσύνη. Μπορούμε να πάρουμε αυτή την υπόθεση μέχρι την τράπεζα.

Θα ήθελα να εξετάσετε επίσης αυτή την ίσως εκπληκτική πιθανότητα: Θα είναι πάντα η τεχνητή νοημοσύνη σε απόλυτη συμφωνία με έναν καθορισμένο άνθρωπο-in-the-loop;

Και πάλι, για οποιαδήποτε περίπλοκη εργασία, θα φαινόταν αρκετά κατανοητό ότι η τεχνητή νοημοσύνη δεν θα συμφωνεί με τους ανθρώπους σε ορισμένες περιπτώσεις. Εάν κλίνετε ήδη προς την ιδέα ότι η τεχνητή νοημοσύνη πρέπει να είναι πάντα λάθος ενώ οι άνθρωποι πρέπει να έχουν πάντα δίκιο, θα ήταν φρόνιμο να ξανασκεφτείτε αυτό το βιαστικό συμπέρασμα. Οραματιστείτε ένα αυτοκίνητο που έχει έναν άνθρωπο και την τεχνητή νοημοσύνη να οδηγούν από κοινού το ημιαυτόνομο όχημα. Ο άνθρωπος κατευθύνεται προς έναν τοίχο από τούβλα. Γιατί; Δεν ξέρουμε, ίσως ο άνθρωπος να είναι μεθυσμένος ή να έχει αποκοιμηθεί, αλλά ξέρουμε ότι η σύγκρουση σε έναν τοίχο από τούβλα δεν είναι καλή ιδέα, όλα τα άλλα είναι ίσα. Το AI μπορεί να εντοπίσει την επερχόμενη καταστροφή και να προσπαθήσει να απομακρυνθεί από το επικείμενο εμπόδιο.

Συνολικά, θα έχουμε την ευδιάκριτη πιθανότητα η τεχνητή νοημοσύνη και ο άνθρωπος να διαφωνούν μεταξύ τους. Ο άλλος τρόπος να πούμε το ίδιο πράγμα είναι ότι οι άνθρωποι και η τεχνητή νοημοσύνη διαφωνούν μεταξύ τους. Σημειώστε ότι δεν θέλω η αλληλουχία του AI-and-human έναντι του human-and-AI να υποδηλώνει οτιδήποτε σχετικά με την κατεύθυνση ή την αληθοφάνεια της διαφωνίας.

Οι δύο εργαζόμενοι, ένας άνθρωπος και ένας με τεχνητή νοημοσύνη, διαφωνούν μεταξύ τους.

Θα μπορούσαμε εκ των προτέρων να δηλώσουμε ότι κάθε φορά που συμβαίνει μια διαφωνία μεταξύ μιας δεδομένης τεχνητής νοημοσύνης και ενός δεδομένου ανθρώπου, διακηρύσσουμε εκ των προτέρων ότι ο άνθρωπος υπερισχύει της τεχνητής νοημοσύνης. Τούτου λεχθέντος, το ενδεικτικό μου παράδειγμα σχετικά με το αυτοκίνητο που κατευθύνεται σε έναν τοίχο από τούβλα φαίνεται να μας αποθαρρύνει ότι ο άνθρωπος θα έχει πάντα δίκιο.

Θα μπορούσαμε, αντίθετα, να επιλέξουμε να δηλώσουμε εκ των προτέρων ότι όποτε προκύψει διαφωνία θα έχουμε προηγουμένως διαπιστώσει ότι η τεχνητή νοημοσύνη είναι σωστή και ο άνθρωπος λάθος. Ούτε αυτή είναι μια εύλογα γενικεύσιμη διάταξη. Φανταστείτε ένα αυτοκίνητο στο οποίο η τεχνητή νοημοσύνη έχει κάποιο σφάλμα ή σφάλμα ενσωματωμένου λογισμικού και η τεχνητή νοημοσύνη προσπαθεί να οδηγήσει το όχημα από το δρόμο και σε μια τάφρο. Υποθέτοντας ότι όλα τα άλλα είναι ίσα, ο άνθρωπος θα πρέπει να είναι σε θέση να ξεπεράσει αυτήν την οδήγηση με τεχνητή νοημοσύνη και να εμποδίσει το όχημα να προσγειωθεί στη ρεματιά.

Ας κάνουμε μια γρήγορη περίληψη αυτού:

  • Θα είναι πάντα σε απόλυτη συμφωνία με την τεχνητή νοημοσύνη ένας άνθρωπος-in-the-loop; Απάντηση: Όχι.
  • Θα είναι πάντα η τεχνητή νοημοσύνη σε απόλυτη συμφωνία με έναν άνθρωπο-in-the-loop; Απάντηση: Οχι.
  • Θα έχει πάντα δίκιο ένας άνθρωπος-in-the-loop σε σύγκριση με την τεχνητή νοημοσύνη; Απάντηση: Οχι απαραίτητα.
  • Θα έχει πάντα δίκιο η τεχνητή νοημοσύνη σε σύγκριση με τον άνθρωπο-in-the-loop; Απάντηση: Όχι απαραίτητα.

Μπορείτε σίγουρα να ρυθμίσετε την τεχνητή νοημοσύνη ώστε να θεωρείται από προεπιλογή ως το «λάθος» ή πιο αδύναμο μέρος και επομένως να αναβάλλετε πάντα στον άνθρωπο κάθε φορά που εμφανίζεται διαφωνία. Ομοίως, μπορείτε να ρυθμίσετε το AI για να υποθέσετε ότι το AI θεωρείται "σωστό" κάθε φορά που ένας άνθρωπος διαφωνεί με το AI. Θέλω να διευκρινίσω ότι μπορούμε να το κάνουμε μέσω προγραμματισμού εάν το επιθυμούμε. Ωστόσο, ισχυρίζομαι ότι σε γενικές γραμμές, αυτό δεν θα συμβαίνει πάντα. Υπάρχουν σίγουρα ρυθμίσεις στις οποίες δεν γνωρίζουμε εκ των προτέρων εάν η τεχνητή νοημοσύνη είναι «σωστή» ή ο άνθρωπος έχει «δίκιο» όσον αφορά την επιλογή του ενός ή του άλλου σε μια διαφωνία που σχετίζεται με μια δεδομένη εργασία.

Σας οδήγησα σε μια πολύ σημαντική και πολύ περίπλοκη ερώτηση.

Τι πρέπει να κάνουμε όταν προκύψει μια επαγγελματική διαφωνία μεταξύ του human-in-the-loop και του AI (ή, ισοδύναμα, μπορούμε να το εκφράσουμε ως μεταξύ του AI και του human-in-the-loop);

Μην προσπαθήσετε να αποφύγετε την ερώτηση.

Κάποιοι μπορεί να υποστηρίξουν ότι αυτό δεν θα συνέβαινε ποτέ, αλλά όπως ανέφερα στο παράδειγμά μου για το αυτοκίνητο, σίγουρα θα μπορούσε να συμβεί. Κάποιοι μπορεί να υποστηρίξουν ότι ένας άνθρωπος είναι προφανώς ανώτερος και πρέπει να είναι ο νικητής κάθε διαφωνίας. Το παράδειγμά μου με το αυτοκίνητο και τον τοίχο από τούβλα τον γκρεμίζει. Υπάρχουν υποστηρικτές της τεχνητής νοημοσύνης που μπορεί να επιμείνουν ότι η τεχνητή νοημοσύνη πρέπει να είναι ο νικητής, λόγω της φαινομενικής υπέρβασης των ανθρώπινων συναισθημάτων και της απρόβλεπτης σκέψης από αυτούς τους τυχαίους ανθρώπους με ασαφή σκέψη. Για άλλη μια φορά, το άλλο μου παράδειγμα που συνεπάγεται ότι το αυτοκίνητο κατευθύνεται στην τάφρο υπονομεύει αυτόν τον ισχυρισμό.

Στον πραγματικό κόσμο, η τεχνητή νοημοσύνη και οι άνθρωποι πρόκειται να διαφωνήσουν, ακόμη και όταν οι δύο έρχονται σκόπιμα σε μια κατάσταση ομαδικότητας για να εκτελέσουν μια από κοινού αναληφθείσα εργασία. Θα συμβεί. Δεν μπορούμε να βάλουμε το κεφάλι μας στην άμμο και να προσποιούμαστε ότι δεν θα συμβεί.

Είδαμε ότι οι άνθρωποι που πιλότουσαν το αεροπλάνο είχαν προφανώς μια διαφωνία. Ευτυχώς, συμφώνησαν να διαφωνήσουν, έτσι φαίνεται. Έφεραν το αεροπλάνο πίσω στον τερματικό σταθμό. Βρήκαν ένα μέσο για να αντιμετωπίσουν τη διαφωνία. Η επίλυση της διαφωνίας τους λειτούργησε καλά, σε σύγκριση με το αν είχαν κοπανιστεί στο πιλοτήριο ή ίσως πέταξαν στον αέρα και συνέχισαν να είναι μάχιμοι μεταξύ τους. Αυτό είναι ένα θλιβερό σενάριο που είναι αβάσιμο και μπορούμε να είμαστε ευγνώμονες που δεν συνέβη.

Επιτρέψτε μου να παράσχω τη λίστα μου με τους διάφορους τρόπους με τους οποίους θα μπορούσαν να επιλυθούν οι διαφωνίες AI και human-in-the-loop (ή, human-in-the-loop και AI):

  • Η τεχνητή νοημοσύνη και ο ομαδικός άνθρωπος επιλύουν τα πράγματα (φιλικά ή όχι)
  • Ο άνθρωπος υπερισχύει του AI, από προεπιλογή
  • Η τεχνητή νοημοσύνη υπερισχύει του ανθρώπου, από προεπιλογή
  • Κάποια άλλη προκαθορισμένη σταθερή ανάλυση υπερισχύει, από προεπιλογή
  • Ο άνθρωπος τρίτου μέρους είναι ενσωματωμένος και η ένδειξη τους υπερισχύει των μερών
  • Η τεχνητή νοημοσύνη τρίτου μέρους είναι επαναλαμβανόμενη και η ένδειξη της υπερισχύει των μερών
  • Ο άνθρωπος τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου
  • Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου
  • Ο άνθρωπος τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου (τώρα από άνθρωπο σε άνθρωπο)
  • Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου (τώρα AI-to-AI)
  • ΑΛΛΑ

Αυτά αξίζουν άφθονα να αποσυσκευαστούν.

Προτού ασχοληθούμε με μερικά ακόμα κρέατα και πατάτες σχετικά με τις άγριες και μάλλινες σκέψεις που διέπουν τον τρόπο αντιμετώπισης της τεχνητής νοημοσύνης και των ανθρώπινων διαφωνιών, ας παρουσιάσουμε ορισμένες πρόσθετες βασικές αρχές σε βαθιά βασικά θέματα. Πρέπει να κάνουμε μια σύντομη βουτιά στην ηθική της τεχνητής νοημοσύνης και ιδιαίτερα στην εμφάνιση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL).

Μπορεί να γνωρίζετε αόριστα ότι μια από τις πιο δυνατές φωνές αυτές τις μέρες στον τομέα της τεχνητής νοημοσύνης και ακόμη και εκτός του πεδίου της τεχνητής νοημοσύνης αποτελείται από φωνές για μια μεγαλύτερη ομοιότητα ηθικής τεχνητής νοημοσύνης. Ας ρίξουμε μια ματιά στο τι σημαίνει να αναφερόμαστε στο AI Ethics και στο Ethical AI. Επιπλέον, θα διερευνήσουμε τι εννοώ όταν μιλάω για Μηχανική Μάθηση και Βαθιά Μάθηση.

Ένα συγκεκριμένο τμήμα ή τμήμα της ηθικής τεχνητής νοημοσύνης που έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης αποτελείται από την τεχνητή νοημοσύνη που εμφανίζει αβλαβείς προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Σε λίγο, θα μοιραστώ μαζί σας ορισμένες βασικές αρχές που διέπουν την ηθική της τεχνητής νοημοσύνης. Υπάρχουν πολλές από αυτού του είδους τις λίστες που επιπλέουν εδώ και εκεί. Θα μπορούσατε να πείτε ότι δεν υπάρχει ακόμη μια μοναδική λίστα καθολικής απήχησης και σύμφωνης γνώμης. Αυτά είναι τα δυσάρεστα νέα. Τα καλά νέα είναι ότι τουλάχιστον υπάρχουν άμεσα διαθέσιμες λίστες AI Ethics και τείνουν να είναι αρκετά παρόμοιες. Συνολικά, αυτό υποδηλώνει ότι με μια μορφή αιτιολογημένης σύγκλισης βρίσκουμε τον δρόμο μας προς μια γενική κοινότητα του τι συνίσταται η Ηθική AI.

Αρχικά, ας καλύψουμε εν συντομία μερικές από τις συνολικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι θα έπρεπε να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο αναφοράς, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας βεβαιωθούμε επίσης ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Ας επιστρέψουμε στην εστίασή μας στις διαφωνίες μεταξύ AI και ανθρώπου.

Έχω υποδείξει νωρίτερα ότι αυτές είναι μερικές από τις στρατηγικές επίλυσης διαφωνιών:

  • Η τεχνητή νοημοσύνη και ο ομαδικός άνθρωπος επιλύουν τα πράγματα (φιλικά ή όχι)
  • Ο άνθρωπος υπερισχύει του AI, από προεπιλογή
  • Η τεχνητή νοημοσύνη υπερισχύει του ανθρώπου, από προεπιλογή
  • Κάποια άλλη προκαθορισμένη σταθερή ανάλυση υπερισχύει, από προεπιλογή
  • Ο άνθρωπος τρίτου μέρους είναι ενσωματωμένος και η ένδειξη τους υπερισχύει των μερών
  • Η τεχνητή νοημοσύνη τρίτου μέρους είναι επαναλαμβανόμενη και η ένδειξη της υπερισχύει των μερών
  • Ο άνθρωπος τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου
  • Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου
  • Ο άνθρωπος τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου (τώρα από άνθρωπο σε άνθρωπο)
  • Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου (τώρα AI-to-AI)
  • ΑΛΛΑ

Ώρα να τα ξεσυσκευάσετε.

Πρώτον, σκεφτείτε ότι πρόκειται για όλα αυτά επαγγελματίας διαφωνίες.

Μια επαγγελματική διαφωνία ορίζεται χαλαρά ως μια διαφωνία που σχετίζεται με μια εργασία που σχετίζεται με την εργασία.

Για παράδειγμα, μια διαφωνία που προκύπτει μεταξύ ενός πιλότου και του συγκυβερνήτη σχετικά με το αν πρέπει να προχωρήσει σε μια πτήση που αντιμετωπίζει μια καταιγίδα θα μπορούσε εύλογα να χαρακτηριστεί ως επαγγελματική διαφωνία. Αντίθετα, μια έντονη διαφωνία σχετικά με το ποια μάρκα καφέ υποστηρίζει ο πιλότος έναντι της μάρκας που προτιμά ο συγκυβερνήτης κατηγοριοποιείται εύκολα ως μη επαγγελματική διαφωνία σε αυτό το συγκεκριμένο πλαίσιο.

Φυσικά, εάν μια μη επαγγελματική διαφωνία μετατραπεί σε επαγγελματική διαφωνία, μπορεί τελικά να μας ενδιαφέρει η μη επαγγελματική διαφωνία ως υποτιθέμενη πηγή ή σπίθα για την επαγγελματική. Φανταστείτε ότι ένας πιλότος και ο συγκυβερνήτης διαφωνούν πικρά για το ποια μάρκα καφέ είναι η καλύτερη, που δυστυχώς μετατρέπεται σε ανησυχίες που αφορούν συγκεκριμένες πτήσεις (λογοπαίγνιο!), όπως αν θα απογειωθεί ή όχι.

Δεύτερον, πρέπει να έχουμε κατά νου το μέγεθος της επαγγελματικής διαφωνίας.

Ίσως ο πιλότος και ο συγκυβερνήτης ή σε ήπια διαφωνία για τη συνέχιση της πτήσης. Δεν διαφωνούν και απλώς σκέφτονται τα πλεονεκτήματα και τα μειονεκτήματα του αν θα απογειωθούν. Αυτό δεν είναι το μέγεθος ή το μέγεθος μιας επαγγελματικής διαφωνίας που συνήθως εξετάζουμε εδώ. Το θέμα είναι ότι μπορεί η επαγγελματική διαφωνία να είναι παροδική και τα δύο μέρη να επιλύσουν εγκάρδια ή τουλάχιστον έγκαιρα. Γενικά, το επίκεντρο των επαγγελματικών διαφωνιών εντός του πεδίου είναι εκείνες που είναι φαινομενικά δυσεπίλυτες και τα δύο μέρη παραμένουν σταθερά σε διαφωνία.

Τρίτον, συνήθως πρέπει να υπάρχει κάτι σοβαρό για να τεθούν σε εφαρμογή αυτές οι κατευθυντήριες γραμμές.

Η επιλογή να πετάξετε ή να μην πετάξετε είναι μια αναμφισβήτητα μια απόφαση ζωής ή θανάτου, εάν η πτήση κινδυνεύει λόγω καταιγίδας ή εάν το αεροπλάνο θεωρείται ότι δεν είναι πλήρως προετοιμασμένο για ένα τέτοιο ταξίδι. Αυτό είναι σοβαρή υπόθεση. Μπορούμε ακόμα να εφαρμόσουμε τις κατευθυντήριες γραμμές στις λιγότερο επιδράσεις επαγγελματικές διαφωνίες, αν και μπορεί να είναι περισσότερο ενοχλητικό από ό,τι αξίζει.

Εντάξει, οι σκέψεις μας είναι ότι:

  • Η διαφωνία έχει κυρίως επαγγελματικό προσανατολισμό παρά για κάτι μη επαγγελματικό
  • Η διαφωνία είναι διαρκούς χαρακτήρα και δεν είναι απλώς παροδική ή με άλλον τρόπο επιλύεται εύκολα
  • Η διαφωνία προμηνύει σοβαρές συνέπειες και συνήθως έχει αντίκτυπο αποτέλεσμα
  • Τα κόμματα διαφωνούν και φαίνονται δυσεπίλυτα

Ας ρίξουμε τώρα μια πιο προσεκτική ματιά σε καθεμία από τις προτεινόμενες οδηγίες ή προσεγγίσεις μου σχετικά με τον τρόπο αντιμετώπισης τέτοιων επαγγελματικών διαφωνιών.

Η τεχνητή νοημοσύνη και ο ομαδικός άνθρωπος επιλύουν τα πράγματα (φιλικά ή όχι)

Ξεκινάω τη λίστα με την απλή πιθανότητα ότι η τεχνητή νοημοσύνη και ο άνθρωπος στη βρόχο είναι σε θέση να επιλύσουν την επαγγελματική διαφωνία μεταξύ τους. Φαίνεται ότι ίσως η περίπτωση των δύο ανθρώπων, του πιλότου και του συγκυβερνήτη απεικονίζει αυτό το είδος της περίστασης. Αποφάσισαν με κάποιο τρόπο να επιστρέψουν στον τερματικό σταθμό και να τραβήξουν χωριστούς δρόμους. Θα μπορούσε ένα σύστημα τεχνητής νοημοσύνης και ένας άνθρωπος να είναι σε θέση να καταλάβουν μια προσέγγιση επίλυσης που είναι γενικά ικανοποιητική και για τα δύο μέρη και έτσι το θέμα έχει ολοκληρωθεί ικανοποιητικά.

Ο άνθρωπος υπερισχύει του AI, από προεπιλογή

Κατά τη ρύθμιση της τεχνητής νοημοσύνης, θα μπορούσαμε να προγραμματίσουμε έναν κανόνα που λέει ότι το "human-in-the-loop" θα υπερισχύει πάντα κάθε φορά που προκύπτει μια επαγγελματική διαφωνία. Αυτή θα ήταν η ρητά κωδικοποιημένη προεπιλογή. Μπορεί επίσης να επιτρέψουμε κάποια μορφή παράκαμψης, για κάθε ενδεχόμενο, αν και ο πάγιος κανόνας θα είναι ότι ο άνθρωπος υπερισχύει.

Η τεχνητή νοημοσύνη υπερισχύει του ανθρώπου, από προεπιλογή

Κατά τη ρύθμιση της τεχνητής νοημοσύνης, ενδέχεται να προγραμματίσουμε έναν κανόνα που λέει ότι η τεχνητή νοημοσύνη θα υπερισχύει πάντα έναντι της ανθρώπινης τεχνητής νοημοσύνης κάθε φορά που προκύπτει επαγγελματική διαφωνία. Αυτή είναι η ρητά κωδικοποιημένη προεπιλογή. Μπορεί επίσης να επιτρέψουμε κάποια μορφή παράκαμψης, για κάθε ενδεχόμενο, αν και ο πάγιος κανόνας θα είναι ότι η τεχνητή νοημοσύνη υπερισχύει.

Κάποια άλλη προκαθορισμένη σταθερή ανάλυση υπερισχύει, από προεπιλογή

Κατά τη ρύθμιση της τεχνητής νοημοσύνης, ενδέχεται να προγραμματίσουμε έναν κανόνα που λέει ότι κάποια άλλη προκαθορισμένη σταθερή ανάλυση θα υπερισχύει κάθε φορά που προκύπτει επαγγελματική διαφωνία με τον άνθρωπο-in-the-loop. Το human-in-the-loop δεν υπερισχύει από προεπιλογή. Το AI δεν υπερισχύει από προεπιλογή. Υπάρχει κάποια άλλη προκαθορισμένη λύση. Για παράδειγμα, ίσως υπάρχει η ρίψη ενός νομίσματος που θα χρησιμοποιηθεί για να αποφασίσει ποιο από τα δύο μέρη θεωρείται ο σωστός δρόμος. Αυτό θα φαινόταν προφανώς μάλλον αυθαίρετο. Επομένως, ένα άλλο παράδειγμα προσέγγισης θα ήταν ότι ένας εξειδικευμένος κανόνας υπολογίζει μια τιμή με βάση τις εισροές από τα δύο μέρη και καταλήγει σε ένα αποτέλεσμα ως ισοπαλία.

Ο άνθρωπος τρίτου μέρους είναι ενσωματωμένος και η ένδειξη τους υπερισχύει των μερών

Σε περίπτωση επαγγελματικής διαφωνίας, ένας κανόνας θα μπορούσε να είναι ότι ένα τρίτο μέρος που είναι άνθρωπος καλείται και μπαίνει στο περιβάλλον για να λάβει μια απόφαση για την επίλυση της διαφωνίας. Το AI είναι προγραμματισμένο να αναβάλλει σε ό,τι αποφασίσει ο τρίτος άνθρωπος. Ο άνθρωπος που βρίσκεται ήδη στο "human-in-the-loop" έχει λάβει εκ των προτέρων οδηγίες ότι εάν προκύψει μια τέτοια κατάσταση, θα πρέπει επίσης να αναβληθεί στον άνθρωπο τρίτου μέρους. Επιπλέον, μπορείτε πιθανότατα να προβλέψετε ότι ο άνθρωπος στη θηλιά μπορεί να έχει άγχος για την προσχώρηση σε ό,τι αποφασίσει ο άνθρωπος τρίτος, εάν η απόφαση διαφωνεί με τη στάση του ανθρώπου στη θηλιά.

Η τεχνητή νοημοσύνη τρίτου μέρους είναι επαναλαμβανόμενη και η ένδειξη της υπερισχύει των μερών

Σε περίπτωση επαγγελματικής διαφωνίας, ένας κανόνας θα μπορούσε να είναι ότι ένα τρίτο μέρος που είναι διαφορετικό σύστημα τεχνητής νοημοσύνης καλείται και μπαίνει στη ρύθμιση για να ληφθεί απόφαση για την επίλυση της διαφωνίας. Το αρχικό AI είναι προγραμματισμένο να αναβάλλει σε ό,τι αποφασίσει το AI τρίτου μέρους. Ο άνθρωπος που βρίσκεται ήδη στο "human-in-the-loop" έχει λάβει εκ των προτέρων οδηγίες ότι εάν προκύψει μια τέτοια κατάσταση, θα πρέπει επίσης να αναβληθεί στην τεχνητή νοημοσύνη τρίτου μέρους. Επιπλέον, μπορείτε πιθανότατα να προβλέψετε ότι ο άνθρωπος στη βρόχο μπορεί να έχει άγχος για την προσχώρηση σε ό,τι αποφασίσει η τεχνητή νοημοσύνη τρίτου μέρους εάν η απόφαση διαφωνεί με τη στάση του ανθρώπου στη θηλιά.

Ο άνθρωπος τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου

Μετά από μια επαγγελματική διαφωνία, το human-in-the-loop αντικαθίσταται από ένα τρίτο μέρος που είναι άνθρωπος και που γίνεται στο εξής το human-in-the-loop. Ο άνθρωπος που ήταν ο αρχικός άνθρωπος-in-the-loop για την εργασία δεν θεωρείται πλέον μέρος της εργασίας στο χέρι. Είναι μια ανοιχτή πτυχή ως προς το τι θα συμβεί διαφορετικά με το τώρα αντικατασταθέν human-in-the-loop, αλλά λέμε ότι σίγουρα δεν έχουν πλέον κανένα διαρκή ρόλο στην εργασία.

Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου

Σε περίπτωση επαγγελματικής διαφωνίας, η τεχνητή νοημοσύνη αντικαθίσταται από μια τεχνητή νοημοσύνη τρίτου κατασκευαστή και αυτή γίνεται εφεξής η τεχνητή νοημοσύνη που χρησιμοποιείται για τη συγκεκριμένη εργασία. Η τεχνητή νοημοσύνη που χρησιμοποιήθηκε αρχικά για την εργασία δεν θεωρείται πλέον μέρος της εργασίας. Είναι μια ανοιχτή πτυχή ως προς το τι θα συμβεί διαφορετικά με την πλέον αντικατασταθείσα τεχνητή νοημοσύνη, αλλά λέμε ότι σίγουρα η τεχνητή νοημοσύνη δεν έχει πλέον κανένα διαρκή ρόλο στην εργασία.

Ο άνθρωπος τρίτου μέρους αντικαθιστά την υπάρχουσα τεχνητή νοημοσύνη, τα πράγματα προχωρούν εκ νέου (τώρα από άνθρωπο σε άνθρωπο)

Σε περίπτωση επαγγελματικής διαφωνίας, η τεχνητή νοημοσύνη αντικαθίσταται από έναν άνθρωπο τρίτου μέρους για τον οποίο αυτό το άτομο γίνεται πλέον το θεωρούμενο συμβαλλόμενο μέρος που θα χρησιμοποιηθεί για τη συγκεκριμένη εργασία. Η τεχνητή νοημοσύνη που χρησιμοποιήθηκε αρχικά για την εργασία δεν θεωρείται πλέον μέρος της εργασίας. Είναι μια ανοιχτή πτυχή ως προς το τι θα συμβεί διαφορετικά με την πλέον αντικατασταθείσα τεχνητή νοημοσύνη, αλλά λέμε ότι σίγουρα η τεχνητή νοημοσύνη δεν έχει πλέον κανένα διαρκή ρόλο στην εργασία. Εν ολίγοις, αυτό γίνεται πλέον μια διμερής εργασία από άνθρωπο σε άνθρωπο.

Η τεχνητή νοημοσύνη τρίτου μέρους αντικαθιστά τον υπάρχοντα άνθρωπο, τα πράγματα προχωρούν εκ νέου (τώρα AI-to-AI)

Μετά από μια επαγγελματική διαφωνία, το human-in-the-loop αντικαθίσταται από ένα AI τρίτου μέρους και αυτό το AI γίνεται εφεξής το συμπλήρωμα για το προηγούμενο human-in-the-loop. Ο άνθρωπος που ήταν ο αρχικός άνθρωπος-in-the-loop για την εργασία δεν θεωρείται πλέον μέρος της εργασίας στο χέρι. Είναι μια ανοιχτή πτυχή ως προς το τι θα συμβεί διαφορετικά με το τώρα αντικατασταθέν human-in-the-loop, αλλά λέμε ότι σίγουρα δεν έχουν πλέον κανένα διαρκή ρόλο στην εργασία. Εν ολίγοις, αυτό γίνεται τώρα ένα AI-to-AI δύο μερών για την εκτέλεση της εργασίας.

ΑΛΛΑ

Μπορούν να επινοηθούν και άλλες παραλλαγές για την αντιμετώπιση μιας επαγγελματικής διαφωνίας, αλλά έχουμε καλύψει εδώ μερικούς από τους βασικούς λίθους.

Πώς θα αποφασίσουμε ποια από αυτές τις προσεγγίσεις θα είναι η σωστή για μια δεδομένη κατάσταση;

Μια μεγάλη ποικιλία θεμάτων προκύπτουν για μια τέτοια επιλογή. Υπάρχουν τεχνολογικοί προβληματισμοί. Υπάρχουν επιχειρηματικές σκέψεις. Υπάρχουν νομικά και ηθικά ζητήματα.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα. Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αυτό αναπόσπαστο με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης (ίσως παραδόξως ή ειρωνικά) της αξιολόγησης του τρόπου με τον οποίο υιοθετείται η Δεοντολογία AI από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε αυτή τη συγκυρία αυτής της βαριάς συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά ενδεικτικά παραδείγματα που θα μπορούσαν να παρουσιάσουν αυτό το θέμα. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να εντοπίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, έτσι ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με την επίλυση διαφωνιών με την τεχνητή νοημοσύνη και τον άνθρωπο και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτοοδηγούμενα Αυτοκίνητα και Διαφωνία AI-Versus-Human

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Ελπίζω ότι αυτό παρέχει μια αρκετή λιτανεία προειδοποιήσεων για να υποστηρίξω αυτό που πρόκειται να αναφέρω.

Για πλήρως αυτόνομα οχήματα μπορεί να μην υπάρχει καμία πιθανότητα επαγγελματικής διαφωνίας μεταξύ ενός ανθρώπου και της τεχνητής νοημοσύνης, λόγω της πιθανότητας να μην υπάρχει άνθρωπος-in-the-loop για να ξεκινήσετε. Η φιλοδοξία πολλών από τους σημερινούς κατασκευαστές αυτοοδηγούμενων αυτοκινήτων είναι να αφαιρέσουν εντελώς τον άνθρωπο οδηγό από την οδήγηση. Το όχημα δεν θα περιέχει καν χειριστήρια οδήγησης προσβάσιμα από τον άνθρωπο. Σε αυτήν την περίπτωση, ένας άνθρωπος οδηγός, εάν είναι παρών, δεν θα μπορεί να συμμετάσχει στην οδήγηση καθώς δεν έχει πρόσβαση σε κανέναν έλεγχο οδήγησης.

Για ορισμένα πλήρως αυτόνομα οχήματα, ορισμένα σχέδια εξακολουθούν να επιτρέπουν σε έναν άνθρωπο να βρίσκεται στο βρόχο, αν και ο άνθρωπος δεν χρειάζεται να είναι διαθέσιμος ή να συμμετέχει καθόλου στη διαδικασία οδήγησης. Έτσι, ένας άνθρωπος μπορεί να συμμετάσχει στην οδήγηση, εάν το άτομο το επιθυμεί. Σε κανένα σημείο όμως η τεχνητή νοημοσύνη δεν εξαρτάται από τον άνθρωπο για την εκτέλεση οποιασδήποτε από τις εργασίες οδήγησης.

Στην περίπτωση των ημιαυτόνομων οχημάτων, υπάρχει μια σχέση χέρι-χέρι μεταξύ του ανθρώπινου οδηγού και του AI. Ο ανθρώπινος οδηγός μπορεί να αναλάβει εξ ολοκλήρου τα χειριστήρια οδήγησης και ουσιαστικά να εμποδίσει την τεχνητή νοημοσύνη να συμμετάσχει στην οδήγηση. Εάν ο ανθρώπινος οδηγός επιθυμεί να επαναφέρει την τεχνητή νοημοσύνη στον ρόλο του οδηγού, μπορεί να το κάνει, αν και αυτό μερικές φορές αναγκάζει τον άνθρωπο να παραιτηθεί από τους ελέγχους οδήγησης.

Μια άλλη μορφή ημιαυτόνομης λειτουργίας θα συνεπαγόταν τον ανθρώπινο οδηγό και την τεχνητή νοημοσύνη να συνεργάζονται με ομαδικό τρόπο. Το AI οδηγεί και ο άνθρωπος οδηγεί. Οδηγούν μαζί. Το AI μπορεί να μεταφερθεί στον άνθρωπο. Ο άνθρωπος μπορεί να αναβληθεί στο AI.

Σε κάποιο σημείο, το σύστημα οδήγησης τεχνητής νοημοσύνης και ο ανθρώπινος οδηγός στο βρόχο μπορεί να φτάσουν σε μια συγκυρία «επαγγελματικής διαφωνίας» ως προς το συγκεκριμένο καθήκον οδήγησης.

Για να δείξετε πώς μπορεί να είναι δύσκολο να εφαρμοστούν ορισμένοι από τους προαναφερθέντες κανόνες αντιμετώπισης μιας επαγγελματικής διαφωνίας, εξετάστε την περίπτωση της επίκλησης ενός τρίτου ανθρώπου για να εισέλθει στο θέμα και να προτείνει μια απόφαση για την επίλυση του ανεπίλυτου ζητήματος.

Ας υποθέσουμε ότι μια αυτοκινητοβιομηχανία ή μια εταιρεία τεχνολογίας αυτόνομης οδήγησης έχει μεριμνήσει ώστε οι χειριστές από απόσταση να έχουν πρόσβαση στα χειριστήρια οδήγησης των οχημάτων του στόλου τους. Ο χειριστής κάθεται σε κάποιο μακρινό γραφείο ή παρόμοιο περιβάλλον. Μέσω ενός συστήματος υπολογιστή, μπορούν να δουν τη σκηνή οδήγησης μέσω της πρόσβασης στις κάμερες και σε άλλες συσκευές αισθητήρων που έχουν τοποθετηθεί στο αυτοοδηγούμενο αυτοκίνητο. Για αυτούς, αυτό είναι σχεδόν σαν να παίζουν ένα διαδικτυακό βιντεοπαιχνίδι, αν και, φυσικά, οι πραγματικές συνθήκες έχουν δυνητικά τρομερές συνέπειες.

Ένα σύστημα AI και ένας άνθρωπος οδηγός μέσα στο αυτοκίνητο οδηγούν ένα ημιαυτόνομο όχημα σε έναν μεγάλο αυτοκινητόδρομο. Ξαφνικά, η τεχνητή νοημοσύνη θέλει να πάει σε ένα χαντάκι. Ο ανθρώπινος οδηγός δεν θέλει να το κάνει αυτό. Οι δυο τους τσακώνονται για τα χειριστήρια οδήγησης.

Πώς θα λυθεί αυτό;

Θα μπορούσαμε ίσως να είχαμε θεσμοθετήσει εκ των προτέρων ότι ο άνθρωπος πάντα κερδίζει. Ας υποθέσουμε όμως ότι επιλέξαμε να μην το κάνουμε αυτό.

Θα μπορούσαμε να είχαμε θεσπίσει εκ των προτέρων ότι η τεχνητή νοημοσύνη κερδίζει πάντα. Ας υποθέσουμε ότι επιλέξαμε να μην το κάνουμε αυτό. Συνολικά, δεν υιοθετήσαμε κανέναν από αυτούς τους κανόνες, εκτός από το ότι αποφασίσαμε να επιτρέψουμε σε έναν άνθρωπο τρίτου να παρέμβει και να επιλύσει μια επαγγελματική διαφωνία οποιασδήποτε ουσιαστικής φύσης.

Σε αυτήν την περίπτωση χρήσης, η τεχνητή νοημοσύνη και ο ανθρώπινος οδηγός στο τιμόνι παλεύουν για τα χειριστήρια οδήγησης. Αυτό ας πούμε μεταφέρεται στον απομακρυσμένο άνθρωπο χειριστή (του τρίτου μας ανθρώπου). Ο απομακρυσμένος ανθρώπινος χειριστής εξετάζει τι συμβαίνει και αποφασίζει να απομακρυνθεί από την τάφρο, αποτρέποντας φαινομενικά αυτό που προσπαθούσε να κάνει η τεχνητή νοημοσύνη. Ταυτόχρονα, ας υποθέσουμε ότι ο απομακρυσμένος ανθρώπινος χειριστής κατευθύνεται στην αντίθετη κυκλοφορία, κάτι που ίσως ούτε η τεχνητή νοημοσύνη ούτε ο άνθρωπος που οδηγούσε μέσα στο αυτοκίνητο δεν ήθελαν να κάνουν.

Το θέμα είναι ότι ο τρόπος με τον οποίο έχει εφαρμοστεί αυτός ο κανόνας είναι ότι ο τρίτος ανθρώπινος χειριστής είναι σε θέση να παρακάμψει πλήρως τόσο το AI όσο και το human-in-the-loop. Το αν αυτό θα έχει καλό αποτέλεσμα σίγουρα δεν είναι σίγουρο.

Θα χρησιμοποιήσω αυτό το παράδειγμα για να επισημάνω ορισμένες πρόσθετες γνώσεις σχετικά με αυτά τα θέματα.

Δεν μπορείτε να κάνετε την αυθάδεια υπόθεση ότι μόνο και μόνο επειδή τίθεται σε εφαρμογή ένας από αυτούς τους κανόνες, το αποτέλεσμα της επιλυθείσας διαφωνίας είναι αναγκαστικά ένα εγγυημένο καλό αποτέλεσμα. Μπορεί να μην είναι. Δεν υπάρχει κανένας πάντα σωστός κανόνας που να μπορεί να επιλεγεί.

Στη συνέχεια, ορισμένοι από αυτούς τους κανόνες ενδέχεται να μην είναι βιώσιμοι.

Εξετάστε το παράδειγμα του απομακρυσμένου ανθρώπινου χειριστή που παρεμβαίνει όταν η τεχνητή νοημοσύνη και ο ανθρώπινος οδηγός τσακώνονται πάνω από τα χειριστήρια οδήγησης. Μπορεί να χρειαστούν πολλά δευτερόλεπτα για να καταλάβει ο απομακρυσμένος χειριστής τι συμβαίνει. Μέχρι τότε, το όχημα μπορεί να είχε ήδη καταλήξει στο χαντάκι ή να είχε κάποια άλλη δυσμενή έκβαση. Επίσης, ας υποθέσουμε ότι η τοποθεσία του οχήματος αποκλείει την απομακρυσμένη πρόσβαση, όπως το να βρίσκεται σε κάποιο μέρος όπου δεν υπάρχει ηλεκτρονική σύνδεση δικτύου. Ή ίσως οι δυνατότητες δικτύωσης του οχήματος δεν λειτουργούν τη συγκεκριμένη στιγμή.

Όπως μπορείτε να δείτε, ο κανόνας μπορεί να φαίνεται περίεργος στο χαρτί, αν και η εφαρμογή του κανόνα σε πραγματική χρήση μπορεί να είναι μια πολύ δύσκολη ή πολύ τυχαία προσέγγιση. Δείτε την κριτική μου κάλυψη για τον τηλεχειριστή αυτόνομων οχημάτων και αυτοοδηγούμενων αυτοκινήτων στο ο σύνδεσμος εδώ.

Θα ήθελα να καλύψω εν συντομία ένα άλλο σχετικό θέμα που θα καλύψω σε μεγαλύτερο βάθος σε μια επερχόμενη ανάλυση.

Μία από τις αυξανόμενες ανησυχίες σχετικά με τα αυτόνομα οχήματα και τα αυτόνομα αυτοκίνητα που είναι ημιαυτόνομα είναι τα λεγόμενα Σύνδρομο καυτής πατάτας.

Εδώ είναι η συμφωνία.

Ένα σύστημα οδήγησης AI και ένας άνθρωπος συνοδηγούν. Δημιουργείται μια τρομερή κατάσταση. Η τεχνητή νοημοσύνη έχει προγραμματιστεί να εγκαταλείπει το καθήκον της οδήγησης και να παραδίδει τα πράγματα στον άνθρωπο όταν συμβαίνει μια δύσκολη στιγμή. Αυτό φαίνεται ίσως «λογικό» καθώς φαίνεται να επικαλούμαστε τον κανόνα σχετικά με τον προεπιλεγμένο «νικητή» του ανθρώπου σε οποιαδήποτε πιθανή επαγγελματική διαφωνία.

Αλλά η παραίτηση από την τεχνητή νοημοσύνη μπορεί να είναι για πιο ύπουλους ή ύπουλους σκοπούς. Μπορεί η αυτοκινητοβιομηχανία ή η εταιρεία τεχνολογίας αυτόνομης οδήγησης να μην θέλει η τεχνητή νοημοσύνη της να θεωρείται το «φταιγμα» όταν συμβαίνει ένα αυτοκινητιστικό ατύχημα. Για να αποφύγει φαινομενικά να κολλήσει έτσι, το AI παραδίδει απότομα τα χειριστήρια στον άνθρωπο. Voila, ο άνθρωπος είναι πλέον πιθανώς πλήρως υπεύθυνος για το όχημα.

Το βασικό είναι ότι ας υποθέσουμε ότι η τεχνητή νοημοσύνη κάνει αυτή τη μεταβίβαση με ας πούμε ένα δευτερόλεπτο πριν συμβεί ένα τρακάρισμα.

Θα είχε πραγματικά ο άνθρωπος διαθέσιμο χρόνο για να αποτρέψει τη συντριβή;

Μάλλον όχι.

Ας υποθέσουμε ότι η τεχνητή νοημοσύνη κάνει τη μεταβίβαση με λίγα χιλιοστά του δευτερολέπτου ή νανοδευτερόλεπτα που απομένουν. Τολμώ να πω ότι ο άνθρωπος έχει ουσιαστικά μηδενικές πιθανότητες να κάνει οτιδήποτε για να αποτρέψει τη συντριβή.

Από την οπτική γωνία της αυτοκινητοβιομηχανίας ή της εταιρείας αυτοοδηγούμενων αυτοκινήτων, μπορούν να προσπαθήσουν να συμπεριφέρονται σαν να ήταν καθαρά τα χέρια τους όταν συμβαίνει ένα τέτοιο τροχαίο ατύχημα. Το αυτοκίνητο οδηγούσε άνθρωπος. Το AI δεν οδηγούσε το αυτοκίνητο. Το μόνο «λογικό» συμπέρασμα φαίνεται να είναι ότι ο άνθρωπος πρέπει να φταίει και το AI πρέπει να είναι εντελώς άψογο.

Είναι μια πέτρα.

Θα το συζητήσω εκτενέστερα σε μια επερχόμενη στήλη.

Συμπέρασμα

Θα υπάρξουν επαγγελματικές διαφωνίες.

Είναι δύσκολο να φανταστεί κανείς μια περίπλοκη εργασία που έχει δύο μέρη να εκτελούν από κοινού την εργασία και για την οποία δεν θα υπήρχαν ποτέ επαγγελματικές διαφωνίες. Αυτό φαίνεται σαν μια χώρα φαντασίας ή τουλάχιστον μια μεγάλη σπανιότητα.

Σήμερα, έχουμε πολλές, πάρα πολλές περιπτώσεις επαγγελματικής διαφωνίας μεταξύ ανθρώπου και ανθρώπου, για τις οποίες σε καθημερινή βάση επιλύονται ειρηνικά και λογικά με τον έναν ή τον άλλον τρόπο. Στην πραγματικότητα, πολλές φορές φτιάχνουμε καταστάσεις σκόπιμα για να καλλιεργήσουμε και να επισημάνουμε επαγγελματικές διαφωνίες. Μπορεί να υποστηρίξετε ότι αυτό δείχνει τη διάσημη σοφία ότι μερικές φορές δύο κεφάλια είναι καλύτερα από ένα.

Καθώς η τεχνητή νοημοσύνη γίνεται πιο διαδεδομένη, θα έχουμε πολλούς διμερείς εκτελεστές εργασιών από AI σε άνθρωπο ή από άνθρωπο σε AI και θα υπάρξουν επαγγελματικές διαφωνίες που θα συμβεί. Η νωχελική προσέγγιση είναι να αναβάλλουμε πάντα τον άνθρωπο. Αυτή μπορεί να μην είναι η καταλληλότερη προσέγγιση. Το AI μπορεί να είναι η καλύτερη επιλογή. Ή ένας από τους άλλους προαναφερθέντες κανόνες μπορεί να είναι μια πιο ορθή προσέγγιση.

Υπάρχει αυτή η σοφή γραμμή που επαναλαμβάνεται συχνά ότι όλοι θα έπρεπε γενικά να είμαστε σε θέση να συμφωνήσουμε να διαφωνήσουμε, αν και όταν πρόκειται για το νήμα, μερικές φορές μια διαφωνία πρέπει να επιλυθεί κατηγορηματικά, διαφορετικά το υπό εξέταση θέμα θα οδηγήσει σε ανείπωτη καταστροφή. Δεν μπορούμε απλώς να αφήσουμε μια διαφωνία να μαραζώσει στο αμπέλι. Ο χρόνος μπορεί να είναι ουσιαστικός και ζωές μπορεί να διακυβεύονται.

Υπάρχει μια ξεκάθαρη απαίτηση για ορισμένα συνετή μέσα για την επίλυση των διαφωνιών, ακόμη και αν δεν είναι απαραιτήτως αποδεκτή, συμπεριλαμβανομένης της περίπτωσης που η τεχνητή νοημοσύνη και ένας άνθρωπος που βρίσκεται στο βρόχο δεν βλέπουν μάτια με μάτια ούτε byte-to-byte.

Πιστεύω ότι δεν θα διαφωνήσετε με αυτόν τον εντελώς αποδεκτό ισχυρισμό.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- ο-πιλότος-και-συν-πιλότος-διαφώνησαν-πριν-απογειωθούν-και-απότομα-επέλεξαν-να-ταξί-πίσω-στο-τερματικό-και-πάνε-τους-χωριστούς-δρόμους/