Η δεοντολογία της τεχνητής νοημοσύνης κρούει συναγερμό σχετικά με το διαφαινόμενο φάσμα των προκαταλήψεων της τεχνητής νοημοσύνης σε τεράστια παγκόσμια κλίμακα, που τροφοδοτούνται ειδικά μέσω διαφαινόμενων πλήρως αυτόνομων συστημάτων

Ο Πλάτων δήλωσε περίφημα ότι μια καλή απόφαση βασίζεται στη γνώση και όχι στους αριθμούς.

Αυτή η οξυδερκής εικόνα φαίνεται εκπληκτικά προληπτική για τη σημερινή Τεχνητή Νοημοσύνη (AI).

Βλέπετε, παρά τους κραυγαλέους τίτλους που διακηρύσσουν επί του παρόντος ότι η τεχνητή νοημοσύνη έχει φτάσει με κάποιο τρόπο στο συναίσθημα και ενσαρκώνει την ανθρώπινη γνώση και συλλογισμό, θα πρέπει να γνωρίζετε ότι αυτή η υπερεκτιμημένη υπερβολή της τεχνητής νοημοσύνης είναι ύπουλη παρέκκλιση, καθώς εξακολουθούμε να βασιζόμαστε στην ανάλυση αριθμών στη σημερινή λήψη αποφάσεων αλγορίθμων (ADM ) όπως αναλαμβάνεται από συστήματα τεχνητής νοημοσύνης. Ακόμη και το περίφημο Machine Learning (ML) και Deep Learning (DL) αποτελούνται από υπολογιστική αντιστοίχιση προτύπων, πράγμα που σημαίνει ότι οι αριθμοί εξακολουθούν να βρίσκονται στον πυρήνα της εξαιρετικής χρήσης του ML/DL.

Δεν γνωρίζουμε αν η τεχνητή νοημοσύνη είναι εφικτή. Θα μπορούσε, μπορεί και όχι. Κανείς δεν μπορεί να πει με βεβαιότητα πώς μπορεί να προκύψει αυτό. Μερικοί πιστεύουν ότι θα βελτιώσουμε σταδιακά τις προσπάθειές μας στην υπολογιστική τεχνητή νοημοσύνη, έτσι ώστε να εμφανίζεται αυθόρμητα μια μορφή αίσθησης. Άλλοι πιστεύουν ότι η τεχνητή νοημοσύνη μπορεί να μετατραπεί σε ένα είδος υπολογιστικού σουπερνόβα και να φτάσει σχεδόν μόνος της σε συναίσθημα (συνήθως αναφέρεται ως η μοναδικότητα). Για περισσότερα σχετικά με αυτές τις θεωρίες σχετικά με το μέλλον της τεχνητής νοημοσύνης, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ.

Επομένως, ας μην κοροϊδεύουμε τον εαυτό μας και ας πιστεύουμε ψευδώς ότι η σύγχρονη τεχνητή νοημοσύνη μπορεί να σκέφτεται σαν άνθρωποι. Υποθέτω ότι το ερώτημα έρχεται στη συνέχεια στο προσκήνιο σχετικά με την παρατήρηση του Πλάτωνα σχετικά με το εάν μπορούμε να έχουμε καλές αποφάσεις με βάση την υπολογιστική τεχνητή νοημοσύνη και όχι την αισθητή τεχνητή νοημοσύνη. Ίσως εκπλαγείτε αν μάθετε ότι θα έλεγα ότι μπορούμε πράγματι να έχουμε καλές αποφάσεις που λαμβάνονται από τα καθημερινά συστήματα AI.

Η άλλη όψη αυτού του νομίσματος είναι ότι μπορούμε επίσης να έχουμε καθημερινά συστήματα τεχνητής νοημοσύνης που παίρνουν κακές αποφάσεις. Σάπιες αποφάσεις. Αποφάσεις που είναι γεμάτες με απαράδεκτες προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης, υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Η εκτενής κάλυψή μου για την Ηθική AI και την Ηθική AI βρίσκεται στη διεύθυνση αυτό το σύνδεσμο εδώ και αυτό το σύνδεσμο εδώ, για να αναφέρουμε μόνο μερικά.

Για αυτήν την παρούσα συζήτηση, θα ήθελα να αναφέρω μια ιδιαίτερα ανησυχητική πτυχή σχετικά με την τεχνητή νοημοσύνη για την οποία όσοι βρίσκονται στην αρένα της Δεοντολογίας της ΑΙ δικαίως θρηνούν και προσπαθούν να ευαισθητοποιήσουν σωστά. Το απογοητευτικό και ανησυχητικό θέμα είναι στην πραγματικότητα πολύ απλό να επισημανθεί.

Εδώ είναι: Η τεχνητή νοημοσύνη έχει τις δυνατότητες του πραγματικού κόσμου να διαδώσει μεροληψίες με τεχνητή νοημοσύνη σε ανησυχητική παγκόσμια κλίμακα.

Και όταν λέω "σε κλίμακα" αυτό σημαίνει αποδεδειγμένα παγκόσμια μαζική κλίμακα. Ογκώδης κλίμακα. Ζυγαριά που φεύγει από τη ζυγαριά.

Προτού βουτήξω στο πώς θα πραγματοποιηθεί αυτή η κλιμάκωση των μεροληψιών με έντονο AI, ας βεβαιωθούμε ότι όλοι έχουμε μια ομοιότητα για το πώς η τεχνητή νοημοσύνη μπορεί να ενσωματώσει αδικαιολόγητες προκαταλήψεις και ανισότητες. Θυμηθείτε ξανά ότι δεν πρόκειται για μια ευαίσθητη ποικιλία. Όλα αυτά είναι υπολογιστικού διαμετρήματος.

Ίσως να μπερδεύεστε ως προς το πώς η τεχνητή νοημοσύνη θα μπορούσε να εμποτίσει τα ίδια είδη δυσμενών προκαταλήψεων και ανισοτήτων που κάνουν οι άνθρωποι. Τείνουμε να θεωρούμε ότι η τεχνητή νοημοσύνη είναι εντελώς ουδέτερη, αμερόληπτη, απλώς μια μηχανή που δεν έχει καμία από τις συναισθηματικές επιρροές και τις αποκρουστικές σκέψεις που μπορεί να έχουν οι άνθρωποι. Ένας από τους πιο συνηθισμένους τρόπους για να εμπίπτει η τεχνητή νοημοσύνη στις προκαταλήψεις και τις ανισότητες, συμβαίνει όταν χρησιμοποιείται η Μηχανική Μάθηση και η Βαθιά Μάθηση, εν μέρει ως αποτέλεσμα της βάσης σε δεδομένα που συλλέγονται σχετικά με τον τρόπο με τον οποίο οι άνθρωποι λαμβάνουν αποφάσεις.

Επιτρέψτε μου μια στιγμή να επεξεργαστώ.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει αβλαβείς προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η αντιστοίχιση υπολογιστικού προτύπου Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων ή ADM του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Αυτό μας φέρνει στο θέμα των προκαταλήψεων με τεχνητή νοημοσύνη όταν είμαστε σε κλίμακα.

Αρχικά, ας ρίξουμε μια ματιά στο πώς οι ανθρώπινες προκαταλήψεις μπορεί να δημιουργούν ανισότητες. Μια εταιρεία που χορηγεί στεγαστικά δάνεια αποφασίζει να προσλάβει έναν πράκτορα στεγαστικών δανείων. Ο πράκτορας υποτίθεται ότι εξετάζει αιτήματα από καταναλωτές που θέλουν να λάβουν στεγαστικό δάνειο. Μετά την αξιολόγηση μιας αίτησης, ο πράκτορας αποφασίζει είτε να χορηγήσει το δάνειο είτε να αρνηθεί το δάνειο. Πανεύκολο.

Για λόγους συζήτησης, ας φανταστούμε ότι ένας πράκτορας ανθρώπινων δανείων μπορεί να αναλύσει 8 δάνεια την ημέρα, απαιτώντας περίπου μία ώρα ανά αξιολόγηση. Σε μια πενθήμερη εβδομάδα εργασίας, ο πράκτορας κάνει περίπου 40 αναθεωρήσεις δανείων. Σε ετήσια βάση, ο πράκτορας κάνει συνήθως περίπου 2,000 αξιολογήσεις δανείων, δίνουν ή παίρνουν λίγο.

Η εταιρεία θέλει να αυξήσει τον όγκο των αναθεωρήσεων δανείων, και έτσι η εταιρεία προσλαμβάνει 100 επιπλέον πράκτορες δανείων. Ας υποθέσουμε ότι όλα έχουν περίπου την ίδια παραγωγικότητα και ότι αυτό σημαίνει ότι μπορούμε πλέον να χειριστούμε περίπου 200,000 δάνεια ετησίως (με ρυθμό 2,000 αναθεωρήσεις δανείων ετησίως ανά πράκτορα). Φαίνεται ότι έχουμε πραγματικά επιταχύνει την επεξεργασία των αιτήσεων δανείου.

Αποδεικνύεται ότι η εταιρεία επινοεί ένα σύστημα AI που μπορεί ουσιαστικά να κάνει τους ίδιους ελέγχους δανείων με τους ανθρώπινους πράκτορες. Το AI εκτελείται σε διακομιστές υπολογιστών στο cloud. Μέσω της υποδομής cloud, η εταιρεία μπορεί εύκολα να προσθέσει περισσότερη υπολογιστική ισχύ για να φιλοξενήσει οποιονδήποτε όγκο αναθεωρήσεων δανείων που μπορεί να χρειαστεί.

Με την υπάρχουσα διαμόρφωση AI, μπορούν να κάνουν 1,000 αξιολογήσεις δανείων ανά ώρα. Αυτό μπορεί επίσης να συμβεί 24×7. Δεν απαιτείται χρόνος διακοπών για το AI. Όχι διαλείμματα για μεσημεριανό γεύμα. Η τεχνητή νοημοσύνη λειτουργεί όλο το εικοσιτετράωρο χωρίς να φωνάζει για υπερβολική εργασία. Θα πούμε ότι με αυτόν τον κατά προσέγγιση ρυθμό, η τεχνητή νοημοσύνη μπορεί να επεξεργαστεί σχεδόν 9 εκατομμύρια αιτήσεις δανείου ετησίως.

Παρατηρήστε ότι φτάσαμε από το να έχουμε 100 ανθρώπινους πράκτορες που μπορούσαν να κάνουν 200,000 δάνεια ετησίως και πηδήσαμε πολλές φορές στον πολύ αυξημένο αριθμό των 9 εκατομμυρίων κριτικών ετησίως μέσω του συστήματος AI. Έχουμε κλιμακώσει δραματικά την επεξεργασία των αιτημάτων δανείου. Καμιά αμφιβολία γι 'αυτό.

Ετοιμαστείτε για την κλωτσιά που ίσως θα σας κάνει να πέσετε από την καρέκλα σας.

Ας υποθέσουμε ότι ορισμένοι από τους ανθρώπινους πράκτορες μας παίρνουν τις αποφάσεις τους για τα δάνειά τους στη βάση αθέμιτων προκαταλήψεων. Ίσως κάποιοι δίνουν σε φυλετικούς παράγοντες βασικό ρόλο στην απόφαση του δανείου. Ίσως κάποιοι χρησιμοποιούν το φύλο. Άλλοι χρησιμοποιούν την ηλικία. Και ούτω καθεξής.

Από τις 200,000 ετήσιες αναθεωρήσεις δανείων, πόσες γίνονται υπό το άδικο βλέμμα δυσμενών προκαταλήψεων και ανισοτήτων; Ίσως το 10% που είναι περίπου 20,000 των αιτημάτων δανείου. Ακόμη χειρότερα, ας υποθέσουμε ότι είναι το 50% των αιτημάτων δανείου, οπότε υπάρχουν αρκετά ανησυχητικά 100,000 ετήσιες περιπτώσεις λανθασμένων αποφάσεων για δάνεια.

Αυτό είναι κακό. Αλλά δεν έχουμε ακόμη εξετάσει μια ακόμη πιο τρομακτική πιθανότητα.

Ας υποθέσουμε ότι η τεχνητή νοημοσύνη έχει μια κρυφή προκατάληψη που αποτελείται από παράγοντες όπως η φυλή, το φύλο, η ηλικία και τα παρόμοια. Εάν το 10% των ετήσιων αναλύσεων δανείων υπόκεινται σε αυτή τη δυσαρέσκεια, έχουμε 900,000 αιτήματα δανείου που δεν αντιμετωπίζονται σωστά. Αυτό είναι πολύ περισσότερο από αυτό που θα μπορούσαν να κάνουν οι ανθρώπινοι πράκτορες, κυρίως λόγω των πτυχών του όγκου. Αυτοί οι 100 πράκτορες, αν όλοι έκαναν εξ ολοκλήρου έναν άδικο έλεγχο, θα μπορούσαν το πολύ να το κάνουν αυτό στις 200,000 ετήσιες αναθεωρήσεις δανείων. Το AI θα μπορούσε να κάνει το ίδιο σε μια πολύ μεγάλη κλίμακα από τις 9,000,000 ετήσιες αξιολογήσεις.

Yikes!

Αυτή είναι πραγματικά μεγάλη προκατάληψη με AI σε τεράστια κλίμακα.

Όταν οι δυσάρεστες προκαταλήψεις ενσωματώνονται σε ένα σύστημα τεχνητής νοημοσύνης, η ίδια κλιμάκωση που φαινόταν πλεονεκτική στρέφεται τώρα στο κεφάλι του και γίνεται ένα τερατώδες σαγηνευτικό (και ανησυχητικό) αποτέλεσμα κλιμάκωσης. Από τη μία πλευρά, η τεχνητή νοημοσύνη μπορεί επωφελώς να χειριστεί περισσότερους ανθρώπους που ζητούν στεγαστικά δάνεια. Επιφανειακά, αυτό φαίνεται τρομερό AI για καλό. Θα πρέπει να χαϊδέψουμε τους εαυτούς μας στην πλάτη γιατί πιθανώς επεκτείνουμε τις πιθανότητες να λάβουν οι άνθρωποι τα απαραίτητα δάνεια. Εν τω μεταξύ, εάν η τεχνητή νοημοσύνη έχει ενσωματωμένες προκαταλήψεις, η κλιμάκωση θα είναι ένα τρομερά σάπιο αποτέλεσμα και θα βρεθούμε θρηνητικά βυθισμένοι σε AI για κακό, σε πραγματικά τεράστια κλίμακα.

Το παροιμιώδες δίκοπο μαχαίρι.

Η τεχνητή νοημοσύνη μπορεί να αυξήσει ριζικά την πρόσβαση στη λήψη αποφάσεων για όσους αναζητούν τις επιθυμητές υπηρεσίες και προϊόντα. Τέρμα τα ανθρώπινα περιορισμένα εργασιακά σημεία συμφόρησης. Εξαιρετική! Η άλλη άκρη του ξίφους είναι ότι εάν η τεχνητή νοημοσύνη περιέχει κακία, όπως κρυμμένες ανισότητες, η ίδια μαζική κλιμάκωση θα διαδώσει αυτή την απαράδεκτη συμπεριφορά σε ασύλληπτη κλίμακα. Εξοργιστικό, άδικο, ντροπιαστικό και δεν μπορούμε να επιτρέψουμε στην κοινωνία να πέσει σε μια τόσο άσχημη άβυσσο.

Όποιος έχει προβληματιστεί σχετικά με το γιατί πρέπει να απορρίψουμε τη σημασία της Δεοντολογίας της τεχνητής νοημοσύνης θα πρέπει τώρα να συνειδητοποιήσει ότι το φαινόμενο της κλιμάκωσης της τεχνητής νοημοσύνης είναι ένας καταραμένος σημαντικός λόγος για την επιδίωξη της ηθικής τεχνητής νοημοσύνης. Ας αφιερώσουμε λίγο χρόνο για να εξετάσουμε εν συντομία μερικές από τις βασικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι πρέπει να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει την κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση όταν η κωδικοποίηση AI πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιηθούν από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της Ηθικής ΤΝ. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Λάβετε υπόψη ότι χρειάζεται ένα χωριό για να επινοήσει και να τοποθετήσει AI. Για το οποίο ολόκληρο το χωριό πρέπει να παρακολουθεί την ηθική της τεχνητής νοημοσύνης.

Πώς λειτουργεί η κλιμάκωση προκαταλήψεων με AI-Steeped

Τώρα που έχω μπει στον πίνακα ότι η τεχνητή νοημοσύνη μπορεί να περιέχει προκαταλήψεις, είμαστε έτοιμοι να εξετάσουμε μερικούς από τους λόγους για τους οποίους η κλιμάκωση της τεχνητής νοημοσύνης είναι τόσο παρεμβατική.

Εξετάστε αυτήν τη βασική λίστα με δέκα βασικούς λόγους:

  1. Αναπαράγεται εύκολα
  2. Ελάχιστο κόστος κλίμακας
  3. Αποτρόπαια συνεπής
  4. Έλλειψη αυτοστοχασμού
  5. Τυφλή υπακοή
  6. Δεν γέρνει το χέρι του
  7. Παραλήπτης ανυποψίαστος
  8. Τείνει να μην υποκινεί την πρόκληση
  9. Ψεύτικη αύρα δικαιοσύνης
  10. Δύσκολο να διαψευσθεί

Θα εξερευνήσω εν συντομία καθένα από αυτά τα κρίσιμα σημεία.

Όταν προσπαθείτε να κλιμακώσετε με την ανθρώπινη εργασία, οι πιθανότητες είναι ότι κάτι τέτοιο θα είναι εξαιρετικά περίπλοκο. Πρέπει να βρεις και να προσλάβεις ανθρώπους. Πρέπει να τους εκπαιδεύσεις για να κάνουν τη δουλειά. Πρέπει να τα πληρώσεις και να λάβεις υπόψη σου τις ανθρώπινες επιθυμίες και ανάγκες. Συγκρίνετε αυτό με ένα σύστημα AI. Το αναπτύσσεις και το βάζεις σε χρήση. Εκτός από κάποια συνεχή συντήρηση του AI, μπορείτε να καθίσετε και να το αφήσετε να επεξεργαστεί ατελείωτα.

Αυτό σημαίνει ότι η τεχνητή νοημοσύνη αναπαράγεται εύκολα. Μπορείτε να προσθέσετε περισσότερη υπολογιστική ισχύ όπως μπορεί να απαιτεί η εργασία και ο όγκος (δεν προσλαμβάνετε ή απολύετε). Η παγκόσμια χρήση γίνεται με το πάτημα ενός κουμπιού και επιτυγχάνεται με την παγκόσμια διαθεσιμότητα του Διαδικτύου. Η κλιμάκωση είναι ένα ελάχιστο κόστος σε σύγκριση με το ίδιο με την ανθρώπινη εργασία.

Η ανθρώπινη εργασία είναι εμφανώς ασυνεπής. Όταν έχεις μεγάλες ομάδες, έχεις ένα πραγματικό κουτί σοκολατάκια που ποτέ δεν ξέρεις τι μπορεί να έχεις στα χέρια σου. Το σύστημα AI είναι πιθανό να είναι εξαιρετικά συνεπές. Επαναλαμβάνει τις ίδιες δραστηριότητες ξανά και ξανά, κάθε φορά ουσιαστικά ίδιες με την προηγούμενη.

Κανονικά, θα μας άρεσε η συνέπεια της τεχνητής νοημοσύνης. Εάν οι άνθρωποι είναι επιρρεπείς σε προκαταλήψεις, θα έχουμε πάντα ένα μέρος της ανθρώπινης εργασίας μας που θα παραπλανηθεί. Η τεχνητή νοημοσύνη, αν ήταν καθαρά αμερόληπτη στην κατασκευή και στις υπολογιστικές της προσπάθειες, θα ήταν μακράν πιο συνεπής. Το πρόβλημα όμως είναι ότι αν η τεχνητή νοημοσύνη έχει κρυφές προκαταλήψεις, η συνέπεια είναι τώρα οδυνηρά αποκρουστική. Οι πιθανότητες είναι ότι η μεροληπτική συμπεριφορά θα πραγματοποιείται με συνέπεια, ξανά και ξανά.

Ας ελπίσουμε ότι οι άνθρωποι θα είχαν κάποια ιδέα για αυτοστοχασμό και ίσως πιάσουν τον εαυτό τους να παίρνει προκατειλημμένες αποφάσεις. Δεν λέω ότι θα το έκαναν όλοι. Δεν λέω επίσης ότι αυτοί που πιάσουν τον εαυτό τους θα διορθώσουν απαραίτητα τα λάθη τους. Σε κάθε περίπτωση, τουλάχιστον μερικοί άνθρωποι θα διορθώνονταν μερικές φορές.

Η τεχνητή νοημοσύνη είναι απίθανο να έχει οποιαδήποτε μορφή υπολογιστικής αυτοαναστοχασμού. Αυτό σημαίνει ότι το AI απλώς συνεχίζει να κάνει αυτό που κάνει. Θα ήταν φαινομενικά μηδενική η πιθανότητα η τεχνητή νοημοσύνη να εντοπίσει ότι παραβιάζει τα ίδια κεφάλαια. Τούτου λεχθέντος, έχω περιγράψει ορισμένες προσπάθειες για την αντιμετώπιση αυτού του φαινομένου, όπως η δημιουργία στοιχείων AI Ethics εντός του AI (βλ. ο σύνδεσμος εδώ) και επινόηση τεχνητής νοημοσύνης που παρακολουθεί άλλα τεχνητή νοημοσύνη για να διακρίνει ανήθικες δραστηριότητες τεχνητής νοημοσύνης (βλ. ο σύνδεσμος εδώ).

Ελλείψει οποιουδήποτε είδους αυτοστοχασμού, το AI είναι επίσης πιθανό να έχει ουσιαστικά τυφλή υπακοή σε ό,τι του δόθηκε εντολή να κάνει. Οι άνθρωποι μπορεί να μην είναι τόσο υπάκουοι. Οι πιθανότητες είναι ότι μερικοί άνθρωποι που εκτελούν μια εργασία θα αμφισβητήσουν εάν οδηγούνται ίσως σε περιοχές ανισότητας. Θα είχαν την τάση να απορρίπτουν ανήθικες εντολές ή ίσως να ακολουθούν τον δρόμο του πληροφοριοδότη (δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ). Μην περιμένετε από την καθημερινή σύγχρονη τεχνητή νοημοσύνη να αμφισβητήσει με κάποιο τρόπο τον προγραμματισμό της.

Στη συνέχεια στραφούμε σε αυτούς που χρησιμοποιούν AI. Αν αναζητούσατε στεγαστικό δάνειο και μιλούσατε με έναν άνθρωπο, ίσως να είστε σε εγρήγορση για το αν ο άνθρωπος σας κάνει να ταρακουνήσετε σωστά. Όταν χρησιμοποιείτε ένα σύστημα AI, οι περισσότεροι άνθρωποι φαίνεται να είναι λιγότερο καχύποπτοι. Συχνά υποθέτουν ότι η τεχνητή νοημοσύνη είναι δίκαιη και, επομένως, δεν ενοχλούνται τόσο γρήγορα. Η τεχνητή νοημοσύνη φαίνεται να παρασύρει τους ανθρώπους σε μια έκσταση «είναι απλώς μια μηχανή». Επιπλέον, μπορεί να είναι δύσκολο να προσπαθήσεις να διαμαρτυρηθείς για την τεχνητή νοημοσύνη. Αντίθετα, η διαμαρτυρία για το πώς σας συμπεριφέρθηκε ένας ανθρώπινος πράκτορας είναι πολύ πιο εύκολη και πολύ πιο κοινά αποδεκτή και θεωρείται ως βιώσιμη.

Συνολικά, η τεχνητή νοημοσύνη που είναι βουτηγμένη σε προκαταλήψεις έχει ένα άτιμο πλεονέκτημα έναντι των ανθρώπων που είναι βυθισμένοι σε προκαταλήψεις, συγκεκριμένα από την άποψη της δυνατότητας της τεχνητής νοημοσύνης να αναπτύξει μαζικά αυτές τις προκαταλήψεις σε γιγαντιαία κλίμακα, χωρίς να συλλαμβάνεται εύκολα ή να έχει καταναλωτές συνειδητοποιήσουν τι είναι ανησυχητικό.

Σε αυτή τη συγκυρία αυτής της συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά πρόσθετα παραδείγματα που θα μπορούσαν να αναδείξουν το αίνιγμα των προκαταλήψεων με τεχνητή νοημοσύνη σε κλίμακα.

Χαίρομαι που ρωτήσατε.

Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να προσδιορίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με τις έντονες προκαταλήψεις της τεχνητής νοημοσύνης σε κλίμακα, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι αυτά που το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά την οδήγηση.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμη ένα αληθινό αυτοκίνητο αυτο-οδήγησης στο Επίπεδο 5, το οποίο δεν γνωρίζουμε ακόμη και αν αυτό θα είναι δυνατό να επιτευχθεί και ούτε πόσο θα χρειαστεί να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτο-οδηγούμενα αυτοκίνητα και προκαταλήψεις AI σε κλίμακα

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Πιστεύω ότι παρέχει αρκετή λιτανεία προειδοποιήσεων για να υπογραμμίσει αυτό που πρόκειται να αναφέρω.

Είμαστε έτοιμοι τώρα να κάνουμε μια βαθιά βουτιά στα αυτοοδηγούμενα αυτοκίνητα και τις δυνατότητες ηθικής τεχνητής νοημοσύνης που συνεπάγονται την εξερεύνηση προκαταλήψεων με έντονο AI που διαδίδονται σε μεγάλη κλίμακα.

Ας χρησιμοποιήσουμε ένα πολύ απλό παράδειγμα. Ένα αυτοοδηγούμενο αυτοκίνητο βασισμένο σε τεχνητή νοημοσύνη βρίσκεται σε εξέλιξη στους δρόμους της γειτονιάς σας και φαίνεται να οδηγεί με ασφάλεια. Στην αρχή, είχατε αφιερώσει ιδιαίτερη προσοχή σε κάθε φορά που καταφέρνατε να ρίξετε μια ματιά στο αυτο-οδηγούμενο αυτοκίνητο. Το αυτόνομο όχημα ξεχώριζε με τη σχάρα ηλεκτρονικών αισθητήρων που περιλάμβανε βιντεοκάμερες, μονάδες ραντάρ, συσκευές LIDAR και άλλα παρόμοια. Μετά από πολλές εβδομάδες που το αυτοοδηγούμενο αυτοκίνητο ταξιδεύει στην κοινότητά σας, τώρα μόλις και μετά βίας το παρατηρείτε. Σε ό,τι σας αφορά, είναι απλώς ένα ακόμη αυτοκίνητο στους ήδη πολυσύχναστους δημόσιους δρόμους.

Για να μην πιστεύετε ότι είναι αδύνατο ή απίθανο να εξοικειωθείτε με τα αυτόνομα αυτοκίνητα, έχω γράψει συχνά για το πώς οι τοποθεσίες που εμπίπτουν στο πεδίο των δοκιμών αυτοοδηγούμενων αυτοκινήτων έχουν σταδιακά συνηθίσει να βλέπουν τα κομψά οχήματα. δείτε την ανάλυσή μου στο αυτό το σύνδεσμο εδώ. Πολλοί από τους ντόπιους τελικά μεταπήδησαν από το να εκπέμπουν ένα εκτεταμένο χασμουρητό πλήξης για να παρακολουθήσουν αυτά τα αυτοκινούμενα αυτοκίνητα.

Πιθανώς ο κύριος λόγος αυτή τη στιγμή που μπορεί να παρατηρήσουν τα αυτόνομα οχήματα είναι ο παράγοντας ερεθισμού και εκνευρισμού. Τα bythe-book συστήματα οδήγησης τεχνητής νοημοσύνης διασφαλίζουν ότι τα αυτοκίνητα τηρούν όλα τα όρια ταχύτητας και τους κανόνες του δρόμου. Για τους ταραχώδεις οδηγούς με τα παραδοσιακά αυτοκίνητά τους που οδηγούνται από ανθρώπους, εκνευρίζεστε κατά καιρούς όταν κολλάτε πίσω από τα αυστηρά νομοθετικά αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη.

Αυτό είναι κάτι που ίσως χρειαστεί να το συνηθίσουμε όλοι, δικαίως ή αδίκως.

Επιστροφή στο παραμύθι μας.

Αποδεικνύεται ότι αρχίζουν να προκύπτουν δύο απαράδεκτες ανησυχίες σχετικά με τα κατά τα άλλα αβλαβή και γενικά ευπρόσδεκτα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη, συγκεκριμένα:

ένα. Εκεί που η τεχνητή νοημοσύνη περιπλανάται στα αυτοοδηγούμενα αυτοκίνητα για να πάρει βόλτες ήταν μια έντονη ανησυχία

σι. Ο τρόπος με τον οποίο η τεχνητή νοημοσύνη αντιμετωπίζει τους πεζούς που περιμένουν που δεν έχουν δικαίωμα διέλευσης αναδεικνύεται ως πιεστικό ζήτημα

Στην αρχή, η τεχνητή νοημοσύνη περιπλανήθηκε στα αυτόνομα αυτοκίνητα σε ολόκληρη την πόλη. Όποιος ήθελε να ζητήσει μια βόλτα με το αυτο-οδηγούμενο αυτοκίνητο είχε ουσιαστικά ίσες πιθανότητες να το κάνει. Σταδιακά, η τεχνητή νοημοσύνη άρχισε να διατηρεί κυρίως τα αυτόνομα αυτοκίνητα σε περιαγωγή σε ένα μόνο τμήμα της πόλης. Αυτή η ενότητα ήταν πιο κερδοφόρα και το σύστημα τεχνητής νοημοσύνης είχε προγραμματιστεί να προσπαθεί να μεγιστοποιήσει τα έσοδα ως μέρος της χρήσης στην κοινότητα.

Τα μέλη της κοινότητας στα φτωχά μέρη της πόλης ήταν λιγότερο πιθανό να είναι σε θέση να κάνουν μια βόλτα από ένα αυτοοδηγούμενο αυτοκίνητο. Αυτό συνέβη επειδή τα αυτόνομα αυτοκίνητα ήταν πιο μακριά και περιπλανήθηκαν στο τμήμα με τα υψηλότερα έσοδα της περιοχής. Όταν ένα αίτημα ερχόταν από ένα μακρινό μέρος της πόλης, οποιοδήποτε αίτημα από μια πιο κοντινή τοποθεσία που ήταν πιθανό στο "εκτίμητο" μέρος της πόλης θα είχε μεγαλύτερη προτεραιότητα. Τελικά, η διαθεσιμότητα ενός αυτοοδηγούμενου αυτοκινήτου σε οποιοδήποτε μέρος εκτός από το πλουσιότερο μέρος της πόλης ήταν σχεδόν αδύνατη, εξωφρενικά για εκείνους που ζούσαν σε εκείνες τις περιοχές που τώρα στερούνται φυσικών πόρων.

Θα μπορούσατε να ισχυριστείτε ότι η τεχνητή νοημοσύνη σχεδόν προσγειώθηκε σε μια μορφή διάκρισης μεσολάβησης (επίσης συχνά αναφέρεται ως έμμεση διάκριση). Η τεχνητή νοημοσύνη δεν είχε προγραμματιστεί για να αποφεύγει αυτές τις φτωχότερες γειτονιές. Αντίθετα, «έμαθε» να το κάνει μέσω της χρήσης του ML/DL.

Το θέμα είναι ότι οι οδηγοί που μοιράζονται το αυτοκίνητο ήταν γνωστοί για το ίδιο πράγμα, αν και όχι απαραιτήτως αποκλειστικά λόγω της γωνίας παραγωγής χρημάτων. Υπήρχαν μερικοί από τους οδηγούς που μοιράζονταν την οδήγηση που είχαν μια απαράδεκτη προκατάληψη σχετικά με την παραλαβή αναβατών σε ορισμένα μέρη της πόλης. Αυτό ήταν ένα κάπως γνωστό φαινόμενο και η πόλη είχε εφαρμόσει μια προσέγγιση παρακολούθησης για να πιάσει ανθρώπους οδηγούς που το έκαναν αυτό. Οι άνθρωποι οδηγοί θα μπορούσαν να βρεθούν σε μπελάδες για τη διεξαγωγή δυσάρεστων πρακτικών επιλογής.

Θεωρήθηκε ότι το AI δεν θα έπεφτε ποτέ σε αυτό το είδος κινούμενης άμμου. Δεν δημιουργήθηκε εξειδικευμένη παρακολούθηση για να παρακολουθείτε πού πήγαιναν τα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη. Μόνο αφού τα μέλη της κοινότητας άρχισαν να παραπονιούνται, οι ηγέτες της πόλης συνειδητοποίησαν τι συνέβαινε. Για περισσότερα σχετικά με αυτούς τους τύπους ζητημάτων σε όλη την πόλη που πρόκειται να παρουσιάσουν τα αυτόνομα οχήματα και τα αυτόνομα αυτοκίνητα, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ και η οποία περιγράφει μια μελέτη υπό την ηγεσία του Χάρβαρντ που συνέταξα για το θέμα.

Αυτό το παράδειγμα των πτυχών περιαγωγής των αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη απεικονίζει την προηγούμενη ένδειξη ότι μπορεί να υπάρξουν καταστάσεις που συνεπάγονται ανθρώπους με δυσάρεστες προκαταλήψεις, για τις οποίες έχουν τεθεί σε εφαρμογή έλεγχοι και ότι η τεχνητή νοημοσύνη που αντικαθιστά αυτούς τους ανθρώπινους οδηγούς έχει αφεθεί Ελεύθερος. Δυστυχώς, η τεχνητή νοημοσύνη μπορεί στη συνέχεια να βυθιστεί σταδιακά σε παρόμοιες προκαταλήψεις και να το κάνει χωρίς επαρκή προστατευτικά κιγκλιδώματα στη θέση τους.

Αυτό δείχνει επίσης τις έντονες προκαταλήψεις της τεχνητής νοημοσύνης στο ζήτημα της κλίμακας.

Στην περίπτωση των ανθρώπινων οδηγών, μπορεί να είχαμε μερικούς εδώ ή εκεί που ασκούσαν κάποια μορφή ανισότητας. Για το σύστημα οδήγησης AI, είναι συνήθως ένα τέτοιο ενοποιημένο AI για έναν ολόκληρο στόλο αυτοοδηγούμενων αυτοκινήτων. Έτσι, θα μπορούσαμε να ξεκινήσαμε με πενήντα αυτοκίνητα αυτόνομης οδήγησης στην πόλη (όλα με τον ίδιο κωδικό τεχνητής νοημοσύνης) και σταδιακά να αυξηθήκαμε σε ας πούμε 500 αυτοοδηγούμενα αυτοκίνητα (όλα με τον ίδιο κωδικό AI). Εφόσον όλα αυτά τα πεντακόσια αυτοοδηγούμενα αυτοκίνητα κινούνται από την ίδια τεχνητή νοημοσύνη, αντίστοιχα όλα υπόκεινται στις ίδιες προκαταλήψεις και ανισότητες που ενσωματώνονται στο AI.

Η κλιμάκωση μας βλάπτει από αυτή την άποψη.

Ένα δεύτερο παράδειγμα περιλαμβάνει την τεχνητή νοημοσύνη που καθορίζει εάν θα σταματήσει για να περιμένουν πεζούς που δεν έχουν το δικαίωμα διέλευσης να διασχίσουν έναν δρόμο.

Αναμφίβολα οδηγούσατε και συναντήσατε πεζούς που περίμεναν να διασχίσουν το δρόμο και ωστόσο δεν είχαν το δικαίωμα διέλευσης να το κάνουν. Αυτό σήμαινε ότι είχατε διακριτική ευχέρεια να σταματήσετε και να τους αφήσετε να περάσουν. Θα μπορούσατε να προχωρήσετε χωρίς να τους αφήσετε να διασχίσουν και να εξακολουθείτε να είστε πλήρως εντός των νόμιμων κανόνων οδήγησης.

Μελέτες σχετικά με τον τρόπο με τον οποίο οι άνθρωποι αποφασίζουν να σταματήσουν ή να μην σταματήσουν για τέτοιους πεζούς έχουν υποδείξει ότι μερικές φορές οι άνθρωποι οδηγοί κάνουν την επιλογή με βάση ανεπιθύμητες προκαταλήψεις. Ένας άνθρωπος οδηγός μπορεί να κοιτάξει τον πεζό και να επιλέξει να μην σταματήσει, παρόλο που θα είχε σταματήσει αν ο πεζός είχε διαφορετική εμφάνιση, όπως με βάση τη φυλή ή το φύλο. Το έχω εξετάσει στο ο σύνδεσμος εδώ.

Φανταστείτε ότι τα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη είναι προγραμματισμένα να αντιμετωπίζουν το ερώτημα εάν θα σταματήσουν ή όχι για πεζούς που δεν έχουν δικαίωμα διέλευσης. Δείτε πώς οι προγραμματιστές AI αποφάσισαν να προγραμματίσουν αυτήν την εργασία. Συνέλεξαν δεδομένα από τις βιντεοκάμερες της πόλης που είναι τοποθετημένες σε όλη την πόλη. Τα δεδομένα δείχνουν ανθρώπους οδηγούς που σταματούν για πεζούς που δεν έχουν δικαίωμα διέλευσης και ανθρώπους οδηγούς που δεν σταματούν. Όλα συλλέγονται σε ένα μεγάλο σύνολο δεδομένων.

Με τη χρήση Machine Learning και Deep Learning, τα δεδομένα μοντελοποιούνται υπολογιστικά. Το σύστημα οδήγησης AI χρησιμοποιεί στη συνέχεια αυτό το μοντέλο για να αποφασίσει πότε να σταματήσει ή να μην σταματήσει. Γενικά, η ιδέα είναι ότι ό,τι κι αν αποτελείται το τοπικό έθιμο, έτσι η τεχνητή νοημοσύνη κατευθύνει το αυτοοδηγούμενο αυτοκίνητο.

Προς έκπληξη των ηγετών της πόλης και των κατοίκων, το AI προφανώς επέλεξε να σταματήσει ή να μην σταματήσει με βάση την εμφάνιση του πεζού, συμπεριλαμβανομένης της φυλής και του φύλου του. Οι αισθητήρες του αυτοοδηγούμενου αυτοκινήτου θα σάρωναν τον πεζό που περιμένει, θα τροφοδοτούσαν αυτά τα δεδομένα στο μοντέλο ML/DL και το μοντέλο θα εκπέμπει στο AI είτε θα σταματήσει είτε θα συνεχίσει. Δυστυχώς, η πόλη είχε ήδη πολλές προκαταλήψεις από τον ανθρώπινο οδηγό σε αυτό το θέμα και η τεχνητή νοημοσύνη μιμείται τώρα το ίδιο.

Αυτό το παράδειγμα δείχνει ότι ένα σύστημα τεχνητής νοημοσύνης θα μπορούσε απλώς να αντιγράψει τις ήδη προϋπάρχουσες ανεπιθύμητες προκαταλήψεις των ανθρώπων. Επιπλέον, το κάνει σε κλίμακα. Οποιοσδήποτε ανθρώπινος οδηγός μπορεί μερικές φορές να έχει διδαχτεί να κάνει αυτή τη δυσάρεστη μορφή επιλογής ή ίσως να έχει επιλεγεί προσωπικά να το κάνει, αλλά οι πιθανότητες είναι ότι το μεγαλύτερο μέρος των ανθρώπινων οδηγών μάλλον δεν το κάνει μαζικά.

Αντίθετα, το σύστημα οδήγησης τεχνητής νοημοσύνης που χρησιμοποιείται για την οδήγηση αυτοοδηγούμενων αυτοκινήτων είναι πιθανό να πραγματοποιεί με απέχθεια συνέπεια και με βεβαιότητα την προερχόμενη μεροληψία.

Συμπέρασμα

Υπάρχουν πολλοί τρόποι για να προσπαθήσετε και να αποφύγετε την επινόηση τεχνητής νοημοσύνης που έχει δυσάρεστες προκαταλήψεις ή που με την πάροδο του χρόνου σταχυολογεί προκαταλήψεις. Όσο το δυνατόν περισσότερο, η ιδέα είναι να αντιμετωπιστούν τα προβλήματα προτού ξεκινήσετε την υψηλή ταχύτητα και ανεβείτε για κλιμάκωση. Ας ελπίσουμε ότι οι προκαταλήψεις δεν βγαίνουν από την πόρτα, να το πω έτσι.

Ας υποθέσουμε όμως ότι με τον ένα ή τον άλλο τρόπο θα προκύψουν προκαταλήψεις στο AI. Μόλις αναπτυχθείτε σε μαζική κλίμακα με την τεχνητή νοημοσύνη, δεν μπορείτε απλώς να κάνετε μία από αυτές τις συχνά διακηρυγμένες έννοιες «πυρ και ξεχάστε» των τεχνικών. Πρέπει να παρακολουθείτε επιμελώς αυτό που κάνει η τεχνητή νοημοσύνη και να επιδιώξετε να εντοπίσετε τυχόν ανεπιθύμητες προκαταλήψεις που πρέπει να διορθωθούν.

Όπως επισημάνθηκε προηγουμένως, μια προσέγγιση περιλαμβάνει τη διασφάλιση ότι οι προγραμματιστές τεχνητής νοημοσύνης έχουν επίγνωση της ηθικής της τεχνητής νοημοσύνης και, επομένως, τους παρακινούν να είναι έτοιμοι να προγραμματίσουν την τεχνητή νοημοσύνη για να αποτρέψουν αυτά τα ζητήματα. Μια άλλη λεωφόρος συνίσταται στην αυτοελέγχου της τεχνητής νοημοσύνης για ανήθικες συμπεριφορές ή/και στην ύπαρξη ενός άλλου τμήματος τεχνητής νοημοσύνης που παρακολουθεί άλλα συστήματα τεχνητής νοημοσύνης για δυνητικά ανήθικες συμπεριφορές. Έχω καλύψει πολλές άλλες πιθανές λύσεις στα γραπτά μου.

Μια τελευταία σκέψη προς το παρόν. Έχοντας ξεκινήσει αυτή τη συζήτηση με ένα απόσπασμα του Πλάτωνα, ίσως θα ήταν σωστό να κλείσουμε τη συζήτηση με μια ακόμη οξυδερκή ρήση του Πλάτωνα.

Ο Πλάτων δήλωσε ότι δεν είναι κακό να επαναλαμβάνεις ένα καλό πράγμα.

Η ευκολία της κλίμακας με την τεχνητή νοημοσύνη είναι σίγουρα ένα βιώσιμο μέσο για την επίτευξη μιας τέτοιας αισιόδοξης φιλοδοξίας όταν η τεχνητή νοημοσύνη είναι της AI για καλό ποικιλία. Απολαμβάνουμε να επαναλαμβάνουμε ένα καλό πράγμα. Όταν το AI είναι το AI για κακό και γεμάτες με απαράδεκτες προκαταλήψεις και ανισότητες, θα μπορούσαμε να στηριζόμαστε στις παρατηρήσεις του Πλάτωνα και να πούμε ότι υπάρχει άφθονη βλάβη στο να επαναλάβουμε ένα κακό πράγμα.

Ας ακούσουμε προσεκτικά τα σοφά λόγια του Πλάτωνα και ας επινοήσουμε το AI μας ανάλογα.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- παγκόσμιας κλίμακας-ειδικά-τροφοδοτείται-μέσω-looming-fully-autonomous-systems/