Ηθική τεχνητής νοημοσύνης που λέει ότι η τεχνητή νοημοσύνη πρέπει να χρησιμοποιείται ειδικά όταν υπάρχουν άφθονες ανθρώπινες προκαταλήψεις

Οι άνθρωποι έχουν γνωρίσει τα όριά τους.

Ίσως θυμάστε τη παρόμοια περίφημη φράση σχετικά με τη γνώση των περιορισμών μας, όπως ειπώθηκε από τον χαρακτήρα Dirty Harry στην ταινία του 1973 με τίτλο Magnum Force (σύμφωνα με τα λόγια του ηθοποιού Κλιντ Ίστγουντ στον αξέχαστο ρόλο του ως επιθεωρητής Χάρι Κάλαχαν). Η γενική ιδέα είναι ότι μερικές φορές τείνουμε να παραβλέπουμε τα όριά μας και να μπαίνουμε σε ζεστό νερό ανάλογα. Είτε λόγω ύβρις, είτε είμαστε εγωκεντρικοί, είτε απλώς τυφλοί απέναντι στις δικές μας δυνατότητές, η αρχή να έχουμε επίγνωση και να λαμβάνουμε ρητά υπόψη τις τάσεις και τις ελλείψεις μας είναι πολύ λογική και χρήσιμη.

Ας προσθέσουμε μια νέα ανατροπή στη σοφή συμβουλή.

Η Τεχνητή Νοημοσύνη (AI) έχει γνωρίσει τους περιορισμούς της.

Τι εννοώ με αυτή την παραλλαγή της λατρεμένης φράσης;

Αποδεικνύεται ότι η αρχική βιασύνη για τη χρήση της σύγχρονης τεχνητής νοημοσύνης ως ελπιδοφόρου επίλυσης των παγκόσμιων προβλημάτων έχει γίνει βρώμικη και εντελώς λασπωμένη από τη συνειδητοποίηση ότι η σημερινή τεχνητή νοημοσύνη έχει όντως κάποιους μάλλον σοβαρούς περιορισμούς. Ξεφύγαμε από τους ενθουσιώδεις τίτλους του AI για καλό και βρισκόμαστε όλο και περισσότερο βυθισμένοι AI για κακό. Βλέπετε, πολλά συστήματα Τεχνητής Νοημοσύνης έχουν αναπτυχθεί και τεθεί σε εφαρμογή με κάθε είδους απαράδεκτες φυλετικές και φυλετικές προκαταλήψεις, καθώς και με μυριάδες άλλες τέτοιες φρικτές ανισότητες.

Για την εκτεταμένη και συνεχή κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Οι προκαταλήψεις που ανακαλύπτονται σε αυτά τα συστήματα τεχνητής νοημοσύνης δεν είναι του «σκόπιμου» τύπου που θα αποδώσουμε στην ανθρώπινη συμπεριφορά. Το αναφέρω για να τονίσω ότι η σημερινή τεχνητή νοημοσύνη δεν είναι ευαίσθητη. Παρά τους κραυγαλέους τίτλους που υποδηλώνουν το αντίθετο, απλώς δεν υπάρχει τεχνητή νοημοσύνη πουθενά που να πλησιάζει το συναίσθημα. Επιπλέον, δεν ξέρουμε πώς να βάλουμε την τεχνητή νοημοσύνη στην κατηγορία συναισθημάτων, καθώς κανείς δεν μπορεί να πει με βεβαιότητα εάν θα επιτύχουμε ποτέ την αίσθηση της τεχνητής νοημοσύνης. Ίσως κάποια μέρα συμβεί, ίσως και όχι.

Άρα, το θέμα μου είναι ότι δεν μπορούμε να αποδώσουμε ιδιαίτερη πρόθεση στο είδος της τεχνητής νοημοσύνης που διαθέτουμε αυτήν τη στιγμή. Τούτου λεχθέντος, μπορούμε άφθονα να εκχωρήσουμε πρόθεση σε αυτούς που κατασκευάζουν συστήματα AI. Ορισμένοι προγραμματιστές τεχνητής νοημοσύνης δεν γνωρίζουν το γεγονός ότι έχουν επινοήσει ένα σύστημα τεχνητής νοημοσύνης που περιέχει δυσάρεστες και πιθανώς παράνομες προκαταλήψεις. Εν τω μεταξύ, άλλοι προγραμματιστές τεχνητής νοημοσύνης συνειδητοποιούν ότι διαποτίζουν προκαταλήψεις στα συστήματά τους τεχνητής νοημοσύνης, δυνητικά πράττοντάς το με σκόπιμα λανθασμένο τρόπο.

Είτε έτσι είτε αλλιώς, το αποτέλεσμα είναι παρόλα αυτά απαράδεκτο και πιθανότατα παράνομο.

Γίνονται έντονες προσπάθειες για τη διάδοση των αρχών ηθικής τεχνητής νοημοσύνης που θα διαφωτίσουν τους προγραμματιστές της τεχνητής νοημοσύνης και θα παρέχουν την κατάλληλη καθοδήγηση για την αποφυγή της ενσωμάτωσης προκαταλήψεων στα συστήματά τους AI. Αυτό θα βοηθήσει με δύο φορές. Πρώτον, όσοι κατασκευάζουν τεχνητή νοημοσύνη δεν θα έχουν πλέον την έτοιμη δικαιολογία ότι απλώς δεν γνώριζαν ποιες αρχές έπρεπε να ακολουθούνται. Δεύτερον, εκείνοι που παρεκκλίνουν από τους όρους ηθικής τεχνητής νοημοσύνης θα συλληφθούν πιο εύκολα και θα αποδειχθούν ότι αποτρέπουν αυτό που είχαν προειδοποιηθεί να κάνουν και να μην κάνουν.

Ας αφιερώσουμε λίγο χρόνο για να εξετάσουμε εν συντομία μερικές από τις βασικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι πρέπει να σκέφτονται και να αναλαμβάνουν αυστηρά οι κατασκευαστές τεχνητής νοημοσύνης από μια στάση Ηθικής AI.

Όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει την κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση όταν η κωδικοποίηση AI πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιηθούν από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της Ηθικής ΤΝ. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Λάβετε υπόψη ότι χρειάζεται ένα χωριό για να επινοήσει και να τοποθετήσει AI. Για το οποίο ολόκληρο το χωριό πρέπει να παρακολουθεί την ηθική της τεχνητής νοημοσύνης.

Τέλος πάντων, τώρα που έχω μπει στο τραπέζι ότι η τεχνητή νοημοσύνη μπορεί να περιέχει προκαταλήψεις, μπορούμε ίσως όλοι να συμφωνήσουμε με αυτά τα δύο προφανή γεγονότα:

1. Οι άνθρωποι μπορεί να έχουν πολλές δυσάρεστες προκαταλήψεις και μπορούν να ενεργήσουν με βάση αυτές

2. Η τεχνητή νοημοσύνη μπορεί να έχει πολλές δυσάρεστες προκαταλήψεις και μπορεί να ενεργήσει πάνω σε αυτές τις προκαταλήψεις

Απεχθάνομαι κάπως να στοιβάζω ανθρώπους έναντι της τεχνητής νοημοσύνης σε αυτό το πλαίσιο, καθώς μπορεί κατά κάποιο τρόπο να υπονοεί ότι η τεχνητή νοημοσύνη έχει ικανότητες αισθήσεων στο ίδιο επίπεδο με τους ανθρώπους. Αυτό σίγουρα δεν είναι έτσι. Θα επιστρέψω στιγμιαία στις αυξανόμενες ανησυχίες σχετικά με την ανθρωπομορφοποίηση της τεχνητής νοημοσύνης λίγο αργότερα σε αυτήν τη συζήτηση.

Τι είναι χειρότερο, οι άνθρωποι που επιδεικνύουν ανεπιθύμητες προκαταλήψεις ή η τεχνητή νοημοσύνη που το κάνει;

Τολμώ να πω ότι η ερώτηση θέτει μια από αυτές τις άκαρπες επιλογές. Είναι το παροιμιώδες μικρότερο από δύο κακά, θα μπορούσε κανείς να ισχυριστεί. Θα θέλαμε οι άνθρωποι να μην ενσαρκώνουν άδικες προκαταλήψεις. Θα θέλαμε περαιτέρω ότι ακόμη και αν οι άνθρωποι έχουν δυσάρεστες προκαταλήψεις, δεν θα ενεργήσουν βάσει αυτών των προκαταλήψεων. Το ίδιο θα μπορούσε εύστοχα να ειπωθεί για την τεχνητή νοημοσύνη. Θα θέλαμε η τεχνητή νοημοσύνη να μην ενσωματώνει ανεπιθύμητες προκαταλήψεις και ακόμη και αν υπάρχουν τέτοιες εσωτερικά κωδικοποιημένες προκαταλήψεις, η τεχνητή νοημοσύνη τουλάχιστον να μην ενεργεί βάσει αυτών.

Ωστόσο, οι ευχές δεν διέπουν απαραιτήτως τον κόσμο (για την ανάλυσή μου για την ανερχόμενη και ενοχλητική εμφάνιση του λεγόμενου Εκπλήρωση ευχών AI από την κοινωνία γενικότερα, βλ ο σύνδεσμος εδώ).

Εντάξει, προφανώς θέλουμε οι άνθρωποι να γνωρίζουν τα όριά τους. Είναι σημαντικό να αναγνωρίζετε πότε έχετε δυσάρεστες προκαταλήψεις. Είναι εξίσου σημαντικό να προσπαθείτε να αποτρέψετε αυτές τις δυσάρεστες προκαταλήψεις από το να εμφυσηθούν στις ενέργειες και τις αποφάσεις σας. Οι επιχειρήσεις σήμερα προσπαθούν κάθε είδους προσεγγίσεις για να εμποδίσουν τους υπαλλήλους τους να πέσουν στις δυσάρεστες προκαταλήψεις, τρομερές παγίδες. Εξειδικευμένη εκπαίδευση παρέχεται στους υπαλλήλους σχετικά με το πώς να εκτελούν την εργασία τους με ηθικά ορθούς τρόπους. Οι διαδικασίες διαμορφώνονται γύρω από τους υπαλλήλους για να τους ειδοποιούν όταν φαίνεται να επιδεικνύουν ανήθικα ήθη. Και ούτω καθεξής.

Ένα άλλο μέσο αντιμετώπισης των ανθρώπων και των δυσάρεστων προκαταλήψεών τους θα ήταν η αυτοματοποίηση της ανθρώπινης εργασίας. Ναι, απλώς αφαιρέστε τον άνθρωπο από τον βρόχο. Μην επιτρέπετε σε έναν άνθρωπο να εκτελεί καθήκοντα λήψης αποφάσεων και προφανώς δεν έχετε πλέον καμία επίμονη ανησυχία σχετικά με την ανθρώπινη συμπεριφορά απέναντι σε οποιεσδήποτε ανεπιθύμητες προκαταλήψεις. Δεν εμπλέκεται άνθρωπος και έτσι το πρόβλημα των πιθανών ανθρώπινων προκαταλήψεων φαίνεται να έχει λυθεί.

Το αναφέρω αυτό γιατί γινόμαστε μάρτυρες μιας σταδιακής και μαζικής στροφής προς τη χρήση της τεχνητής νοημοσύνης με τρόπο λήψης αποφάσεων αλγορίθμου (ADM). Εάν μπορείτε να αντικαταστήσετε έναν άνθρωπο εργαζόμενο με τεχνητή νοημοσύνη, οι πιθανότητες είναι ότι θα προκύψουν πολλά οφέλη. Όπως αναφέρθηκε ήδη, δεν θα ανησυχούσατε πλέον για τις ανθρώπινες προκαταλήψεις αυτού του ανθρώπινου εργάτη (αυτός που δεν κάνει πλέον αυτή τη δουλειά). Οι πιθανότητες είναι ότι η τεχνητή νοημοσύνη θα είναι λιγότερο δαπανηρή συνολικά σε σύγκριση με έναν μακροπρόθεσμο χρονικό ορίζοντα. Απαλλαγείτε από όλες τις άλλες ποικίλες δυσκολίες που προκύπτουν εν μέρει με τους ανθρώπινους εργάτες. Και τα λοιπά.

Μια πρόταση που κερδίζει έδαφος φαίνεται να είναι η εξής: Όταν προσπαθείτε να αποφασίσετε πού θα τοποθετήσετε καλύτερα την τεχνητή νοημοσύνη, κοιτάξτε πρώτα σε ρυθμίσεις που ήδη συνεπάγονται αβλαβείς ανθρώπινες προκαταλήψεις από τους εργαζομένους σας και για τις οποίες αυτές οι προκαταλήψεις υπονομεύουν ή με άλλο τρόπο περιπλέκουν υπερβολικά συγκεκριμένες εργασίες λήψης αποφάσεων.

Το συμπέρασμα είναι ότι θα φαινόταν συνετό να συγκεντρώσετε τα περισσότερα χρήματα για να επενδύσετε στην τεχνητή νοημοσύνη, στοχεύοντας καθαρά σε εξαιρετικά εκτεθειμένα καθήκοντα λήψης αποφάσεων από ανθρώπους που είναι δύσκολο να ελεγχθούν από μια προοπτική έγχυσης ανεπιθύμητων προκαταλήψεων. Αφαιρέστε τους ανθρώπινους εργάτες σε αυτόν τον ρόλο. Αντικαταστήστε τα με AI. Η υπόθεση είναι ότι η τεχνητή νοημοσύνη δεν θα είχε τέτοιες δυσάρεστες προκαταλήψεις. Ως εκ τούτου, μπορείτε να πάρετε το κέικ σας και να το φάτε επίσης, δηλαδή να αναλάβετε τα καθήκοντα λήψης αποφάσεων και να το κάνετε μείον το ηθικό και νομικό φάσμα των αβλαβών προκαταλήψεων.

Όταν το προσδιορίσετε με μολύβι, το ROI (απόδοση επένδυσης) πιθανότατα θα έκανε την υιοθέτηση της τεχνητής νοημοσύνης μια επιλογή χωρίς μυαλό.

Δείτε πώς συμβαίνει συνήθως.

Κοιτάξτε όλη την επιχείρησή σας και προσπαθήστε να προσδιορίσετε τα καθήκοντα λήψης αποφάσεων που επηρεάζουν τους πελάτες. Από αυτά τα καθήκοντα, ποια είναι πιο πιθανό να επηρεαστούν ακατάλληλα εάν οι εργαζόμενοι ενσαρκώνουν άδικες προκαταλήψεις; Εάν έχετε ήδη προσπαθήσει να χαλιναγωγήσετε αυτές τις προκαταλήψεις, ίσως αφήσετε τα πράγματα να σταθούν ως έχουν. Από την άλλη πλευρά, εάν οι προκαταλήψεις συνεχίζουν να επανεμφανίζονται και η προσπάθεια εξάλειψής τους είναι επαχθής, σκεφτείτε να ρίξετε κάποια σχετική τεχνητή νοημοσύνη σε αυτόν τον ρόλο. Μην κρατάτε τους εργαζομένους στο μείγμα γιατί μπορεί να παρακάμψουν την τεχνητή νοημοσύνη ή να σπρώξουν την τεχνητή νοημοσύνη αμέσως πίσω στην άβυσσο των δυσάρεστων προκαταλήψεων. Επίσης, βεβαιωθείτε ότι η τεχνητή νοημοσύνη μπορεί να εκτελέσει την εργασία με επάρκεια και ότι έχετε καταγράψει επαρκώς τις πτυχές λήψης αποφάσεων που απαιτούνται για την εκτέλεση της εργασίας.

Ξεπλύνετε και επαναλάβετε.

Αντιλαμβάνομαι ότι φαίνεται σαν μια απλή ιδέα, αν και συνειδητοποιώ ότι υπάρχουν πολλοί τρόποι με τους οποίους η αντικατάσταση ανθρώπινων εργαζομένων με τεχνητή νοημοσύνη μπορεί εύκολα να πάει στραβά. Πολλές εταιρείες ήταν πρόθυμες να κάνουν τέτοιες ενέργειες και δεν σκέφτηκαν προσεκτικά πώς να το κάνουν. Ως αποτέλεσμα, συχνά έκαναν ένα πολύ χειρότερο χάος από ό, τι είχαν στα χέρια τους για να ξεκινήσουν.

Θέλω να διευκρινίσω και να τονίσω ότι η τεχνητή νοημοσύνη δεν είναι πανάκεια.

Μιλώντας για αυτό, υπάρχει ένα τεράστιο πρόβλημα σχετικά με την καθαριότητα της φαινομενικής απόρριψης των ανθρώπων με προκατειλημμένη λήψη αποφάσεων με την υποτιθέμενη αμερόληπτη τεχνητή νοημοσύνη. Το πρόβλημα είναι ότι μπορεί απλώς να αντικαθιστάτε ένα σύνολο δυσάρεστων προκαταλήψεων με ένα άλλο. Σύμφωνα με την προηγούμενη ένδειξη, η τεχνητή νοημοσύνη μπορεί να περιέχει ανεπιθύμητες προκαταλήψεις και μπορεί να ενεργήσει σε αυτές τις προκαταλήψεις. Κάνοντας μια αυθάδεια υπόθεση ότι η ανταλλαγή προκατειλημμένων ανθρώπων με αμερόληπτη τεχνητή νοημοσύνη δεν είναι το μόνο που πρέπει να είναι.

Εν ολίγοις, εδώ είναι η συμφωνία όταν εξετάζετε το θέμα αυστηρά από τους παράγοντες μεροληψίας:

  • Το AI δεν έχει δυσάρεστες προκαταλήψεις και, επομένως, το ADM που βασίζεται σε AI είναι βολικό στην ανάπτυξη
  • Το AI έχει τις ίδιες δυσάρεστες προκαταλήψεις με τους ανθρώπους που αντικαθίστανται και επομένως το ADM που βασίζεται σε AI είναι προβληματικό
  • Η τεχνητή νοημοσύνη εισάγει νέες δυσάρεστες προκαταλήψεις πέρα ​​από αυτές των ανθρώπων που αντικαθίστανται και πιθανότατα θα επιδεινώσει τα πράγματα αναλόγως
  • Η τεχνητή νοημοσύνη στην αρχή φαίνεται καλή και στη συνέχεια σταδιακά ταλαντεύεται σε δυσάρεστες προκαταλήψεις
  • ΑΛΛΑ

Μπορούμε να αποσυσκευάσουμε εν συντομία αυτές τις δυνατότητες.

Το πρώτο είναι η εξιδανικευμένη εκδοχή του τι μπορεί να συμβεί. Η τεχνητή νοημοσύνη δεν έχει ανεπιθύμητες προκαταλήψεις. Βάζεις το AI στη θέση του και κάνει τη δουλειά του εξαιρετικά. Μπράβο σου! Φυσικά, θα ήλπιζε κανείς ότι έχετε χειριστεί επίσης με κάποιο έξυπνο τρόπο την εκτόπιση ανθρώπινων εργαζομένων λόγω της συμπερίληψης της τεχνητής νοημοσύνης.

Στη δεύτερη περίπτωση, βάζετε τη τεχνητή νοημοσύνη και ανακαλύπτετε ότι η τεχνητή νοημοσύνη εμφανίζει τις ίδιες άδικες προκαταλήψεις που είχαν οι εργαζόμενοι. Πώς μπορεί αυτό να είναι? Ένας συνηθισμένος τρόπος για να πέσετε σε αυτήν την παγίδα είναι η χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL) που βασίζονται σε συλλεγμένα δεδομένα σχετικά με τον τρόπο με τον οποίο οι άνθρωποι στο ρόλο έπαιρναν προηγουμένως τις αποφάσεις τους.

Επιτρέψτε μου μια στιγμή να σας εξηγήσω.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που κάνουν τη δουλειά για χρόνια με χρόνια έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η αντιστοίχιση υπολογιστικού προτύπου Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων αισθητικών πτυχών της μοντελοποίησης καθεαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές της τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Συνολικά, μπορεί να καταλήξετε στο πρώτο. Οι ίδιες δυσάρεστες προκαταλήψεις των ανθρώπων αντικατοπτρίζονται πλέον υπολογιστικά στο σύστημα AI. Δεν έχετε εξαλείψει τις προκαταλήψεις.

Ακόμη χειρότερα, μπορεί να είναι λιγότερο πιθανό να συνειδητοποιήσετε ότι η τεχνητή νοημοσύνη έχει προκαταλήψεις. Στην περίπτωση των ανθρώπων, μπορεί κανονικά να είστε σε επιφυλακή ότι οι άνθρωποι έχουν ανεπιθύμητες προκαταλήψεις. Αυτή είναι μια βασική προσδοκία. Η χρήση της τεχνητής νοημοσύνης μπορεί να παρακινήσει τους ηγέτες να πιστέψουν ότι η αυτοματοποίηση έχει αφαιρέσει εντελώς κάθε είδους ανθρώπινη προκατάληψη. Έτσι, αυτοπυροβολούνται στο πόδι. Απαλλάχθηκαν από ανθρώπους με φαινομενικά γνωστές ασυνήθιστες προκαταλήψεις, αντικαταστάθηκαν από τεχνητή νοημοσύνη που θεωρήθηκε ότι δεν είχε τέτοιες προκαταλήψεις, και παρόλα αυτά έχουν πλέον βάλει σε χρήση τεχνητή νοημοσύνη γεμάτη με τις ίδιες προκαταλήψεις που είναι ήδη γνωστό ότι υπάρχουν.

Αυτό μπορεί να μπερδέψει τα πράγματα. Μπορεί να έχετε αφαιρέσει άλλα προστατευτικά κιγκλιδώματα που χρησιμοποιούνται με τους ανθρώπινους εργάτες που ιδρύθηκαν για τον εντοπισμό και την πρόληψη της εμφάνισης αυτών των ήδη αναμενόμενων ανθρώπινων προκαταλήψεων. Το AI έχει πλέον ελεύθερα τα χέρια. Τίποτα δεν είναι σε θέση να το πιάσει πριν ενεργήσει επάνω. Στη συνέχεια, η τεχνητή νοημοσύνη θα μπορούσε να αρχίσει να σας οδηγεί σε μια θλιβερή πορεία της τεράστιας συσσώρευσης προκατειλημμένων ενεργειών.

Και, βρίσκεστε στην άβολη και ίσως υπεύθυνη στάση που ξέρατε κάποτε για τις προκαταλήψεις και τώρα έχετε επιτρέψει σε αυτές τις προκαταλήψεις να προκαλέσουν όλεθρο. Είναι ίσως ένα πράγμα να μην έχετε συναντήσει ποτέ τέτοιες δυσάρεστες προκαταλήψεις και στη συνέχεια ξαφνικά από το μπλε το AI τις ξεπηδά. Μπορεί να προσπαθήσετε να το δικαιολογήσετε με το είδος του αντιπερισπασμού «ποιος θα το είχε μαντέψει» (όχι πολύ πειστικά, ίσως). Αλλά το να έχετε δημιουργήσει τώρα την τεχνητή νοημοσύνη που κάνει τις ίδιες αθέμιτες προκατειλημμένες ενέργειες όπως πριν, οι δικαιολογίες σας γίνονται όλο και πιο λεπτές και λιγότερες.

Μια ανατροπή σε αυτό συνεπάγεται ότι η τεχνητή νοημοσύνη παρουσιάζει ανεπιθύμητες προκαταλήψεις που δεν είχαν προηγουμένως συναντήσει όταν οι άνθρωποι έκαναν την εργασία. Θα μπορούσατε να πείτε ότι αυτό είναι ίσως πιο δύσκολο να έχει αποφευχθεί, καθώς αποτελείται από «νέες» προκαταλήψεις που η εταιρεία δεν είχε προηγουμένως αναζητήσει. Στο τέλος, όμως, οι δικαιολογίες μπορεί να μην σας προσφέρουν μεγάλη ανακούφιση. Εάν το σύστημα AI έχει αποτολμήσει τόσο σε ανήθικο όσο και σε παράνομο έδαφος, η χήνα σας μπορεί να έχει ψηθεί.

Μια άλλη πτυχή που πρέπει να έχετε κατά νου είναι ότι η τεχνητή νοημοσύνη μπορεί να ξεκινήσει μια χαρά και στη συνέχεια να φτάσει σε δυσάρεστες προκαταλήψεις. Αυτό είναι ιδιαίτερα πιθανό όταν η χρήση του Machine Learning ή Deep Learning πραγματοποιείται σε συνεχή βάση για να διατηρείται ενημερωμένο το AI. Είτε το ML/DL λειτουργεί σε πραγματικό χρόνο είτε εκτελεί περιοδικά ενημερώσεις, η προσοχή θα πρέπει να είναι εάν η τεχνητή νοημοσύνη πιθανώς απορροφά δεδομένα που τώρα περιέχουν προκαταλήψεις και που προηγουμένως δεν υπήρχαν.

Για τους ηγέτες που πιστεύουν ότι παίρνουν ένα δωρεάν γεύμα κουνώντας ένα μαγικό ραβδί για να αντικαταστήσουν τους προκατειλημμένους ανθρώπινους εργάτες με τεχνητή νοημοσύνη, αντιμετωπίζουν ένα πολύ αγενές ξύπνημα. Δείτε τη συζήτησή μου σχετικά με τη σημασία της ενδυνάμωσης των ηγετών με τις αρχές της Ηθικής AI στο ο σύνδεσμος εδώ.

Σε αυτήν τη συγκυρία αυτής της συζήτησης, θα στοιχημάτιζα ότι επιθυμείτε μερικά παραδείγματα από τον πραγματικό κόσμο που θα μπορούσαν να παρουσιάσουν το αίνιγμα της αντικατάστασης (ή όχι) των ανθρώπινων δυσάρεστων προκαταλήψεων με αθέμιτες προκαταλήψεις που βασίζονται στην τεχνητή νοημοσύνη.

Χαίρομαι που ρωτήσατε.

Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να προσδιορίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με τις ανεπιθύμητες προκαταλήψεις στην τεχνητή νοημοσύνη, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι αυτά που το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά την οδήγηση.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμη ένα αληθινό αυτοκίνητο αυτο-οδήγησης στο Επίπεδο 5, το οποίο δεν γνωρίζουμε ακόμη και αν αυτό θα είναι δυνατό να επιτευχθεί και ούτε πόσο θα χρειαστεί να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτο-οδηγούμενα αυτοκίνητα και τεχνητή νοημοσύνη με απαράδεκτες προκαταλήψεις

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Πιστεύω ότι παρέχει αρκετή λιτανεία προειδοποιήσεων για να υπογραμμίσει αυτό που πρόκειται να αναφέρω.

Είμαστε έτοιμοι τώρα να κάνουμε μια βαθιά βουτιά στα αυτόνομα αυτοκίνητα και τις δυνατότητες ηθικής τεχνητής νοημοσύνης που συνεπάγονται την εξερεύνηση της τεχνητής νοημοσύνης και τις ανεπιθύμητες προκαταλήψεις.

Ας χρησιμοποιήσουμε ένα πολύ απλό παράδειγμα. Ένα αυτοοδηγούμενο αυτοκίνητο βασισμένο σε τεχνητή νοημοσύνη βρίσκεται σε εξέλιξη στους δρόμους της γειτονιάς σας και φαίνεται να οδηγεί με ασφάλεια. Στην αρχή, είχατε αφιερώσει ιδιαίτερη προσοχή σε κάθε φορά που καταφέρνατε να ρίξετε μια ματιά στο αυτο-οδηγούμενο αυτοκίνητο. Το αυτόνομο όχημα ξεχώριζε με τη σχάρα ηλεκτρονικών αισθητήρων που περιλάμβανε βιντεοκάμερες, μονάδες ραντάρ, συσκευές LIDAR και άλλα παρόμοια. Μετά από πολλές εβδομάδες που το αυτοοδηγούμενο αυτοκίνητο ταξιδεύει στην κοινότητά σας, τώρα μόλις και μετά βίας το παρατηρείτε. Σε ό,τι σας αφορά, είναι απλώς ένα ακόμη αυτοκίνητο στους ήδη πολυσύχναστους δημόσιους δρόμους.

Για να μην πιστεύετε ότι είναι αδύνατο ή απίθανο να εξοικειωθείτε με τα αυτόνομα αυτοκίνητα, έχω γράψει συχνά για το πώς οι τοποθεσίες που εμπίπτουν στο πεδίο των δοκιμών αυτοοδηγούμενων αυτοκινήτων έχουν σταδιακά συνηθίσει να βλέπουν τα κομψά οχήματα. δείτε την ανάλυσή μου στο αυτό το σύνδεσμο εδώ. Πολλοί από τους ντόπιους τελικά μεταπήδησαν από το να εκπέμπουν ένα εκτεταμένο χασμουρητό πλήξης για να παρακολουθήσουν αυτά τα αυτοκινούμενα αυτοκίνητα.

Πιθανώς ο κύριος λόγος αυτή τη στιγμή που μπορεί να παρατηρήσουν τα αυτόνομα οχήματα είναι ο παράγοντας ερεθισμού και εκνευρισμού. Τα bythe-book συστήματα οδήγησης τεχνητής νοημοσύνης διασφαλίζουν ότι τα αυτοκίνητα τηρούν όλα τα όρια ταχύτητας και τους κανόνες του δρόμου. Για τους ταραχώδεις οδηγούς με τα παραδοσιακά αυτοκίνητά τους που οδηγούνται από ανθρώπους, εκνευρίζεστε κατά καιρούς όταν κολλάτε πίσω από τα αυστηρά νομοθετικά αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη.

Αυτό είναι κάτι που ίσως χρειαστεί να το συνηθίσουμε όλοι, δικαίως ή αδίκως.

Επιστροφή στο παραμύθι μας.

Αποδεικνύεται ότι αρχίζουν να προκύπτουν δύο απαράδεκτες ανησυχίες σχετικά με τα κατά τα άλλα αβλαβή και γενικά ευπρόσδεκτα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη, συγκεκριμένα:

ένα. Όπου η τεχνητή νοημοσύνη περιφέρεται στα αυτόνομα αυτοκίνητα για να πάρει βόλτες έχει γίνει μια ανησυχητική ανησυχία στην ευρύτερη κοινότητα

σι. Το πώς η τεχνητή νοημοσύνη αντιμετωπίζει τους πεζούς που περιμένουν που δεν έχουν δικαίωμα διέλευσης είναι επίσης ένα αυξανόμενο ζήτημα

Στην αρχή, η τεχνητή νοημοσύνη περιπλανήθηκε στα αυτόνομα αυτοκίνητα σε ολόκληρη την πόλη. Όποιος ήθελε να ζητήσει μια βόλτα με το αυτο-οδηγούμενο αυτοκίνητο είχε ουσιαστικά ίσες πιθανότητες να το κάνει. Σταδιακά, η τεχνητή νοημοσύνη άρχισε να διατηρεί κυρίως τα αυτόνομα αυτοκίνητα σε περιαγωγή σε ένα μόνο τμήμα της πόλης. Αυτή η ενότητα ήταν πιο κερδοφόρα και το σύστημα τεχνητής νοημοσύνης είχε προγραμματιστεί να προσπαθεί να μεγιστοποιήσει τα έσοδα ως μέρος της χρήσης στην κοινότητα.

Τα μέλη της κοινότητας στα φτωχά μέρη της πόλης ήταν λιγότερο πιθανό να είναι σε θέση να κάνουν μια βόλτα από ένα αυτοοδηγούμενο αυτοκίνητο. Αυτό συνέβη επειδή τα αυτόνομα αυτοκίνητα ήταν πιο μακριά και περιπλανήθηκαν στο τμήμα με τα υψηλότερα έσοδα της περιοχής. Όταν ένα αίτημα ερχόταν από ένα μακρινό μέρος της πόλης, οποιοδήποτε αίτημα από μια πιο κοντινή τοποθεσία που ήταν πιθανό στο "εκτίμητο" μέρος της πόλης θα είχε μεγαλύτερη προτεραιότητα. Τελικά, η διαθεσιμότητα ενός αυτοοδηγούμενου αυτοκινήτου σε οποιοδήποτε μέρος εκτός από το πλουσιότερο μέρος της πόλης ήταν σχεδόν αδύνατη, εξωφρενικά για εκείνους που ζούσαν σε εκείνες τις περιοχές που τώρα στερούνται φυσικών πόρων.

Θα μπορούσατε να ισχυριστείτε ότι η τεχνητή νοημοσύνη σχεδόν προσγειώθηκε σε μια μορφή διάκρισης μεσολάβησης (επίσης συχνά αναφέρεται ως έμμεση διάκριση). Η τεχνητή νοημοσύνη δεν είχε προγραμματιστεί για να αποφεύγει αυτές τις φτωχότερες γειτονιές. Αντίθετα, «έμαθε» να το κάνει μέσω της χρήσης του ML/DL.

Το θέμα είναι ότι οι οδηγοί που μοιράζονται το αυτοκίνητο ήταν γνωστοί για το ίδιο πράγμα, αν και όχι απαραιτήτως αποκλειστικά λόγω της γωνίας παραγωγής χρημάτων. Υπήρχαν μερικοί από τους οδηγούς που μοιράζονταν την οδήγηση που είχαν μια απαράδεκτη προκατάληψη σχετικά με την παραλαβή αναβατών σε ορισμένα μέρη της πόλης. Αυτό ήταν ένα κάπως γνωστό φαινόμενο και η πόλη είχε εφαρμόσει μια προσέγγιση παρακολούθησης για να πιάσει ανθρώπους οδηγούς που το έκαναν αυτό. Οι άνθρωποι οδηγοί θα μπορούσαν να βρεθούν σε μπελάδες για τη διεξαγωγή δυσάρεστων πρακτικών επιλογής.

Θεωρήθηκε ότι το AI δεν θα έπεφτε ποτέ σε αυτό το είδος κινούμενης άμμου. Δεν δημιουργήθηκε εξειδικευμένη παρακολούθηση για να παρακολουθείτε πού πήγαιναν τα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη. Μόνο αφού τα μέλη της κοινότητας άρχισαν να παραπονιούνται, οι ηγέτες της πόλης συνειδητοποίησαν τι συνέβαινε. Για περισσότερα σχετικά με αυτούς τους τύπους ζητημάτων σε όλη την πόλη που πρόκειται να παρουσιάσουν τα αυτόνομα οχήματα και τα αυτόνομα αυτοκίνητα, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ και η οποία περιγράφει μια μελέτη υπό την ηγεσία του Χάρβαρντ που συνέταξα για το θέμα.

Αυτό το παράδειγμα των πτυχών περιαγωγής των αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη απεικονίζει την προηγούμενη ένδειξη ότι μπορεί να υπάρξουν καταστάσεις που συνεπάγονται ανθρώπους με δυσάρεστες προκαταλήψεις, για τις οποίες έχουν τεθεί σε εφαρμογή έλεγχοι και ότι η τεχνητή νοημοσύνη που αντικαθιστά αυτούς τους ανθρώπινους οδηγούς έχει αφεθεί Ελεύθερος. Δυστυχώς, η τεχνητή νοημοσύνη μπορεί στη συνέχεια να βυθιστεί σταδιακά σε παρόμοιες προκαταλήψεις και να το κάνει χωρίς επαρκή προστατευτικά κιγκλιδώματα στη θέση τους.

Ένα δεύτερο παράδειγμα περιλαμβάνει την τεχνητή νοημοσύνη που καθορίζει εάν θα σταματήσει για να περιμένουν πεζούς που δεν έχουν το δικαίωμα διέλευσης να διασχίσουν έναν δρόμο.

Αναμφίβολα οδηγούσατε και συναντήσατε πεζούς που περίμεναν να διασχίσουν το δρόμο και ωστόσο δεν είχαν το δικαίωμα διέλευσης να το κάνουν. Αυτό σήμαινε ότι είχατε διακριτική ευχέρεια να σταματήσετε και να τους αφήσετε να περάσουν. Θα μπορούσατε να προχωρήσετε χωρίς να τους αφήσετε να διασχίσουν και να εξακολουθείτε να είστε πλήρως εντός των νόμιμων κανόνων οδήγησης.

Μελέτες σχετικά με τον τρόπο με τον οποίο οι άνθρωποι αποφασίζουν να σταματήσουν ή να μην σταματήσουν για τέτοιους πεζούς έχουν υποδείξει ότι μερικές φορές οι άνθρωποι οδηγοί κάνουν την επιλογή με βάση ανεπιθύμητες προκαταλήψεις. Ένας άνθρωπος οδηγός μπορεί να κοιτάξει τον πεζό και να επιλέξει να μην σταματήσει, παρόλο που θα είχε σταματήσει αν ο πεζός είχε διαφορετική εμφάνιση, όπως με βάση τη φυλή ή το φύλο. Το έχω εξετάσει στο ο σύνδεσμος εδώ.

Φανταστείτε ότι τα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη είναι προγραμματισμένα να αντιμετωπίζουν το ερώτημα εάν θα σταματήσουν ή όχι για πεζούς που δεν έχουν δικαίωμα διέλευσης. Δείτε πώς οι προγραμματιστές AI αποφάσισαν να προγραμματίσουν αυτήν την εργασία. Συνέλεξαν δεδομένα από τις βιντεοκάμερες της πόλης που είναι τοποθετημένες σε όλη την πόλη. Τα δεδομένα δείχνουν ανθρώπους οδηγούς που σταματούν για πεζούς που δεν έχουν δικαίωμα διέλευσης και ανθρώπους οδηγούς που δεν σταματούν. Όλα συλλέγονται σε ένα μεγάλο σύνολο δεδομένων.

Με τη χρήση Machine Learning και Deep Learning, τα δεδομένα μοντελοποιούνται υπολογιστικά. Το σύστημα οδήγησης AI χρησιμοποιεί στη συνέχεια αυτό το μοντέλο για να αποφασίσει πότε να σταματήσει ή να μην σταματήσει. Γενικά, η ιδέα είναι ότι ό,τι κι αν αποτελείται το τοπικό έθιμο, έτσι η τεχνητή νοημοσύνη κατευθύνει το αυτοοδηγούμενο αυτοκίνητο.

Προς έκπληξη των ηγετών της πόλης και των κατοίκων, το AI προφανώς επέλεξε να σταματήσει ή να μην σταματήσει με βάση την εμφάνιση του πεζού, συμπεριλαμβανομένης της φυλής και του φύλου του. Οι αισθητήρες του αυτοοδηγούμενου αυτοκινήτου θα σάρωναν τον πεζό που περιμένει, θα τροφοδοτούσαν αυτά τα δεδομένα στο μοντέλο ML/DL και το μοντέλο θα εκπέμπει στο AI είτε θα σταματήσει είτε θα συνεχίσει. Δυστυχώς, η πόλη είχε ήδη πολλές προκαταλήψεις από τον ανθρώπινο οδηγό σε αυτό το θέμα και η τεχνητή νοημοσύνη μιμείται τώρα το ίδιο.

Τα καλά νέα είναι ότι αυτό εγείρει ένα ζήτημα που σχεδόν κανείς δεν γνώριζε προηγουμένως ότι υπάρχει. Τα κακά νέα ήταν ότι από τη στιγμή που το AI πιάστηκε να το κάνει αυτό, πήρε το μεγαλύτερο μέρος της ευθύνης. Αυτό το παράδειγμα δείχνει ότι ένα σύστημα τεχνητής νοημοσύνης θα μπορούσε απλώς να αντιγράψει τις ήδη προϋπάρχουσες ανεπιθύμητες προκαταλήψεις των ανθρώπων.

Συμπέρασμα

Υπάρχουν πολλοί τρόποι για να προσπαθήσετε και να αποφύγετε την επινόηση τεχνητής νοημοσύνης που είτε έξω από την πύλη έχει ανεπιθύμητες προκαταλήψεις είτε ότι με την πάροδο του χρόνου σταχυολογεί προκαταλήψεις. Μια προσέγγιση περιλαμβάνει τη διασφάλιση ότι οι προγραμματιστές τεχνητής νοημοσύνης γνωρίζουν ότι συμβαίνει αυτό και, επομένως, τους κρατούν σε ετοιμότητα για να προγραμματίσουν την τεχνητή νοημοσύνη για να αποτρέψουν το θέμα. Μια άλλη λεωφόρος συνίσταται στην αυτοελέγχου της τεχνητής νοημοσύνης για ανήθικες συμπεριφορές (δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ) ή/και να έχετε ένα άλλο κομμάτι τεχνητής νοημοσύνης που παρακολουθεί άλλα συστήματα τεχνητής νοημοσύνης για δυνητικά ανήθικες συμπεριφορές (το έχω καλύψει στο ο σύνδεσμος εδώ).

Για να ανακεφαλαιώσουμε, πρέπει να συνειδητοποιήσουμε ότι οι άνθρωποι μπορεί να έχουν δυσάρεστες προκαταλήψεις και ότι κατά κάποιο τρόπο πρέπει να γνωρίζουν τους περιορισμούς τους. Ομοίως, η τεχνητή νοημοσύνη μπορεί να έχει δυσάρεστες προκαταλήψεις και με κάποιο τρόπο πρέπει να γνωρίζουμε τους περιορισμούς τους.

Για όσους από εσάς ασπάζεστε με ενθουσιασμό την AI Ethics, θα ήθελα να τελειώσω τώρα με μια άλλη διάσημη γραμμή που όλοι πρέπει να γνωρίζουν ήδη. Δηλαδή, συνεχίστε να χρησιμοποιείτε και να μοιράζεστε τη σημασία της ηθικής τεχνητής νοημοσύνης. Και κάνοντάς το αυτό, θα έλεγα ευθαρσώς το εξής: «Εμπρός, φτιάξε μου τη μέρα».

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/