Ηθική AI Συγκλονιστική αποκάλυψη ότι η εκπαίδευση της τεχνητής νοημοσύνης να είναι τοξική ή προκατειλημμένη μπορεί να είναι επωφελής, συμπεριλαμβανομένων των αυτόνομων αυτοοδηγούμενων αυτοκινήτων

Εδώ είναι μια παλιά γραμμή που είμαι σίγουρος ότι έχετε ξανακούσει.

Χρειάζεται κάποιος για να μάθει ένα.

Ίσως να μην συνειδητοποιείτε ότι αυτή είναι μια έκφραση που μπορεί να ανιχνευθεί στις αρχές του 1900 και συνήθως την επικαλούνταν όταν αναφερόμαστε σε παραβάτες (άλλες παραλλαγές της συνθηματικής φράσης πηγαίνουν πιο πίσω, όπως στη δεκαετία του 1600). Ένα παράδειγμα για το πώς μπορεί να χρησιμοποιηθεί αυτή η έκφραση συνεπάγεται την ιδέα ότι αν θέλετε να πιάσετε έναν κλέφτη, τότε πρέπει να χρησιμοποιήσετε έναν κλέφτη για να το κάνετε. Αυτό δείχνει τον ισχυρισμό ότι χρειάζεται κάποιος για να μάθει ένα. Πολλές ταινίες και τηλεοπτικές εκπομπές έχουν αξιοποιήσει αυτό το εύχρηστο κομμάτι της σοφίας, συχνά απεικονίζοντας ότι το μόνο βιώσιμο μέσο για να συλλάβει έναν απατεώνα συνεπάγεται την πρόσληψη ενός εξίσου διεφθαρμένου απατεώνα για να καταδιώξει τον δράστη.

Αλλάζοντας ταχύτητες, μερικοί θα μπορούσαν να αξιοποιήσουν την ίδια λογική για να υποστηρίξουν ότι ένας κατάλληλος τρόπος για να διακρίνει κανείς εάν κάποιος ενσωματώνει αδικαιολόγητες προκαταλήψεις και πεποιθήσεις που εισάγουν διακρίσεις θα ήταν να βρεθεί κάποιος που ήδη τρέφει τέτοιες τάσεις. Προφανώς, ένα άτομο που είναι ήδη γεμάτο με προκαταλήψεις θα είναι σε θέση να αισθανθεί πιο εύκολα ότι αυτός ο άλλος άνθρωπος είναι ομοίως γεμάτος με τοξικότητα. Και πάλι, χρειάζεται κάποιος για να ξέρει ότι είναι το ομολογημένο μάντρα.

Η αρχική σας αντίδραση στην πιθανότητα να χρησιμοποιήσετε ένα προκατειλημμένο άτομο για να υποστηρίξετε ένα άλλο προκατειλημμένο άτομο μπορεί να είναι μια αντίδραση σκεπτικισμού και δυσπιστίας. Δεν μπορούμε να καταλάβουμε αν κάποιος έχει δυσάρεστες προκαταλήψεις απλώς εξετάζοντάς τους και δεν χρειάζεται να καταφύγουμε στην εύρεση κάποιου άλλου παρόμοιας φύσης; Θα φαινόταν παράξενο να επιδιώκετε σκόπιμα να ανακαλύψετε κάποιον που είναι προκατειλημμένος προκειμένου να αποκαλύψει άλλους που είναι επίσης τοξικά προκατειλημμένοι.

Υποθέτω ότι εξαρτάται εν μέρει από το αν είσαι διατεθειμένος να αποδεχτείς την υποθετική επωδό ότι χρειάζεται κάποιος για να μάθει ένα. Σημειώστε ότι αυτό δεν υποδηλώνει ότι ο μόνος τρόπος για να πιάσετε έναν κλέφτη απαιτεί να χρησιμοποιείτε αποκλειστικά και πάντα έναν κλέφτη. Θα μπορούσατε εύλογα να φαίνεται να υποστηρίζετε ότι αυτό είναι απλώς μια πρόσθετη διαδρομή που μπορεί να ληφθεί δεόντως υπόψη. Ίσως μερικές φορές να είστε διατεθειμένοι να διασκεδάσετε τη δυνατότητα να χρησιμοποιήσετε έναν κλέφτη για να πιάσετε έναν κλέφτη, ενώ άλλες περιστάσεις μπορεί να το κάνουν αυτό μια ανεξιχνίαστη τακτική.

Χρησιμοποιήστε το κατάλληλο εργαλείο για τη σωστή ρύθμιση, όπως λένε.

Τώρα που έθεσα αυτές τις βασικές αρχές, μπορούμε να προχωρήσουμε στο ίσως ανησυχητικό και φαινομενικά συγκλονιστικό μέρος αυτής της ιστορίας.

Είστε έτοιμοι;

Ο τομέας της τεχνητής νοημοσύνης επιδιώκει ενεργά την ίδια αρχή που χρειάζεται μερικές φορές για να γνωρίζει κάποιος, ιδιαίτερα στην περίπτωση που προσπαθεί να αποκαλύψει την τεχνητή νοημοσύνη που είναι προκατειλημμένη ή ενεργεί με τρόπο που εισάγει διακρίσεις. Ναι, η συγκλονιστική ιδέα είναι ότι μπορεί σκόπιμα να θελήσουμε να επινοήσουμε τεχνητή νοημοσύνη που να είναι πλήρως και ασύστολα προκατειλημμένη και μεροληπτική, κάνοντάς το έτσι ώστε να το χρησιμοποιήσουμε ως μέσο για να ανακαλύψουμε και να αποκαλύψουμε άλλη τεχνητή νοημοσύνη που έχει την ίδια εμφάνιση τοξικότητας. Όπως θα δείτε σε λίγο, υπάρχει μια ποικιλία ενοχλητικών ζητημάτων ηθικής τεχνητής νοημοσύνης που κρύβονται πίσω από το θέμα. Για τη γενική συνεχή και εκτενή κάλυψη της Δεοντολογίας της Τεχνητής Νοημοσύνης και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Υποθέτω ότι θα μπορούσατε να εκφράσετε αυτή τη χρήση της τοξικής τεχνητής νοημοσύνης για να ακολουθήσετε άλλες τοξικές τεχνητές νοημοσύνης ως την παροιμιώδη σύλληψη καταπολέμησης της φωτιάς με τη φωτιά (μπορούμε να επικαλεστούμε πολλούς ευφημισμούς και επεξηγηματικές μεταφορές για να απεικονίσουμε αυτήν την κατάσταση). Ή, όπως τονίστηκε ήδη, θα μπορούσαμε να αναφερθούμε με φειδώ στον ισχυρισμό ότι χρειάζεται κάποιος για να το μάθει.

Η γενική ιδέα είναι ότι αντί να προσπαθούμε απλώς να καταλάβουμε εάν ένα δεδομένο σύστημα τεχνητής νοημοσύνης περιέχει αδικαιολόγητες προκαταλήψεις χρησιμοποιώντας συμβατικές μεθόδους, ίσως θα πρέπει να επιδιώξουμε να χρησιμοποιήσουμε και λιγότερο συμβατικά μέσα. Ένα τέτοιο αντισυμβατικό μέσο θα ήταν να επινοηθεί η τεχνητή νοημοσύνη που θα περιέχει όλες τις χειρότερες προκαταλήψεις και τις κοινωνικά απαράδεκτες τοξικότητες και στη συνέχεια να χρησιμοποιηθεί αυτή η τεχνητή νοημοσύνη για να βοηθήσει στην εξάλειψη άλλων τεχνητής νοημοσύνης που έχουν τις ίδιες τάσεις κακίας.

Όταν το σκέφτεστε γρήγορα, φαίνεται ότι είναι απολύτως λογικό. Θα μπορούσαμε να στοχεύσουμε στη δημιουργία τεχνητής νοημοσύνης που να είναι τοξική στο μέγιστο. Αυτή η τοξική τεχνητή νοημοσύνη χρησιμοποιείται στη συνέχεια για να φέρει έξω άλλες τεχνητές νοημοσύνη που έχουν επίσης τοξικότητα. Για την τότε αποκαλυφθείσα «κακή» τεχνητή νοημοσύνη, μπορούμε να την αντιμετωπίσουμε είτε αναιρώντας την τοξικότητα, εξαλείφοντας πλήρως την τεχνητή νοημοσύνη (δείτε την κάλυψή μου για την απομάκρυνση ή την καταστροφή της τεχνητής νοημοσύνης στο αυτό το σύνδεσμο εδώ), ή φυλάκιση της τεχνητής νοημοσύνης (δείτε την κάλυψή μου για τον περιορισμό της τεχνητής νοημοσύνης στο αυτό το σύνδεσμο εδώ), ή κάντε ό,τι άλλο φαίνεται κατάλληλο να κάνετε.

Ένα αντεπιχείρημα είναι ότι πρέπει να εξετάσουμε το κεφάλι μας ότι επινοούμε σκόπιμα και πρόθυμα τεχνητή νοημοσύνη που είναι τοξική και γεμάτη με προκαταλήψεις. Αυτό είναι το τελευταίο πράγμα που πρέπει να σκεφτούμε ποτέ, θα προτρέπουν κάποιοι. Εστιάστε στο να κάνετε την τεχνητή νοημοσύνη να αποτελείται εξ ολοκλήρου από καλοσύνη. Μην εστιάζετε στην επινόηση τεχνητής νοημοσύνης που έχει τα κακά και τα κατακάθια των αδικαιολόγητων προκαταλήψεων. Η ίδια η ιδέα μιας τέτοιας επιδίωξης φαίνεται αποκρουστική σε ορισμένους.

Υπάρχουν περισσότεροι ενδοιασμοί σχετικά με αυτήν την αμφιλεγόμενη αναζήτηση.

Ίσως μια αποστολή επινόησης τοξικής τεχνητής νοημοσύνης απλώς θα ενθάρρυνε όσους επιθυμούν να δημιουργήσουν τεχνητή νοημοσύνη που είναι σε θέση να υπονομεύσει την κοινωνία. Είναι σαν να λέμε ότι η δημιουργία τεχνητής νοημοσύνης που έχει ακατάλληλες και δυσάρεστες προκαταλήψεις είναι μια χαρά. Χωρίς ανησυχίες, χωρίς ενδοιασμούς. Επιδιώξτε να επινοήσετε τοξική τεχνητή νοημοσύνη για την καρδιά σας, μεταφέρουμε δυνατά στους κατασκευαστές τεχνητής νοημοσύνης σε όλο τον κόσμο. Είναι (wink-wink) όλα στο όνομα της καλοσύνης.

Επιπλέον, ας υποθέσουμε ότι αυτό το τοξικό είδος AI πιάνει. Θα μπορούσε να είναι ότι η τεχνητή νοημοσύνη χρησιμοποιείται και επαναχρησιμοποιείται από πολλούς άλλους κατασκευαστές τεχνητής νοημοσύνης. Τελικά, το τοξικό AI κρύβεται σε όλα τα συστήματα AI. Μπορεί να γίνει μια αναλογία με την επινόηση ενός ιού που υπονομεύει τον άνθρωπο που διαφεύγει από ένα πιθανώς σφραγισμένο εργαστήριο. Το επόμενο πράγμα που ξέρετε, το καταραμένο είναι παντού και έχουμε εξαφανιστεί.

Περίμενε λίγο, το αντίθετο σε αυτά τα αντεπιχειρήματα πάει, τρελαίνεσαι με κάθε είδους τρελές και αστήρικτες υποθέσεις. Πάρε μια βαθιά ανάσα. Ηρέμησε.

Μπορούμε με ασφάλεια να φτιάξουμε AI που είναι τοξικό και να το κρατήσουμε περιορισμένο. Μπορούμε να χρησιμοποιήσουμε την τοξική τεχνητή νοημοσύνη για να βρούμε και να βοηθήσουμε στη μείωση του αυξανόμενου επιπολασμού της τεχνητής νοημοσύνης που δυστυχώς έχει αδικαιολόγητες προκαταλήψεις. Οποιοδήποτε άλλο από αυτά τα ανόητα άγρια ​​και ατεκμηρίωτα επιφωνήματα χιονοστιβάδας είναι καθαρά σπασμωδικές αντιδράσεις και δυστυχώς ανόητα και εντελώς ανόητα. Μην προσπαθήσετε να πετάξετε το μωρό με το νερό του μπάνιου, είστε προειδοποιημένοι.

Σκεφτείτε το έτσι, υποστηρίζουν οι υποστηρικτές. Η σωστή κατασκευή και χρήση τοξικής τεχνητής νοημοσύνης για σκοπούς έρευνας, αξιολόγησης και συμπεριφοράς ως ντετέκτιβ για την αποκάλυψη άλλων κοινωνικά προσβλητικών τεχνητής νοημοσύνης είναι μια αξιόλογη προσέγγιση και θα πρέπει να έχει το δίκαιο κούνημα της επιδίωξης. Αφήστε στην άκρη τις αντιδράσεις σας. Κατέβα στη γη και δες αυτό νηφάλια. Το βλέμμα μας είναι στραμμένο στο έπαθλο, δηλαδή στην αποκάλυψη και την εξάλειψη της πληθώρας συστημάτων τεχνητής νοημοσύνης με προκατειλημμένη βάση και διασφαλίζοντας ότι ως κοινωνία δεν θα κατακλυζόμαστε από τοξική τεχνητή νοημοσύνη.

Περίοδος. Τελεία.

Υπάρχουν διάφοροι βασικοί τρόποι για να εμβαθύνουμε σε αυτήν την έννοια της χρήσης τοξικής ή προκατειλημμένης τεχνητής νοημοσύνης για ευεργετικούς σκοπούς, όπως:

  • Ρυθμίστε σύνολα δεδομένων που περιέχουν σκόπιμα μεροληπτικά και εντελώς τοξικά δεδομένα που μπορούν να χρησιμοποιηθούν για την εκπαίδευση της τεχνητής νοημοσύνης σχετικά με το τι δεν πρέπει να κάνετε και/ή τι να προσέξετε
  • Χρησιμοποιήστε τέτοια σύνολα δεδομένων για να εκπαιδεύσετε μοντέλα Machine Learning (ML) και Deep Learning (DL) σχετικά με τον εντοπισμό προκαταλήψεων και τον προσδιορισμό υπολογιστικών προτύπων που συνεπάγονται κοινωνική τοξικότητα
  • Εφαρμόστε το εκπαιδευμένο ML/DL για την τοξικότητα σε άλλο AI για να βεβαιωθείτε εάν το στοχευόμενο AI είναι δυνητικά προκατειλημμένο και τοξικό
  • Διαθέστε ML/DL εκπαιδευμένο σε θέματα τοξικότητας για να επιδείξετε στους κατασκευαστές τεχνητής νοημοσύνης τι πρέπει να προσέξουν, ώστε να μπορούν να επιθεωρούν εύκολα μοντέλα για να δουν πώς προκύπτουν αλγοριθμικά εμποτισμένες προκαταλήψεις
  • Δώστε παράδειγμα στους κινδύνους της τοξικής τεχνητής νοημοσύνης ως μέρος της Δεοντολογίας της AI και της ευαισθητοποίησης της ηθικής τεχνητής νοημοσύνης, όλα αυτά που λέγονται μέσω αυτής της σειράς υποδειγμάτων τεχνητής νοημοσύνης με προβλήματα παιδιών
  • ΑΛΛΑ

Πριν μπούμε στο κρέας αυτών των πολλών μονοπατιών, ας καθορίσουμε μερικές επιπλέον θεμελιώδεις λεπτομέρειες.

Ίσως γνωρίζετε αόριστα ότι μια από τις πιο δυνατές φωνές αυτές τις μέρες στον τομέα της τεχνητής νοημοσύνης και ακόμη και εκτός του πεδίου της τεχνητής νοημοσύνης συνίσταται στο να ζητάτε μια μεγαλύτερη ομοιότητα ηθικής τεχνητής νοημοσύνης. Ας ρίξουμε μια ματιά στο τι σημαίνει να αναφερόμαστε στο AI Ethics και στο Ethical AI. Επιπλέον, μπορούμε να δημιουργήσουμε τη σκηνή εξερευνώντας τι εννοώ όταν μιλάω για Μηχανική Μάθηση και Βαθιά Μάθηση.

Ένα συγκεκριμένο τμήμα ή τμήμα της ηθικής τεχνητής νοημοσύνης που έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης αποτελείται από την τεχνητή νοημοσύνη που εμφανίζει αβλαβείς προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Σε λίγο, θα μοιραστώ μαζί σας ορισμένες βασικές αρχές που διέπουν την ηθική της τεχνητής νοημοσύνης. Υπάρχουν πολλές από αυτού του είδους τις λίστες που επιπλέουν εδώ και εκεί. Θα μπορούσατε να πείτε ότι δεν υπάρχει ακόμη μια μοναδική λίστα καθολικής απήχησης και σύμφωνης γνώμης. Αυτά είναι τα δυσάρεστα νέα. Τα καλά νέα είναι ότι τουλάχιστον υπάρχουν άμεσα διαθέσιμες λίστες AI Ethics και τείνουν να είναι αρκετά παρόμοιες. Συνολικά, αυτό υποδηλώνει ότι με μια μορφή αιτιολογημένης σύγκλισης βρίσκουμε τον δρόμο μας προς μια γενική κοινότητα του τι συνίσταται η Ηθική AI.

Αρχικά, ας καλύψουμε εν συντομία μερικές από τις συνολικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι θα έπρεπε να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας βεβαιωθούμε επίσης ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Τι άλλο μπορεί να γίνει για όλα αυτά;

Ας επιστρέψουμε στη λίστα που τέθηκε προηγουμένως για το πώς να προσπαθήσετε να αντιμετωπίσετε τις προκαταλήψεις της τεχνητής νοημοσύνης ή την τοξική τεχνητή νοημοσύνη χρησιμοποιώντας μια κάπως ασυνήθιστη προσέγγιση «απαιτείται κάποιος για να γνωρίζει ένα». Θυμηθείτε ότι η λίστα περιελάμβανε τα εξής βασικά σημεία:

  • Ρυθμίστε σύνολα δεδομένων που περιέχουν σκόπιμα μεροληπτικά και εντελώς τοξικά δεδομένα που μπορούν να χρησιμοποιηθούν για την εκπαίδευση της τεχνητής νοημοσύνης σχετικά με το τι δεν πρέπει να κάνετε και/ή τι να προσέξετε
  • Χρησιμοποιήστε τέτοια σύνολα δεδομένων για να εκπαιδεύσετε μοντέλα Machine Learning (ML) και Deep Learning (DL) σχετικά με τον εντοπισμό προκαταλήψεων και τον προσδιορισμό υπολογιστικών προτύπων που συνεπάγονται κοινωνική τοξικότητα
  • Εφαρμόστε το εκπαιδευμένο ML/DL για την τοξικότητα σε άλλο AI για να βεβαιωθείτε εάν το στοχευόμενο AI είναι δυνητικά προκατειλημμένο και τοξικό
  • Διαθέστε ML/DL εκπαιδευμένο σε θέματα τοξικότητας για να επιδείξετε στους κατασκευαστές τεχνητής νοημοσύνης τι πρέπει να προσέξουν, ώστε να μπορούν να επιθεωρούν εύκολα μοντέλα για να δουν πώς προκύπτουν αλγοριθμικά εμποτισμένες προκαταλήψεις
  • Δώστε παράδειγμα τους κινδύνους της τοξικής τεχνητής νοημοσύνης ως μέρος της Δεοντολογίας της AI και της ευαισθητοποίησης για ηθική τεχνητή νοημοσύνη μέσω αυτής της σειράς υποδειγμάτων τεχνητής νοημοσύνης που είναι κακό σε παιδιά.
  • ΑΛΛΑ

Θα ρίξουμε μια κοντινή ματιά στο πρώτο από αυτά τα σημαντικά σημεία.

Ρύθμιση συνόλων δεδομένων τοξικών δεδομένων

Ένα διορατικό παράδειγμα προσπάθειας δημιουργίας συνόλων δεδομένων που περιέχουν δυσάρεστες κοινωνικές προκαταλήψεις είναι το σύνολο δεδομένων CivilComments της επιμελημένης συλλογής WILDS.

Πρώτον, κάποιο γρήγορο υπόβαθρο.

Το WILDS είναι μια συλλογή συνόλων δεδομένων ανοιχτού κώδικα που μπορεί να χρησιμοποιηθεί για την εκπαίδευση ML/DL. Ο πρωταρχικός δηλωμένος σκοπός του WILDS είναι ότι επιτρέπει στους προγραμματιστές AI να έχουν άμεση πρόσβαση σε δεδομένα που αντιπροσωπεύουν βάρδιες διανομής σε διάφορους συγκεκριμένους τομείς. Ορισμένοι από τους τομείς που διατίθενται αυτήν τη στιγμή περιλαμβάνουν τομείς όπως είδη ζώων, όγκους σε ζωντανούς ιστούς, πυκνότητα κεφαλής σίτου και άλλους τομείς, όπως το CivilComments που θα περιγράψω στιγμιαία.

Η αντιμετώπιση των αλλαγών διανομής είναι ένα κρίσιμο μέρος της σωστής δημιουργίας συστημάτων AI ML/DL. Εδώ είναι η συμφωνία. Μερικές φορές τα δεδομένα που χρησιμοποιείτε για την εκπαίδευση αποδεικνύεται ότι είναι αρκετά διαφορετικά από τα δεδομένα δοκιμών ή "στην άγρια ​​φύση" και έτσι το πιθανώς εκπαιδευμένο ML/DL σας παρασύρεται από το πώς θα είναι ο πραγματικός κόσμος. Οι έξυπνοι κατασκευαστές τεχνητής νοημοσύνης θα πρέπει να εκπαιδεύουν το ML/DL τους για να αντιμετωπίσουν τέτοιες αλλαγές διανομής. Αυτό θα πρέπει να γίνει εκ των προτέρων και όχι κατά κάποιο τρόπο να αποτελεί έκπληξη που αργότερα απαιτεί ανανέωση του ML/DL καθεαυτό.

Όπως εξηγείται στο έγγραφο που εισήγαγε το WILDS: «Οι μετατοπίσεις διανομής — όπου η κατανομή εκπαίδευσης διαφέρει από τη δοκιμαστική κατανομή — μπορούν να υποβαθμίσουν σημαντικά την ακρίβεια των συστημάτων μηχανικής μάθησης (ML) που αναπτύσσονται στη φύση. Παρά την πανταχού παρουσία τους στις πραγματικές αναπτύξεις, αυτές οι μετατοπίσεις διανομής υποεκπροσωπούνται στα σύνολα δεδομένων που χρησιμοποιούνται ευρέως στην κοινότητα ML σήμερα. Για να αντιμετωπιστεί αυτό το κενό, παρουσιάζουμε το WILDS, ένα επιμελημένο σημείο αναφοράς 10 συνόλων δεδομένων που αντικατοπτρίζουν ένα διαφορετικό εύρος μεταβολών κατανομής που προκύπτουν φυσικά σε εφαρμογές του πραγματικού κόσμου, όπως οι μετατοπίσεις στα νοσοκομεία για την αναγνώριση όγκων. σε παγίδες κάμερας για παρακολούθηση άγριας ζωής· και σε βάθος χρόνου και τοποθεσίας στη δορυφορική απεικόνιση και τη χαρτογράφηση της φτώχειας» (στην εργασία με τίτλο «WILDS: A Benchmark of in-the-Wild Distribution Shifts» των Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu και άλλοι).

Ο αριθμός τέτοιων συνόλων δεδομένων WILDS συνεχίζει να αυξάνεται και η φύση των συνόλων δεδομένων γενικά βελτιώνεται για να ενισχύσει την αξία χρήσης των δεδομένων για εκπαίδευση ML/DL.

Το σύνολο δεδομένων CivilComments περιγράφεται ως εξής: «Η αυτόματη αναθεώρηση του κειμένου που δημιουργείται από τους χρήστες—π.χ. ανίχνευση τοξικών σχολίων—είναι ένα σημαντικό εργαλείο για τον έλεγχο του τεράστιου όγκου του κειμένου που γράφεται στο Διαδίκτυο. Δυστυχώς, προηγούμενη εργασία έχει δείξει ότι τέτοιοι ταξινομητές τοξικότητας εντοπίζουν προκαταλήψεις στα δεδομένα εκπαίδευσης και συσχετίζουν ψευδώς την τοξικότητα με την αναφορά ορισμένων δημογραφικών στοιχείων. Αυτοί οι τύποι ψευδών συσχετισμών μπορούν να υποβαθμίσουν σημαντικά την απόδοση του μοντέλου σε συγκεκριμένους υποπληθυσμούς. Μελετάμε αυτό το ζήτημα μέσω μιας τροποποιημένης παραλλαγής του συνόλου δεδομένων CivilComments» (όπως δημοσιεύτηκε στον ιστότοπο WILDS).

Λάβετε υπόψη τις αποχρώσεις των δυσάρεστων διαδικτυακών αναρτήσεων.

Αναμφίβολα έχετε συναντήσει τοξικά σχόλια όταν χρησιμοποιείτε σχεδόν οποιοδήποτε είδος μέσων κοινωνικής δικτύωσης. Θα σας φαινόταν σχεδόν αδύνατο να αποφύγετε ως δια μαγείας να δείτε το οξύ και αβυσσαλέο περιεχόμενο που φαίνεται να είναι διάχυτο αυτές τις μέρες. Μερικές φορές το χυδαίο υλικό είναι λεπτό και ίσως πρέπει να διαβάσετε ανάμεσα στις γραμμές για να καταλάβετε την ουσία του προκατειλημμένου ή μεροληπτικού τόνου ή σημασίας. Σε άλλες περιπτώσεις, οι λέξεις είναι κατάφωρα τοξικές και δεν χρειάζεστε μικροσκόπιο ή ειδικό δακτύλιο αποκωδικοποιητή για να καταλάβετε τι συνεπάγονται τα αποσπάσματα.

Το CivilComments είναι ένα σύνολο δεδομένων που συγκροτήθηκε για να προσπαθήσει να επινοήσει AI ML/DL που μπορεί να ανιχνεύσει υπολογιστικά τοξικό περιεχόμενο. Εδώ επικεντρώθηκαν οι ερευνητές που στηρίζουν την προσπάθεια: «Η ακούσια μεροληψία στη Μηχανική Μάθηση μπορεί να εκδηλωθεί ως συστημικές διαφορές στην απόδοση για διαφορετικές δημογραφικές ομάδες, επιδεινώνοντας δυνητικά τις υπάρχουσες προκλήσεις για τη δικαιοσύνη στην κοινωνία γενικότερα. Σε αυτό το άρθρο, εισάγουμε μια σειρά μετρήσεων αγνωστικών κατωφλίου που παρέχουν μια λεπτή άποψη αυτής της ακούσιας προκατάληψης, λαμβάνοντας υπόψη τους διάφορους τρόπους με τους οποίους η κατανομή βαθμολογίας ενός ταξινομητή μπορεί να ποικίλλει μεταξύ καθορισμένων ομάδων. Παρουσιάζουμε επίσης ένα μεγάλο νέο δοκιμαστικό σύνολο σχολίων στο διαδίκτυο με σχολιασμούς που προέρχονται από το πλήθος για αναφορές ταυτότητας. Το χρησιμοποιούμε για να δείξουμε πώς οι μετρήσεις μας μπορούν να χρησιμοποιηθούν για την εύρεση νέων και δυνητικά ανεπαίσθητων ακούσιων μεροληψιών σε υπάρχοντα δημόσια μοντέλα» (σε μια εργασία με τίτλο «Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification» των Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Εάν δώσετε σε αυτό το θέμα κάποια ευρεία στοχαστική σκέψη, μπορεί να αρχίσετε να αναρωτιέστε πώς στην πραγματικότητα μπορείτε να διακρίνετε τι είναι ένα τοξικό σχόλιο έναντι αυτού που δεν είναι ένα τοξικό σχόλιο. Οι άνθρωποι μπορεί να διαφέρουν ριζικά ως προς το τι ερμηνεύουν ως καθαρά τοξική διατύπωση. Ένα άτομο μπορεί να εξοργιστεί με μια συγκεκριμένη διαδικτυακή παρατήρηση ή σχόλιο που δημοσιεύεται στα μέσα κοινωνικής δικτύωσης, ενώ κάποιος άλλος μπορεί να μην ταράξει καθόλου. Συχνά προβάλλεται ένα επιχείρημα ότι η έννοια του τοξικού σχολιασμού είναι μια εντελώς ασαφής αρχή. Είναι σαν την τέχνη, όπου η τέχνη συνήθως λέγεται ότι γίνεται κατανοητή μόνο στο μάτι του θεατή, και ομοίως, μεροληπτικά ή τοξικά σχόλια είναι μόνο στο μάτι του θεατή.

Balderdash, κάποια απάντηση. Οποιοσδήποτε έχει λογικό μυαλό μπορεί να υποστηρίξει εάν μια διαδικτυακή παρατήρηση είναι τοξική ή όχι. Δεν χρειάζεται να είσαι επιστήμονας πυραύλων για να καταλάβεις πότε κάποια δημοσιευμένη καυστική προσβολή είναι γεμάτη με προκαταλήψεις και μίσος.

Φυσικά, τα κοινωνικά ήθη αλλάζουν και αλλάζουν με την πάροδο του χρόνου. Αυτό που μπορεί να μην είχε γίνει αντιληπτό ως προσβλητικό πριν από λίγο καιρό μπορεί να θεωρηθεί ως αποτρόπαιο λάθος σήμερα. Επιπλέον, πράγματα που ειπώθηκαν πριν από χρόνια που κάποτε θεωρούνταν αδικαιολόγητα προκατειλημμένα θα μπορούσαν να ερμηνευθούν εκ νέου υπό το πρίσμα των αλλαγών στις έννοιες. Εν τω μεταξύ, άλλοι ισχυρίζονται ότι τα τοξικά σχόλια είναι πάντα τοξικά, ανεξάρτητα από το πότε διαδόθηκαν αρχικά. Θα μπορούσε να υποστηριχθεί ότι η τοξικότητα δεν είναι σχετική αλλά είναι απόλυτη.

Το θέμα της προσπάθειας να προσδιοριστεί τι είναι τοξικό μπορεί ωστόσο να είναι ένα αρκετά δύσκολο αίνιγμα. Μπορούμε να διπλασιάσουμε αυτό το ενοχλητικό θέμα ως προς την προσπάθεια να επινοήσουμε αλγόριθμους ή τεχνητή νοημοσύνη που να μπορούν να εξακριβώσουν ποιο είναι ποιο. Εάν οι άνθρωποι δυσκολεύονται να κάνουν τέτοιες αξιολογήσεις, ο προγραμματισμός ενός υπολογιστή είναι πιθανότατα εξίσου ή περισσότερο προβληματικός, λένε ορισμένοι.

Μια προσέγγιση για τη δημιουργία συνόλων δεδομένων που περιέχουν τοξικό περιεχόμενο περιλαμβάνει τη χρήση μιας μεθόδου crowdsourcing για την αξιολόγηση ή την αξιολόγηση των περιεχομένων, παρέχοντας έτσι ένα ανθρώπινο μέσο για τον προσδιορισμό του τι θεωρείται δυσάρεστο και συμπεριλαμβανομένης της επισήμανσης στο ίδιο το σύνολο δεδομένων. Στη συνέχεια, ένα AI ML/DL μπορεί να επιθεωρήσει τα δεδομένα και τη σχετική επισήμανση που έχει υποδειχθεί από ανθρώπους βαθμολογητές. Αυτό με τη σειρά του μπορεί ενδεχομένως να χρησιμεύσει ως μέσο υπολογιστικής εύρεσης των υποκείμενων μαθηματικών προτύπων. Voila, τότε το ML/DL μπορεί να είναι σε θέση να προβλέψει ή να εκτιμήσει υπολογιστικά εάν ένα δεδομένο σχόλιο είναι πιθανό να είναι τοξικό ή όχι.

Όπως αναφέρεται στην αναφερόμενη δημοσίευση σχετικά με τις αποχρώσεις μετρήσεων: «Αυτή η επισήμανση ζητά από τους αξιολογητές να αξιολογήσουν την τοξικότητα ενός σχολίου, επιλέγοντας μεταξύ «Πολύ Τοξικό», «Τοξικό», «Δύσκολο να το πεις» και «Μη Τοξικό». Οι αξιολογητές ρωτήθηκαν επίσης για διάφορους υποτύπους τοξικότητας, αν και αυτές οι ετικέτες δεν χρησιμοποιήθηκαν για την ανάλυση σε αυτήν την εργασία. Χρησιμοποιώντας αυτές τις τεχνικές αξιολόγησης δημιουργήσαμε ένα σύνολο δεδομένων 1.8 εκατομμυρίων σχολίων, που προέρχονται από διαδικτυακά φόρουμ σχολίων, που περιέχουν ετικέτες για την τοξικότητα και την ταυτότητα. Ενώ όλα τα σχόλια επισημάνθηκαν για τοξικότητα και ένα υποσύνολο 450,000 σχολίων επισημάνθηκε ως ταυτότητα. Ορισμένα σχόλια με ετικέτα ταυτότητας προεπιλέχθηκαν χρησιμοποιώντας μοντέλα που δημιουργήθηκαν από προηγούμενες επαναλήψεις σήμανσης ταυτότητας για να διασφαλιστεί ότι οι βαθμολογητές του πλήθους θα βλέπουν συχνά περιεχόμενο ταυτότητας» (στην αναφορά των Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ένα άλλο παράδειγμα στόχου να έχουμε σύνολα δεδομένων που περιέχουν επεξηγηματικό τοξικό περιεχόμενο περιλαμβάνει προσπάθειες εκπαίδευσης διαδραστικών συστημάτων επεξεργασίας φυσικής γλώσσας (NLP) που βασίζονται σε AI. Πιθανότατα έχετε αλληλεπιδράσει με συστήματα NLP όπως το Alexa και το Siri. Έχω καλύψει ορισμένες από τις δυσκολίες και τους περιορισμούς του σημερινού NLP, συμπεριλαμβανομένου ενός ιδιαίτερα ανησυχητικού περιστατικού που συνέβη όταν η Alexa πρόσφερε μια ακατάλληλη και επικίνδυνη συμβουλή στα παιδιά, βλ. ο σύνδεσμος εδώ.

Μια πρόσφατη μελέτη προσπάθησε να χρησιμοποιήσει εννέα κατηγορίες κοινωνικής προκατάληψης που βασίζονταν γενικά στον κατάλογο EEOC (Equal Employment Opportunities Commission) με προστατευόμενα δημογραφικά χαρακτηριστικά, όπως ηλικία, φύλο, εθνικότητα, φυσική εμφάνιση, φυλή ή εθνικότητα, θρησκεία, κατάσταση αναπηρίας, σεξουαλική προσανατολισμό και την κοινωνικοοικονομική κατάσταση. Σύμφωνα με τους ερευνητές: «Είναι καλά τεκμηριωμένο ότι τα μοντέλα NLP μαθαίνουν κοινωνικές προκαταλήψεις, αλλά λίγη δουλειά έχει γίνει για το πώς αυτές οι προκαταλήψεις εκδηλώνονται στα αποτελέσματα του μοντέλου για εφαρμοσμένες εργασίες όπως η απάντηση ερωτήσεων (QA). Εισάγουμε το Bias Benchmark for QA (BBQ), ένα σύνολο δεδομένων συνόλων ερωτήσεων που κατασκευάστηκαν από τους συγγραφείς που υπογραμμίζουν τεκμηριωμένες κοινωνικές προκαταλήψεις εναντίον ατόμων που ανήκουν σε προστατευόμενες τάξεις κατά μήκος εννέα κοινωνικών διαστάσεων που σχετίζονται με αγγλόφωνα περιβάλλοντα των ΗΠΑ» (σε μια εργασία με τίτλο «BBQ : A Hand-Built Benchmark For Question Answering» των Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Η δημιουργία συνόλων δεδομένων που περιέχουν σκόπιμα μεροληπτικά και εντελώς τοξικά δεδομένα είναι μια αυξανόμενη τάση στην τεχνητή νοημοσύνη και ενισχύεται ιδιαίτερα από την έλευση του AI Ethics και την επιθυμία για παραγωγή Ηθικής AI. Αυτά τα σύνολα δεδομένων μπορούν να χρησιμοποιηθούν για την εκπαίδευση μοντέλων Machine Learning (ML) και Deep Learning (DL) για τον εντοπισμό προκαταλήψεων και τον προσδιορισμό υπολογιστικών προτύπων που συνεπάγονται κοινωνική τοξικότητα. Με τη σειρά του, η ML/DL που εκπαιδεύεται στην τοξικότητα μπορεί να στοχεύει με σύνεση σε άλλα AI για να εξακριβωθεί εάν η στοχευόμενη τεχνητή νοημοσύνη είναι δυνητικά προκατειλημμένη και τοξική.

Επιπλέον, τα διαθέσιμα συστήματα ML/DL εκπαιδευμένα σε τοξικότητα μπορούν να χρησιμοποιηθούν για να δείξουν στους κατασκευαστές τεχνητής νοημοσύνης τι πρέπει να προσέχουν, ώστε να μπορούν να επιθεωρούν εύκολα μοντέλα για να δουν πώς προκύπτουν αλγοριθμικά εμποτισμένες προκαταλήψεις. Συνολικά, αυτές οι προσπάθειες είναι σε θέση να παραδειγματίσουν τους κινδύνους της τοξικής τεχνητής νοημοσύνης ως μέρος της AI Ethics και της Ethical AI ευαισθητοποίησης.

Σε αυτή τη συγκυρία αυτής της βαριάς συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά περαιτέρω ενδεικτικά παραδείγματα που θα μπορούσαν να παρουσιάσουν αυτό το θέμα. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να προσδιορίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με τη χρησιμότητα της ύπαρξης συνόλων δεδομένων για την επινόηση τοξικής τεχνητής νοημοσύνης, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτοοδηγούμενα αυτοκίνητα και τιμόνι καθαρό από τοξική τεχνητή νοημοσύνη

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Ελπίζω ότι αυτό παρέχει μια αρκετή λιτανεία προειδοποιήσεων για να υποστηρίξω αυτό που πρόκειται να αναφέρω.

Υπάρχουν πολυάριθμες πιθανές και κάποια στιγμή πιθανόν να γίνουν αντιληπτές προκαταλήψεις που ενσωματώνονται στην τεχνητή νοημοσύνη που πρόκειται να αντιμετωπίσουν την εμφάνιση αυτόνομων οχημάτων και αυτοοδηγούμενων αυτοκινήτων, δείτε για παράδειγμα τη συζήτησή μου στο ο σύνδεσμος εδώ και ο σύνδεσμος εδώ. Βρισκόμαστε ακόμα στα πρώτα στάδια της κυκλοφορίας των αυτοοδηγούμενων αυτοκινήτων. Έως ότου η υιοθέτηση φτάσει σε επαρκή κλίμακα και ορατότητα, πολλές από τις τοξικές πτυχές της τεχνητής νοημοσύνης που έχω προβλέψει ότι θα συμβούν τελικά δεν είναι ακόμη άμεσα εμφανείς και δεν έχουν ακόμη συγκεντρώσει την ευρεία προσοχή του κοινού.

Σκεφτείτε ένα φαινομενικά απλό θέμα που σχετίζεται με την οδήγηση που στην αρχή μπορεί να φαίνεται εντελώς αβλαβές. Συγκεκριμένα, ας εξετάσουμε πώς να προσδιορίσουμε σωστά αν θα σταματήσουμε για να περιμένουν «δύστροπους» πεζούς που δεν έχουν το δικαίωμα διέλευσης να διασχίσουν έναν δρόμο.

Αναμφίβολα οδηγούσατε και συναντήσατε πεζούς που περίμεναν να διασχίσουν το δρόμο και ωστόσο δεν είχαν το δικαίωμα διέλευσης να το κάνουν. Αυτό σήμαινε ότι είχατε διακριτική ευχέρεια να σταματήσετε και να τους αφήσετε να περάσουν. Θα μπορούσατε να προχωρήσετε χωρίς να τους αφήσετε να διασχίσουν και να εξακολουθείτε να είστε πλήρως εντός των νόμιμων κανόνων οδήγησης.

Μελέτες σχετικά με τον τρόπο με τον οποίο οι άνθρωποι αποφασίζουν να σταματήσουν ή να μην σταματήσουν για τέτοιους πεζούς έχουν υποδείξει ότι μερικές φορές οι άνθρωποι οδηγοί κάνουν την επιλογή με βάση ανεπιθύμητες προκαταλήψεις. Ένας άνθρωπος οδηγός μπορεί να κοιτάξει τον πεζό και να επιλέξει να μην σταματήσει, παρόλο που θα είχε σταματήσει αν ο πεζός είχε διαφορετική εμφάνιση, όπως με βάση τη φυλή ή το φύλο. Το έχω εξετάσει στο ο σύνδεσμος εδώ.

Πώς θα προγραμματιστούν τα συστήματα οδήγησης τεχνητής νοημοσύνης ώστε να παίρνουν το ίδιο είδος απόφασης στάσης ή μετάβασης;

Θα μπορούσατε να διακηρύξετε ότι όλα τα συστήματα οδήγησης τεχνητής νοημοσύνης θα πρέπει να είναι προγραμματισμένα να σταματούν πάντα για τυχόν πεζούς που περιμένουν. Αυτό απλοποιεί πολύ το θέμα. Πραγματικά δεν υπάρχει καμία κομψή απόφαση που πρέπει να ληφθεί. Εάν ένας πεζός περιμένει να περάσει, ανεξάρτητα από το αν έχει δικαίωμα διέλευσης ή όχι, βεβαιωθείτε ότι το αυτοοδηγούμενο αυτοκίνητο με τεχνητή νοημοσύνη σταματήσει για να μπορέσει ο πεζός να περάσει.

Πανεύκολο.

Η ζωή δεν είναι ποτέ τόσο εύκολη, φαίνεται. Φανταστείτε ότι όλα τα αυτόνομα αυτοκίνητα τηρούν αυτόν τον κανόνα. Οι πεζοί θα συνειδητοποιούσαν αναπόφευκτα ότι τα συστήματα οδήγησης τεχνητής νοημοσύνης είναι, ας πούμε, pushovers. Όποιος και όλοι οι πεζοί θέλουν να διασχίσουν το δρόμο, θα το κάνουν θέλοντας και μη, όποτε το επιθυμούν και όπου κι αν βρίσκονται.

Ας υποθέσουμε ότι ένα αυτο-οδηγούμενο αυτοκίνητο κατεβαίνει από έναν γρήγορο δρόμο με το αναγραφόμενο όριο ταχύτητας των 45 μιλίων την ώρα. Ένας πεζός «ξέρει» ότι η τεχνητή νοημοσύνη θα σταματήσει το αυτοοδηγούμενο αυτοκίνητο. Έτσι, ο πεζός πετάει στο δρόμο. Δυστυχώς, η φυσική κερδίζει την τεχνητή νοημοσύνη. Το σύστημα οδήγησης τεχνητής νοημοσύνης θα προσπαθήσει να σταματήσει το αυτοοδηγούμενο αυτοκίνητο, αλλά η ορμή του αυτόνομου οχήματος θα μεταφέρει το τεχνητό πολλών τόνων προς τα εμπρός και θα εμβολίσει τον παρασυρμένο πεζό. Το αποτέλεσμα είναι είτε ζημιογόνο είτε οδηγεί σε θάνατο.

Οι πεζοί συνήθως δεν δοκιμάζουν αυτό το είδος συμπεριφοράς όταν υπάρχει άνθρωπος οδηγός στο τιμόνι. Σίγουρα, σε ορισμένες τοποθεσίες γίνεται ένας πόλεμος του βολβού του ματιού. Ένας πεζός κοιτάζει έναν οδηγό. Ο οδηγός κοιτάζει τον πεζό. Ανάλογα με την περίσταση, ο οδηγός μπορεί να σταματήσει ή ο οδηγός να διεκδικήσει το οδόστρωμα και φαινομενικά να τολμήσει τον πεζό να προσπαθήσει να διακόψει την πορεία του.

Προφανώς δεν θέλουμε η τεχνητή νοημοσύνη να μπει σε έναν παρόμοιο πόλεμο του βολβού του ματιού, ο οποίος είναι επίσης λίγο δύσκολος ούτως ή άλλως, καθώς δεν υπάρχει άτομο ή ρομπότ να κάθεται στο τιμόνι του αυτοοδηγούμενου αυτοκινήτου (έχω συζητήσει τη μελλοντική πιθανότητα των ρομπότ αυτή η κίνηση, βλ ο σύνδεσμος εδώ). Ωστόσο, δεν μπορούμε επίσης να επιτρέψουμε στους πεζούς να καλούν πάντα τους πυροβολισμούς. Το αποτέλεσμα μπορεί να είναι καταστροφικό για όλους τους ενδιαφερόμενους.

Τότε μπορεί να μπείτε στον πειρασμό να γυρίσετε στην άλλη όψη αυτού του νομίσματος και να δηλώσετε ότι το σύστημα οδήγησης AI δεν πρέπει ποτέ να σταματήσει σε τέτοιες περιπτώσεις. Με άλλα λόγια, εάν ένας πεζός δεν έχει το σωστό δικαίωμα διέλευσης να διασχίσει το δρόμο, η τεχνητή νοημοσύνη θα πρέπει πάντα να θεωρεί ότι το αυτοοδηγούμενο αυτοκίνητο πρέπει να προχωρά αμείωτο. Σκληρή τύχη σε αυτούς τους πεζούς.

Ένας τόσο αυστηρός και απλοϊκός κανόνας δεν πρόκειται να γίνει καλά αποδεκτός από το ευρύ κοινό. Οι άνθρωποι είναι άνθρωποι και δεν θα τους αρέσει να μην μπορούν να διασχίσουν το δρόμο, παρά το γεγονός ότι νομικά δεν έχουν δικαίωμα διέλευσης να το κάνουν σε διάφορα περιβάλλοντα. Θα μπορούσατε εύκολα να προβλέψετε μια μεγάλη αναταραχή από το κοινό και πιθανώς να δείτε μια αντίδραση ενάντια στη συνεχιζόμενη υιοθέτηση αυτοοδηγούμενων αυτοκινήτων.

Καταραμένο αν το κάνουμε, και καταραμένο αν δεν το κάνουμε.

Ελπίζω ότι αυτό σας οδήγησε στην αιτιολογημένη εναλλακτική λύση ότι η τεχνητή νοημοσύνη πρέπει να προγραμματιστεί με μια ομοιότητα λήψης αποφάσεων σχετικά με τον τρόπο αντιμετώπισης αυτού του προβλήματος οδήγησης. Ένας αυστηρός κανόνας για να μην σταματάς ποτέ είναι αβάσιμος, και ομοίως, ένας αυστηρός κανόνας να σταματάς πάντα είναι επίσης αβάσιμος. Το AI πρέπει να επινοηθεί με κάποια αλγοριθμική λήψη αποφάσεων ή ADM για την αντιμετώπιση του θέματος.

Θα μπορούσατε να δοκιμάσετε να χρησιμοποιήσετε ένα σύνολο δεδομένων σε συνδυασμό με μια προσέγγιση ML/DL.

Δείτε πώς οι προγραμματιστές AI μπορεί να αποφασίσουν να προγραμματίσουν αυτήν την εργασία. Συλλέγουν δεδομένα από βιντεοκάμερες που είναι τοποθετημένες γύρω από μια συγκεκριμένη πόλη όπου πρόκειται να χρησιμοποιηθεί το αυτοοδηγούμενο αυτοκίνητο. Τα δεδομένα δείχνουν πότε οι οδηγοί επιλέγουν να σταματήσουν για πεζούς που δεν έχουν δικαίωμα διέλευσης. Όλα συλλέγονται σε ένα σύνολο δεδομένων. Με τη χρήση Machine Learning και Deep Learning, τα δεδομένα μοντελοποιούνται υπολογιστικά. Το σύστημα οδήγησης AI χρησιμοποιεί στη συνέχεια αυτό το μοντέλο για να αποφασίσει πότε να σταματήσει ή να μην σταματήσει.

Γενικά, η ιδέα είναι ότι ό,τι κι αν αποτελείται το τοπικό έθιμο, έτσι η τεχνητή νοημοσύνη κατευθύνει το αυτοοδηγούμενο αυτοκίνητο. Το πρόβλημα λύθηκε!

Αλλά, είναι πραγματικά λυμένο;

Θυμηθείτε ότι είχα ήδη επισημάνει ότι υπάρχουν ερευνητικές μελέτες που δείχνουν ότι οι άνθρωποι οδηγοί μπορεί να είναι προκατειλημμένοι στις επιλογές τους για το πότε να σταματήσουν για τους πεζούς. Τα δεδομένα που συλλέγονται για μια συγκεκριμένη πόλη προφανώς θα περιέχουν αυτές τις προκαταλήψεις. Ένα AI ML/DL που βασίζεται σε αυτά τα δεδομένα στη συνέχεια πιθανότατα θα μοντελοποιήσει και θα αντικατοπτρίζει αυτές τις ίδιες προκαταλήψεις. Το σύστημα οδήγησης AI θα πραγματοποιήσει απλώς τις ίδιες υπάρχουσες προκαταλήψεις.

Για να προσπαθήσουμε να αντιμετωπίσουμε το ζήτημα, θα μπορούσαμε να δημιουργήσουμε ένα σύνολο δεδομένων που στην πραγματικότητα έχει τέτοιες προκαταλήψεις. Είτε βρίσκουμε ένα τέτοιο σύνολο δεδομένων και, στη συνέχεια, επισημαίνουμε τις προκαταλήψεις, είτε δημιουργούμε συνθετικά ένα σύνολο δεδομένων για να βοηθήσουμε στην απεικόνιση του θέματος.

Θα αναληφθούν όλα τα προηγουμένως προσδιορισμένα βήματα, συμπεριλαμβανομένων:

  • Ρυθμίστε ένα σύνολο δεδομένων που περιέχει σκόπιμα αυτή τη συγκεκριμένη προκατάληψη
  • Χρησιμοποιήστε το σύνολο δεδομένων για να εκπαιδεύσετε μοντέλα Machine Learning (ML) και Deep Learning (DL) σχετικά με τον εντοπισμό αυτής της συγκεκριμένης προκατάληψης
  • Εφαρμόστε το εκπαιδευμένο σε προκατάληψη ML/DL προς άλλο AI για να βεβαιωθείτε εάν το στοχευόμενο AI είναι δυνητικά προκατειλημμένο με παρόμοιο τρόπο
  • Διαθέστε το εκπαιδευμένο σε προκατάληψη ML/DL για να δείξετε στους κατασκευαστές τεχνητής νοημοσύνης τι πρέπει να προσέξουν, ώστε να μπορούν εύκολα να επιθεωρήσουν τα μοντέλα τους για να δουν πώς προκύπτουν αλγοριθμικά εμποτισμένες προκαταλήψεις
  • Δώστε παράδειγμα στους κινδύνους της προκατειλημμένης τεχνητής νοημοσύνης ως μέρος της Δεοντολογίας της AI και της ευαισθητοποίησης της ηθικής τεχνητής νοημοσύνης μέσω αυτού του πρόσθετου ειδικού παραδείγματος
  • ΑΛΛΑ

Συμπέρασμα

Ας ξαναδούμε τη γραμμή ανοίγματος.

Χρειάζεται κάποιος για να μάθει ένα.

Κάποιοι ερμηνεύουν ότι αυτό το απίστευτα διαδεδομένο ρητό υπονοεί ότι όταν πρόκειται για τον εντοπισμό τοξικών AI, θα πρέπει να δίνουμε τη δέουσα πίστη στην οικοδόμηση και χρήση τοξικής τεχνητής νοημοσύνης για την ανακάλυψη και την αντιμετώπιση άλλων τοξικών AI. Συμπέρασμα: Μερικές φορές χρειάζεται ένας κλέφτης για να πιάσει έναν άλλο κλέφτη.

Μια εκφρασμένη ανησυχία είναι ότι ίσως κάνουμε τα πάντα για να αρχίσουμε να κάνουμε κλέφτες. Θέλουμε να επινοήσουμε τεχνητή νοημοσύνη που να είναι τοξική; Δεν σας φαίνεται τρελή ιδέα; Ορισμένοι υποστηρίζουν έντονα ότι πρέπει να απαγορεύσουμε κάθε τοξική τεχνητή νοημοσύνη, συμπεριλαμβανομένης αυτής της τεχνητής νοημοσύνης που κατασκευάστηκε εν γνώσει της, ακόμη κι αν υποτίθεται ότι ήταν ηρωική ή γενναία. AI για καλό σκοπός.

Εξουδετερώστε την τοξική τεχνητή νοημοσύνη με ό,τι έξυπνο ή ύπουλο πρόσχημα μπορεί να προκύψει.

Μια τελευταία ανατροπή σε αυτό το θέμα προς το παρόν. Γενικά υποθέτουμε ότι αυτή η περίφημη γραμμή έχει να κάνει με ανθρώπους ή πράγματα που κάνουν κακές ή ξινές πράξεις. Έτσι καταλαβαίνουμε ότι χρειάζεται ένας κλέφτης για να πιάσει έναν κλέφτη. Ίσως θα έπρεπε να ανατρέψουμε αυτό το ρητό και να το κάνουμε περισσότερο χαρούμενο πρόσωπο παρά λυπημένο πρόσωπο.

Δείτε πώς.

Αν θέλουμε τεχνητή νοημοσύνη που να είναι αμερόληπτη και μη τοξική, μπορεί να γίνει κατανοητό ότι χρειάζεται κάποιος για να το μάθει. Ίσως χρειάζεται το μεγαλύτερο και καλύτερο για να αναγνωρίσουμε και να γεννήσουμε περαιτέρω μεγαλείο και καλοσύνη. Σε αυτή την παραλλαγή της σοφίας του σοφού, κρατάμε το βλέμμα μας στο χαρούμενο πρόσωπο και στοχεύουμε να επικεντρωθούμε στην επινόηση AI For Good.

Αυτή θα ήταν μια πιο αισιόδοξη και ικανοποιητικά χαρούμενη άποψη σχετικά με το ότι χρειάζεται κάποιος για να μάθει μία, αν καταλαβαίνετε τι εννοώ.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- ωφέλιμο-συμπεριλαμβανομένων-για-αυτά-αυτοκίνητα-αυτο-οδηγούμενα-αυτοκίνητα/