Ηθική AI Σκεπτικισμός σχετικά με τη θέσπιση των αποκαλούμενων νόμων τεχνητής νοημοσύνης με κόκκινη σημαία για την κλήση μεροληπτικών αλγορίθμων σε αυτόνομα συστήματα τεχνητής νοημοσύνης

Ας μιλήσουμε για τους νόμους της Κόκκινης Σημαίας.

Αναμφίβολα γνωρίζετε ότι η έννοια των νόμων για την Κόκκινη Σημαία έχει καλυφθεί ευρέως στις ειδήσεις τον τελευταίο καιρό. Οι τίτλοι που καλύπτουν το θέμα είναι πολλοί. Τα πάθη και οι παθιασμένες συζητήσεις για τέτοια θέματα είναι στην κορυφή του μυαλού ως κοινωνική ανησυχία και συνεπάγονται τους σημερινούς και ταχέως αναδυόμενους νόμους περί πυροβόλων όπλων της Κόκκινης Σημαίας.

Ωστόσο, θα τολμούσα να πω ότι μπορεί να μην είστε εξοικειωμένοι με άλλους νόμους περί Κόκκινης Σημαίας που θεσπίστηκαν στα τέλη του 1800 σχετικά με τα μηχανοκίνητα οχήματα και τους προδρόμους των σημερινών καθημερινών σύγχρονων αυτοκινήτων. Ναι, αυτό είναι σωστό, οι νόμοι της Κόκκινης Σημαίας πηγαίνουν πίσω στην ιστορία, αν και καλύπτουν άλλα θέματα σε σύγκριση με τη σύγχρονη εστίαση του σήμερα. Αυτοί αναφέρονται συνήθως ως Κόκκινοι Νόμοι Κυκλοφορίας.

Αυτοί οι αιωνόβιοι πλέον και τελείως ανενεργοί νόμοι απαιτούσαν ότι κάθε μηχανοκίνητο βαγόνι ή κινητήρας που κινούνταν με ατμό έπρεπε εκείνη τη στιγμή να προηγείται ένας ενήλικας του οχήματος και να φέρει κόκκινη σημαία για προειδοποιητικούς λόγους. Η ιδέα ήταν ότι τα ζώα θα μπορούσαν να ανησυχήσουν από εκείνα τα θορυβώδη και επικίνδυνα τεχνάσματα που κυλιόντουσαν αργά και ανομοιόμορφα στους χωματόδρομους ή στους οριακά ασφαλτοστρωμένους δρόμους, με αποτέλεσμα κάποιος να περπατήσει μπροστά από το τέχνασμα ενώ κυματίζει ζωηρά μια κόκκινη σημαία θα μπορούσε να αποφευχθούν οι καταστροφές. Σε περίπτωση που αναρωτιέστε, οι σιδηρόδρομοι και τα τρένα θεωρήθηκαν ότι εξαιρούνταν από τους ίδιους νόμους, καθώς ήταν οχήματα ενσωματωμένα σε ράγες και είχαν άλλους νόμους που κάλυπταν τις ενέργειές τους.

Φανταστείτε να πρέπει να κυματίζετε κόκκινες σημαίες σήμερα ως απαίτηση για κάθε αυτοκίνητο στους δημόσιους δρόμους μας.

Για παράδειγμα, ένας συνηθισμένος οδηγός που κατεβαίνει στο δρόμο της γειτονιάς σας θα πρέπει να διασφαλίσει ότι ένας ενήλικας που κυματίζει μια κόκκινη σημαία ήταν παρών και παρέλασε μπροστά από το εν κινήσει αυτοκίνητο. Αυτό θα πρέπει να γίνει για κάθε όχημα που περνάει στον δρόμο σας. Ίσως οι άνθρωποι να γίνονταν εργάτες της κόκκινης σημαίας που προσέλαβαν διερχόμενους οδηγούς αυτοκινήτων που διαφορετικά δεν είχαν κάποιον φίλο ή συγγενή που θα μπορούσε να πάει μπροστά τους και να κάνει την προβλεπόμενη κίνηση κυματισμού.

Σήμερα τείνουμε να συνδέουμε το κυματισμό της κόκκινης σημαίας που σχετίζεται με αυτοκινητόδρομους με εργοτάξια κατασκευής δρόμων. Καθώς πλησιάζετε σε έναν σκαμμένο δρόμο, οι εργαζόμενοι θα κρατούν ψηλά μια κόκκινη σημαία για να τραβήξουν την προσοχή σας. Αυτό σας λέει να επιβραδύνετε και να είστε σε εγρήγορση. Μπορεί να υπάρχει μια μπουλντόζα που θα μπει στο δρόμο σας. Μια γιγάντια τρύπα μπορεί να βρίσκεται μπροστά και θα χρειαστεί να την διασχίσετε προσεκτικά.

Αλλά ας επιστρέψουμε στη χρήση των κόκκινων σημαιών του 1800.

Είτε το πιστεύετε είτε όχι, η κόκκινη σημαία υποτίθεται ότι ήταν τουλάχιστον ένα όγδοο του μιλίου πιο μπροστά από την επερχόμενη μηχανοκίνητη μηχανή. Φαίνεται πολύ μεγάλη απόσταση. Υποθέτει κανείς όμως ότι αυτό είχε άφθονο νόημα εκείνες τις μέρες. Οι συγκλονιστικοί θόρυβοι του κινητήρα και ίσως η απλή θέα του οχήματος μπορεί να είναι αρκετοί για να εκνευρίσουν τα ζώα. Μερικοί από τους νόμους της Κόκκινης Σημαίας εκείνης της εποχής απαιτούσαν επίσης ένα λαμπερό κόκκινο φως να κρατιέται ψηλά κατά τη διάρκεια της νύχτας, έτσι ώστε μια οπτικά εμφανής κόκκινη προειδοποίηση προφύλαξης να μπορεί να φανεί από μια σκοτεινή απόσταση.

Γενικά, πιστεύω ότι είναι δίκαιο να ισχυριστούμε ότι εμείς ως κοινωνία τείνουμε να συσχετίζουμε μια κόκκινη σημαία ως ένα είδος σήματος ή σήμανσης ότι κάτι δεν πάει καλά ή τουλάχιστον χρειάζεται τη λατρεμένη μας προσοχή.

Ετοιμαστείτε για μια μικρή ανατροπή σε αυτό το φαινόμενο της κόκκινης σημαίας.

Υπάρχει ένας επικαλούμενος ισχυρισμός ότι πρέπει να απαιτήσουμε διατάξεις σχετικά με την κόκκινη σημαία όταν πρόκειται για την Τεχνητή Νοημοσύνη (AI).

Αυτό είναι λίγο εκπληκτικό και μια εκπληκτική ιδέα που προκαλεί πολλά κεφάλια. Μπορεί να αναρωτιέστε για το πώς ή γιατί θα έπρεπε να υπάρχει το λεγόμενο Κόκκινη σημαία νόμοι AI. Λάβετε υπόψη ότι το χαρακτηρίζω ως νόμους περί τεχνητής νοημοσύνης με κόκκινη σημαία για να διαφοροποιήσω το θέμα από τους νόμους κυκλοφορίας με κόκκινες σημαίες (όπως εκείνους του τέλους του 1800) και επίσης για να τους ξεχωρίσω από τους σημερινούς άλλους πιο διαδεδομένους νόμους περί όπλων με κόκκινη σημαία.

Χρειαζόμαστε πράγματι νόμους περί τεχνητής νοημοσύνης Red Flag που να είναι σαφώς και αποκλειστικά προσανατολισμένοι σε θέματα τεχνητής νοημοσύνης;

Όσοι ευνοούν την προτεινόμενη προσέγγιση θα επιμείνουν ότι χρειαζόμαστε απολύτως νομικές διατάξεις που θα βοηθήσουν στην καταστολή της τεχνητής νοημοσύνης που περιέχει αδικαιολόγητες προκαταλήψεις και ενεργεί με τρόπους που εισάγουν διακρίσεις. Αυτή τη στιγμή, η οικοδόμηση και η ανάπτυξη της τεχνητής νοημοσύνης είναι παρόμοια με μια κατάσταση της Άγριας Δύσης. Οι προσπάθειες για τον περιορισμό της κακής τεχνητής νοημοσύνης εξαρτώνται επί του παρόντος από τη διατύπωση και την υιοθέτηση των κατευθυντήριων γραμμών για την ηθική της τεχνητής νοημοσύνης. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Οι νόμοι που περικλείουν την κακή τεχνητή νοημοσύνη επινοούνται και θεσπίζονται σιγά σιγά, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ. Ορισμένοι ανησυχούν ότι οι νομοθέτες δεν προχωρούν αρκετά γρήγορα. Φαίνεται ότι οι πύλες πλημμύρας που επιτρέπουν την προώθηση της προκατειλημμένης τεχνητής νοημοσύνης στον κόσμο είναι σε μεγάλο βαθμό ανοιχτές αυτή τη στιγμή. Το Hand-wringing λέει ότι μέχρι να μπουν νέοι νόμοι στα βιβλία, το κακό τζίνι θα έχει ήδη βγει από το μπουκάλι.

Όχι τόσο γρήγορα, τα αντεπιχειρήματα πάνε. Οι ανησυχίες είναι ότι εάν τεθούν σε εφαρμογή οι νόμοι πολύ γρήγορα, θα σκοτώσουμε τη χρυσή χήνα, σαν να λέγαμε, με αποτέλεσμα οι προσπάθειες τεχνητής νοημοσύνης να στερέψουν και να μην έχουμε τα κοινωνικά ενισχυτικά οφέλη των νέων συστημάτων τεχνητής νοημοσύνης. Οι προγραμματιστές και οι εταιρείες τεχνητής νοημοσύνης που επιθυμούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη μπορεί να τρομάξουν εάν μια βυζαντινή σειρά νέων νόμων που διέπουν την τεχνητή νοημοσύνη θεσπιστεί ξαφνικά σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο, για να μην αναφέρουμε τους διεθνείς νόμους που σχετίζονται με την τεχνητή νοημοσύνη που προχωρούν επίσης.

Σε αυτήν την ακατάστατη υπόθεση έρχεται η έκκληση για Red Flag AI Laws.

Προτού ασχοληθούμε με μερικά ακόμα κρέατα και πατάτες σχετικά με τις άγριες και μάλλινες σκέψεις που διέπουν τον προβλεπόμενο νόμο περί τεχνητής νοημοσύνης με την κόκκινη σημαία, ας δημιουργήσουμε μερικές πρόσθετες θεμελιώδεις αρχές σε βαθιά βασικά θέματα. Πρέπει να κάνουμε μια σύντομη βουτιά στην ηθική της τεχνητής νοημοσύνης και ειδικά στην έλευση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL).

Μπορεί να γνωρίζετε αόριστα ότι μια από τις πιο δυνατές φωνές αυτές τις μέρες στον τομέα της τεχνητής νοημοσύνης και ακόμη και εκτός του πεδίου της τεχνητής νοημοσύνης αποτελείται από φωνές για μια μεγαλύτερη ομοιότητα ηθικής τεχνητής νοημοσύνης. Ας ρίξουμε μια ματιά στο τι σημαίνει να αναφερόμαστε στο AI Ethics και στο Ethical AI. Επιπλέον, θα διερευνήσουμε τι εννοώ όταν μιλάω για Μηχανική Μάθηση και Βαθιά Μάθηση.

Ένα συγκεκριμένο τμήμα ή τμήμα της ηθικής τεχνητής νοημοσύνης που έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης αποτελείται από την τεχνητή νοημοσύνη που εμφανίζει αβλαβείς προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Σε λίγο, θα μοιραστώ μαζί σας ορισμένες βασικές αρχές που διέπουν την ηθική της τεχνητής νοημοσύνης. Υπάρχουν πολλές από αυτού του είδους τις λίστες που επιπλέουν εδώ και εκεί. Θα μπορούσατε να πείτε ότι δεν υπάρχει ακόμη μια μοναδική λίστα καθολικής απήχησης και σύμφωνης γνώμης. Αυτά είναι τα δυσάρεστα νέα. Τα καλά νέα είναι ότι τουλάχιστον υπάρχουν άμεσα διαθέσιμες λίστες AI Ethics και τείνουν να είναι αρκετά παρόμοιες. Συνολικά, αυτό υποδηλώνει ότι με μια μορφή αιτιολογημένης σύγκλισης βρίσκουμε τον δρόμο μας προς μια γενική κοινότητα του τι συνίσταται η Ηθική AI.

Αρχικά, ας καλύψουμε εν συντομία μερικές από τις συνολικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι θα έπρεπε να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας βεβαιωθούμε επίσης ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Ας επιστρέψουμε στην εστίασή μας στους νόμους της Red Flag AI.

Η βασική ιδέα είναι ότι οι άνθρωποι θα μπορούν να σηκώνουν μια κόκκινη σημαία κάθε φορά που πίστευαν ότι ένα σύστημα AI λειτουργούσε με αδικαιολόγητα προκατειλημμένο ή μεροληπτικό τρόπο. Δεν θα υψώνατε μια φυσική σημαία αυτή καθαυτή, αλλά θα χρησιμοποιούσατε απλώς κάποια ηλεκτρονικά μέσα για να γνωστοποιήσετε τις ανησυχίες σας. Το κόκκινο μέρος του σχήματος ή της προσέγγισης είναι περισσότερο μια μεταφορά παρά μια φυσική ενσωμάτωση.

Προσποιηθείτε ότι υποβάλλατε αίτηση για στεγαστικό δάνειο. Επιλέγετε να χρησιμοποιήσετε μια ηλεκτρονική τραπεζική υπηρεσία για να υποβάλετε αίτηση για δάνειο. Αφού εισαγάγετε ορισμένα προσωπικά δεδομένα, περιμένετε στιγμιαία το σύστημα τεχνητής νοημοσύνης που χρησιμοποιείται για να αποφασίσετε εάν είστε άξιοι δανείου ή όχι. Η τεχνητή νοημοσύνη σας λέει ότι σας έχουν απορρίψει για το δάνειο. Όταν ζητήθηκε μια εξήγηση για το λόγο που σας απέρριψαν, η αφήγηση του κειμένου φαίνεται να σας υποδηλώνει ότι η τεχνητή νοημοσύνη χρησιμοποιούσε αδικαιολόγητους προκατειλημμένους παράγοντες ως μέρος του αλγόριθμου λήψης αποφάσεων.

Ώρα να υψώσουμε μια κόκκινη σημαία για την τεχνητή νοημοσύνη.

Πού ακριβώς θα κυματίζει αυτή η κόκκινη σημαία;

Αυτή είναι μια ερώτηση εκατομμυρίων δολαρίων.

Μια άποψη είναι ότι πρέπει να δημιουργήσουμε μια εθνική βάση δεδομένων που θα επιτρέπει στους ανθρώπους να επισημαίνουν τις κόκκινες σημαίες τους που σχετίζονται με την τεχνητή νοημοσύνη. Κάποιοι λένε ότι αυτό πρέπει να ρυθμιστεί από την ομοσπονδιακή κυβέρνηση. Οι ομοσπονδιακές υπηρεσίες θα είναι υπεύθυνες για την εξέταση των κόκκινων σημαιών και για να βοηθήσουν το ευρύ κοινό ως προς την αληθοφάνεια και την αντιμετώπιση πιθανώς «κακής τεχνητής νοημοσύνης» που τροφοδότησε τους απολογισμούς αναφοράς για τις κόκκινες σημαίες.

Φαινομενικά θα θεσπιζόταν από το Κογκρέσο ένας εθνικός νόμος περί τεχνητής νοημοσύνης με κόκκινη σημαία. Ο νόμος θα καθόριζε τι είναι μια κόκκινη σημαία που σχετίζεται με την τεχνητή νοημοσύνη. Ο νόμος θα περιέγραφε πώς υψώνονται αυτές οι κόκκινες σημαίες της τεχνητής νοημοσύνης. Και ούτω καθεξής. Θα μπορούσε επίσης να συμβεί μεμονωμένα κράτη να επιλέξουν επίσης να δημιουργήσουν τους δικούς τους νόμους περί τεχνητής νοημοσύνης με κόκκινο σημαία. Ίσως το κάνουν αντί μιας εθνικής πρωτοβουλίας ή το κάνουν για να ενισχύσουν στοιχεία που είναι ιδιαίτερα ελκυστικά για τη συγκεκριμένη κατάστασή τους.

Οι επικριτές ενός ομοσπονδιακού ή οποιουδήποτε προγράμματος τεχνητής νοημοσύνης Red Flag που υποστηρίζεται από την κυβέρνηση θα υποστήριζαν ότι αυτό είναι κάτι που μπορεί να κάνει η ιδιωτική βιομηχανία και δεν χρειαζόμαστε το Big Brother να έρθει στο προσκήνιο. Η βιομηχανία θα μπορούσε να δημιουργήσει ένα διαδικτυακό αποθετήριο στο οποίο οι άνθρωποι θα μπορούν να καταχωρούν κόκκινες σημαίες σχετικά με συστήματα τεχνητής νοημοσύνης. Μια αυτο-αστυνόμευση από τον κλάδο θα αντιμετώπιζε επαρκώς αυτά τα ζητήματα.

Ένας προβληματισμός σχετικά με την υποτιθέμενη προσέγγιση του κλάδου είναι ότι φαίνεται να μυρίζει φιλικότητα. Θα ήταν οι εταιρείες πρόθυμες να συμμορφωθούν με κάποια ιδιωτική βάση δεδομένων AI Red Flag; Πολλές εταιρείες θα αγνοούσαν ενδεχομένως τις κόκκινες σημαίες σχετικά με την τεχνητή νοημοσύνη τους. Δεν θα υπήρχαν αιχμηρά δόντια για να πείσουμε τις εταιρείες να αντιμετωπίσουν τις εισαγόμενες κόκκινες σημαίες.

Γεια σας, οι υποστηρικτές της προσέγγισης του ιδιωτικού τομέα ακούγονται, αυτό θα ήταν παρόμοιο με την εθνική υπηρεσία που μοιάζει με Yelp. Οι καταναλωτές θα μπορούσαν να εξετάσουν τις κόκκινες σημαίες και να αποφασίσουν μόνοι τους εάν θέλουν να συνεργαστούν με εταιρείες που έχουν συγκεντρώσει μια σειρά από κόκκινες σημαίες προσανατολισμένες στην τεχνητή νοημοσύνη. Μια τράπεζα που λάμβανε τόνους κόκκινων σημαιών για την τεχνητή νοημοσύνη της θα έπρεπε να δώσει προσοχή και να ανανεώσει τα συστήματα τεχνητής νοημοσύνης της, έτσι η λογική πηγαίνει, διαφορετικά οι καταναλωτές θα απέφευγαν την εταιρεία όπως η πανούκλα.

Το αν όλη αυτή η προσέγγιση αναλαμβάνεται από την κυβέρνηση ή από τη βιομηχανία είναι μόνο η κορυφή του παγόβουνου στα ακανθώδη ερωτήματα που αντιμετωπίζει το προτεινόμενο αξίωμα της Κόκκινης Σημαίας για την τεχνητή νοημοσύνη.

Μπείτε στη θέση μιας εταιρείας που ανέπτυξε ή χρησιμοποιεί AI. Θα μπορούσε οι καταναλωτές να σηκώνουν κόκκινες σημαίες, παρόλο που δεν υπήρχε βιώσιμη βάση για να το κάνουν. Εάν οι άνθρωποι μπορούσαν ελεύθερα να δημοσιεύσουν μια κόκκινη σημαία για την τεχνητή νοημοσύνη, μπορεί να μπουν στον πειρασμό να το κάνουν από μια ιδιοτροπία ή ίσως για εκδίκηση εναντίον μιας εταιρείας που διαφορετικά δεν έκανε τίποτα κακό στον καταναλωτή.

Εν ολίγοις, θα μπορούσαν να υπάρχουν πολλές ψευδώς θετικές κόκκινες σημαίες σχετικά με την τεχνητή νοημοσύνη.

Μια άλλη σκέψη είναι το τεράστιο μέγεθος ή το μέγεθος των κόκκινων σημαιών που προκύπτουν. Θα μπορούσαν εύκολα να σηκωθούν εκατομμύρια επί εκατομμυρίων κόκκινων σημαιών. Ποιος θα δώσει συνέχεια σε όλες αυτές τις κόκκινες σημαίες; Ποιο θα ήταν το κόστος για να γίνει αυτό; Ποιος θα πληρώσει για τις προσπάθειες παρακολούθησης της κόκκινης σημαίας; Και τα λοιπά.

Αν λέγατε ότι οποιοσδήποτε καταχωρεί ή αναφέρει μια κόκκινη σημαία για την τεχνητή νοημοσύνη πρέπει να πληρώσει ένα τέλος, έχετε εισέλθει σε ένα θολό και ύπουλο βασίλειο. Η ανησυχία θα ήταν ότι μόνο οι πλούσιοι θα μπορούσαν να αντέξουν οικονομικά να υψώσουν κόκκινες σημαίες. Αυτό με τη σειρά του σημαίνει ότι οι φτωχοί δεν θα μπορούν να συμμετέχουν εξίσου στις δραστηριότητες της κόκκινης σημαίας και ουσιαστικά δεν θα έχουν χώρο προειδοποίησης για δυσμενή τεχνητή νοημοσύνη.

Μόνο μια επιπλέον ανατροπή προς το παρόν, δηλαδή ότι αυτού του είδους οι νόμοι ή οι οδηγίες σχετικά με την τεχνητή νοημοσύνη φαίνεται να είναι εκ των υστέρων αντί να χρησιμεύουν ως προειδοποίηση εκ των προτέρων.

Επιστρέφοντας στους Νόμους Οδικής Κυκλοφορίας με την Κόκκινη Σημαία, η έμφαση στη χρήση μιας κόκκινης σημαίας ήταν για να αποφευχθεί μια καταστροφή στην αρχή. Η κόκκινη σημαία υποτίθεται ότι ήταν πολύ μπροστά από το επερχόμενο αυτοκίνητο. Με το να είναι μπροστά από το όχημα, τα ζώα θα ειδοποιούνταν και όσοι φύλαγαν τα ζώα θα ήξεραν ότι πρέπει να λάβουν προφυλάξεις λόγω της ανησυχητικής πηγής που θα φτάσει σύντομα.

Εάν οι άνθρωποι μπορούν μόνο να σηκώσουν μια κόκκινη σημαία σχετικά με την τεχνητή νοημοσύνη που φαινομενικά έχει ήδη βλάψει ή υπονομεύσει τα δικαιώματά τους, το παροιμιώδες άλογο είναι ήδη έξω από τον αχυρώνα. Το μόνο που φαίνεται να επιτυγχάνει αυτό είναι ότι ελπίζουμε ότι άλλοι άνθρωποι που έρχονται μαζί θα γνωρίζουν τώρα ότι είναι επιφυλακτικοί με αυτό το σύστημα AI. Εν τω μεταξύ, το άτομο που φέρεται ότι αδικήθηκε έχει ήδη υποφέρει.

Κάποιοι προτείνουν ότι ίσως θα μπορούσαμε να επιτρέψουμε στους ανθρώπους να σηκώσουν κόκκινες σημαίες για την τεχνητή νοημοσύνη ότι αυτοί ύποπτος μπορεί να είναι προκατειλημμένοι, ακόμα κι αν δεν έχουν χρησιμοποιήσει την τεχνητή νοημοσύνη και δεν επηρεάζονται άμεσα από την τεχνητή νοημοσύνη. Έτσι, η κόκκινη σημαία κυματίζει πριν γίνει η ζημιά.

Ναι, απαντά, θα μετατρέψετε πραγματικά τις κόκκινες σημαίες που αντιμετωπίζουν την τεχνητή νοημοσύνη σε μια εντελώς ανεξέλεγκτη και χαοτική υπόθεση. Εάν κάποιος για οποιονδήποτε λόγο μπορεί να σηκώσει μια κόκκινη σημαία για ένα σύστημα τεχνητής νοημοσύνης, παρόλο που δεν έχει κάνει απολύτως τίποτα με αυτό το AI, θα πλημμυρίσετε από κόκκινες σημαίες. Ακόμη χειρότερα, δεν θα μπορείτε να διακρίνετε το σιτάρι από την ήρα. Ολόκληρη η προσέγγιση της κόκκινης σημαίας θα καταρρεύσει υπό το βάρος της, καταρρίπτοντας την καλοσύνη της ιδέας επιτρέποντας στο flotsam και το riffraff να βυθίσουν ολόκληρο το πλοίο.

Ζαλίζει και προκαλεί σύγχυση.

Σε αυτή τη συγκυρία αυτής της βαριάς συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά ενδεικτικά παραδείγματα που θα μπορούσαν να παρουσιάσουν αυτό το θέμα. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να εντοπίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, έτσι ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με τους νόμους περί τεχνητής νοημοσύνης με την κόκκινη σημαία, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτοοδηγούμενα αυτοκίνητα και νόμοι τεχνητής νοημοσύνης με κόκκινη σημαία

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Ελπίζω ότι αυτό παρέχει μια αρκετή λιτανεία προειδοποιήσεων για να υποστηρίξω αυτό που πρόκειται να αναφέρω.

Ας σκιαγραφήσουμε ένα σενάριο που θα μπορούσε να αξιοποιήσει έναν νόμο περί τεχνητής νοημοσύνης Red Flag.

Μπαίνετε σε ένα αυτοοδηγούμενο αυτοκίνητο βασισμένο σε τεχνητή νοημοσύνη και θέλετε να έχετε το αυτόνομο όχημα να σας οδηγήσει στο τοπικό παντοπωλείο σας. Κατά τη διάρκεια του σχετικά σύντομου ταξιδιού, το AI ακολουθεί μια διαδρομή που σας φαίνεται κάπως λάθος. Αντί να ακολουθεί τον πιο άμεσο τρόπο, η τεχνητή νοημοσύνη πλοηγείται σε δρόμους που δεν βρίσκονται στο δρόμο, γεγονός που κάνει τον χρόνο οδήγησης να είναι υψηλότερος από ό,τι συνήθως.

Τι συμβαίνει;

Υποθέτοντας ότι πληρώνετε για τη χρήση του αυτοοδηγούμενου αυτοκινήτου, μπορεί να υποψιάζεστε ότι η τεχνητή νοημοσύνη είχε προγραμματιστεί να οδηγεί μια μεγαλύτερη διαδρομή για να προσπαθήσει να αυξήσει τον ναύλο ή το κόστος του ταξιδιού. Οποιοσδήποτε έχει πάρει ποτέ μια συμβατική καμπίνα που οδηγείται από τον άνθρωπο γνωρίζει το κόλπο που μπορεί να γίνει για να πάρει περισσότερη ζύμη στο μετρητή. Φυσικά, με τους ανθρώπους που έχουν GPS στα smartphone τους ενώ οδηγούν σε ταξί ή αντίστοιχο, μπορείτε εύκολα να πιάσετε έναν άνθρωπο οδηγό που φαίνεται να κάνει κρυφά άσκοπα μεγάλες διαδρομές.

Αποδεικνύεται ότι έχετε άλλη μια ανησυχία σχετικά με την επιλογή διαδρομής, κάτι που πραγματικά σας ροκανίζει.

Ας υποθέσουμε ότι η δρομολόγηση έγινε για να αποφευχθούν ορισμένα μέρη της πόλης λόγω φυλετικών πτυχών. Υπάρχουν τεκμηριωμένες περιπτώσεις ανθρώπων οδηγών που έχουν πιαστεί να κάνουν αυτού του είδους τις επιλογές, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Ίσως το AI να έχει προγραμματιστεί αρνητικά από αυτό.

Αποφασίζεις να υψώσεις μια κόκκινη σημαία.

Ας υποθέσουμε για λόγους συζήτησης ότι έχει θεσπιστεί νόμος περί τεχνητής νοημοσύνης Red Flag που καλύπτει τη δικαιοδοσία σας. Μπορεί να είναι τοπικό δίκαιο, πολιτειακό δίκαιο, ομοσπονδιακό ή διεθνές δίκαιο. Για μια ανάλυση που συνέταξα με την Πρωτοβουλία Πολιτικής Αυτόνομης Οχημάτων (AVPI) του Χάρβαρντ σχετικά με την αυξανόμενη σημασία της τοπικής ηγεσίας όταν οι κοινότητες υιοθετούν τη χρήση αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Έτσι, πηγαίνετε στο Διαδίκτυο σε μια βάση δεδομένων AI Red Flag. Στη βάση δεδομένων συμβάντων, εισαγάγετε τις πληροφορίες σχετικά με το ταξίδι με αυτόνομο αυτοκίνητο. Αυτό περιλαμβάνει την ημερομηνία και την ώρα της διαδρομής οδήγησης, μαζί με τη μάρκα και το μοντέλο του αυτοοδηγούμενου αυτοκινήτου. Στη συνέχεια, εισάγετε τη διαδρομή πλοήγησης που φαινόταν ύποπτη και υποδηλώνετε ή ίσως ισχυρίζεστε ευθέως ότι η τεχνητή νοημοσύνη επινοήθηκε με προκατειλημμένες ή μεροληπτικές προθέσεις και ικανότητες.

Θα έπρεπε να κάνουμε εικασίες σχετικά με τις άλλες λεπτομέρειες του νόμου περί τεχνητής νοημοσύνης Red Flag σχετικά με το τι θα συμβεί στη συνέχεια σε αυτό το συγκεκριμένο σενάριο. Θεωρητικά, θα υπήρχε πρόβλεψη να αναθεωρήσει κάποιος την κόκκινη σημαία. Προφανώς θα προσπαθούσαν να ζητήσουν από την αυτοκινητοβιομηχανία ή την εταιρεία τεχνολογίας αυτόνομης οδήγησης να εξηγήσει την άποψή τους σχετικά με την καταγεγραμμένη κόκκινη σημαία. Πόσες άλλες τέτοιες κόκκινες σημαίες έχουν καταχωρηθεί; Τι αποτελέσματα είχαν αυτές οι κόκκινες σημαίες;

Και ούτω καθεξής θα πήγαινε.

Συμπέρασμα

Παράλογο, προτρέπουν κάποιοι σκεπτικιστές.

Δεν χρειαζόμαστε νόμους περί τεχνητής νοημοσύνης Red Flag, αυτοί ασκούν αυστηρά. Κάνοντας οτιδήποτε αυτού του είδους θα καταστραφούν οι εργασίες όσον αφορά τον ρυθμό και την πρόοδο της τεχνητής νοημοσύνης. Οποιοσδήποτε τέτοιος νόμος θα ήταν δύσχρηστος. Θα δημιουργούσατε ένα πρόβλημα που δεν λύνει ένα πρόβλημα. Υπάρχουν άλλοι τρόποι αντιμετώπισης της τεχνητής νοημοσύνης που είναι κακοί. Μην πιάνετε τυφλά τα καλαμάκια για να αντιμετωπίσετε την προκατειλημμένη τεχνητή νοημοσύνη.

Αλλάζοντας ταχύτητες, όλοι γνωρίζουμε ότι οι ταυρομάχοι χρησιμοποιούν κόκκινες κάπες για να προσελκύσουν προφανώς την προσοχή του θυμωμένου ταύρου. Αν και το κόκκινο είναι το χρώμα που συνδέουμε περισσότερο με αυτή την πρακτική, ίσως εκπλαγείτε αν μάθετε ότι οι επιστήμονες λένε ότι οι ταύροι δεν αντιλαμβάνονται το κόκκινο χρώμα του μουλέτα (είναι αχρωματοψία έως κόκκινο). Η δημοφιλής παράσταση MythBusters έκανε μια αρκετά διασκεδαστική εξέταση αυτού του θέματος. Η κίνηση της κάπας είναι το βασικό στοιχείο παρά το επιλεγμένο χρώμα.

Για εκείνους που παραμερίζουν την ανάγκη για Red Flag AI Νόμους, μια ανταγωγή είναι ότι χρειαζόμαστε κάτι δραματικού και αναμφισβήτητου κυματιστικού χαρακτήρα για να βεβαιωθούμε ότι οι προγραμματιστές τεχνητής νοημοσύνης και οι εταιρείες που αναπτύσσουν AI θα αποφύγουν την προκατειλημμένη ή κακή τεχνητή νοημοσύνη. Αν όχι για μια κόκκινη σημαία, ίσως μια κυματιστή κάπα ή βασικά οποιοδήποτε είδος προειδοποιητικής προσέγγισης μπορεί να είναι στη σφαίρα της δέουσας προσοχής.

Γνωρίζουμε με βεβαιότητα ότι υπάρχει κακή τεχνητή νοημοσύνη και ότι πολύ περισσότερη κακή τεχνητή νοημοσύνη θα κατευθύνεται προς την κατεύθυνση μας. Η εύρεση τρόπων προστασίας από την δυσμενή τεχνητή νοημοσύνη είναι ζωτικής σημασίας. Ομοίως, το να θέσουμε προστατευτικά κιγκλιδώματα για να προσπαθήσουμε να εμποδίσουμε την κακή τεχνητή νοημοσύνη να εισέλθει στον κόσμο είναι εξίσου σημαντική.

Ο Έρνεστ Χέμινγουεϊ δήλωσε περίφημα ότι κανείς δεν ζει ποτέ τη ζωή του μέχρι το τέλος, εκτός από τους ταυρομάχους. Πρέπει να βεβαιωθούμε ότι οι άνθρωποι μπορούν να ζήσουν τη ζωή τους σε όλη τους τη διαδρομή, παρά την όποια κακία ή τρέλα της τεχνητής νοημοσύνης μας διαδώσει.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- biased-algorithms-in-autonomous-ai-systems/