Η ηθική της τεχνητής νοημοσύνης αγανακτεί για το σύνδρομο αυξανόμενης καυτής πατάτας που χρησιμοποιείται από κατασκευαστές τεχνητής νοημοσύνης που φαινομενικά προσπαθούν να αποφύγουν την ευθύνη για τα αυτόνομα συστήματά τους που αποφασίζουν για τη ζωή

Όλοι γνωρίζουμε ότι υποτίθεται ότι πρέπει να φροντίσετε να μην καταλήξετε με την παροιμιώδη καυτή πατάτα.

Το καυτό παιχνίδι της πατάτας φαίνεται να έχει τις ρίζες του τουλάχιστον στα τέλη του 1800, όταν ένα παιχνίδι σαλονιού με αναμμένα κεριά έκανε την μπάλα να κυλήσει. Οι άνθρωποι συνήθως κάθονταν σε μια σειρά από ξύλινες καρέκλες που ήταν σχετικά γειτονικές μεταξύ τους και έπαιζαν ένα εντελώς συναρπαστικό παιχνίδι εκείνη την εποχή. Ένα αναμμένο κερί θα παραδινόταν από άτομο σε άτομο από τους παίκτες και αντιπροσώπευε αυτό που, αργότερα, επιλέξαμε να εκφράσουμε ως παράδοση ενός καυτή πατάτα.

Ήταν σύνηθες ότι κάθε άτομο θα έπρεπε να μιλήσει δυνατά μια δημοφιλή ομοιοκαταληξία πριν μπορέσει να περάσει κατά μήκος του σταδιακά αναμμένου κεριού. Η ομοιοκαταληξία προφανώς πήγε ως εξής:

«Ο Τζακ είναι ζωντανός και είναι πιθανό να ζήσει.

Αν πεθάνει στο χέρι σου, έχεις μια απώλεια να δώσεις».

Αυτό το ρεσιτάλ με ομοιοκαταληξία προφανώς θα επέτρεπε στο κερί λίγο χρόνο να συνεχίσει να καίει προς το τελικό του τέλος. Όποιος κόλλησε με το κερί στην κατοχή του στο φυσικό σβήσιμο στο τέλος ήταν εκείνος που έχασε τον αγώνα (λογοπαίγνιο!).

Σύμφωνα με τις λέξεις που υποδεικνύονταν στην ομοιοκαταληξία, ο ηττημένος έπρεπε να πληρώσει το "forfeit" και έτσι συνήθως έπρεπε να βγει από οποιονδήποτε άλλο γύρο του παιχνιδιού. Αυτό θα μπορούσε στη συνέχεια να συνδυαστεί με αυτό που σήμερα θεωρούμε ως καθημερινές μουσικές καρέκλες, έτσι ώστε το άτομο που έχασε τον γύρο να μην συμμετέχει πλέον στους επόμενους γύρους (σαν να σταμάτησε η μουσική και να μην μπορούσε να συγκεντρώσει μια διαθέσιμη θέση). Τελικά, θα έμειναν μόνο δύο άτομα που περνούσαν το αναμμένο κερί και έλεγαν την ομοιοκαταληξία, μέχρι να καθοριστεί ο τελικός νικητής στην τελική κατάσβεση.

Ίσως αναρωτιέστε γιατί δεν παίζουμε πλέον αυτό το παιχνίδι με ένα αναμμένο κερί και γιατί αντ 'αυτού το αναφέρουμε συνήθως ως καυτή πατάτα αντί να το απεικονίζουμε ως σχέδιο «αναμμένο κερί». Οι ερευνητές έχουν καταλήξει σε πολλές θεωρίες για το πώς αυτό σταδιακά συνέβη. Η ιστορία φαίνεται θολή και αναποφάσιστη για το πώς εξελίχθηκαν τα πράγματα σε αυτό το θέμα. Υποθέτω ότι μπορούμε να ανακουφιστούμε που τα αναμμένα κεριά δεν χρησιμοποιούνται συνήθως έτσι, καθώς οι πιθανότητες κάτι να πάει στραβά θα φαινόταν πολύ ανησυχητικό (κάποιος πέφτει το κερί και ανάβει φωτιά ή κάποιος καίγεται από το κερί όταν του το δίνουν από άλλο παίκτη κ.λπ.).

Όσον αφορά τη ζεστή πατάτα ως πιθανό υποκατάστατο για το αναμμένο κερί, θα μπορούσατε γενικά να υποστηρίξετε ότι η πατάτα θα είναι κάπως πιο ασφαλής συνολικά. Χωρίς ανοιχτή φλόγα. Χωρίς κερί που λιώνει. Η πιθανή βάση για τη χρήση των πατατών σε αυτό το πλαίσιο είναι ότι είναι γνωστό ότι διατηρούν εύκολα τη θερμότητα μόλις ζεσταθούν. Μπορείτε να περάσετε την πατάτα και θα παραμείνει ζεστή για λίγο. Υποθέτει κανείς ότι το να αποφασίσουμε πότε η καυτή πατάτα δεν είναι πλέον καυτή και αντ' αυτού αξιολογείται ως κρύα θα ήταν μια έντονα συζητήσιμη πρόταση.

Φυσικά, η έννοια της παροιμιώδους καυτής πατάτας είναι περισσότερο μια ανεξάρτητη σκέψη αυτές τις μέρες. Οτιδήποτε αξιολογείται ή κατατάσσεται ως καυτή πατάτα είναι συνήθως καλής ποιότητας. Δεν θέλετε να κρατάτε μια καυτή πατάτα. Θέλετε να βεβαιωθείτε ότι θα πάει κάπου αλλού. Σε κάποιο βαθμό, μπορεί να μην ενοχλείστε υπερβολικά για το πού πηγαίνει, απλώς ότι δεν είναι πλέον στην κατοχή σας.

Θα φαίνεστε πολύ σκληρός να δώσετε μια καυτή πατάτα σε έναν αγαπημένο φίλο ή παρόμοιο γνωστό. Αυτό θα φαινόταν εντελώς ακατάλληλο. Ίσως βρείτε κάποιον άλλο ή κάπου αλλού για να βάλετε αυτήν την καυτή πατάτα, αν μπορείτε να το κάνετε. Μια απελπισμένη κίνηση μπορεί να είναι να αναγκάσουμε την καυτή πατάτα σε έναν ευγενικό συνάδελφο, αλλά αυτό ελπίζουμε να γίνει μόνο ως έσχατη λύση.

Η άλλη όψη αυτού του νομίσματος είναι ότι μπορεί να χαρείτε να δώσετε μια καυτή πατάτα σε κάποιον που δεν σας αρέσει ή που αναζητάτε εκδίκηση. Σίγουρα, μια καυτή πατάτα μπορεί να είναι σχεδόν εξαιρετικά χρήσιμη αν σκοπεύετε να υποτιμήσετε ένα άτομο που σας έχει φερθεί άσχημα. Αφήστε τους να καταλάβουν τι να κάνουν με την καυτή πατάτα. Καλή απαλλαγή στην πατάτα και χειρότερη τύχη στο άτομο με το οποίο της έχετε επισημάνει.

Σε ένα σενάριο καυτής πατάτας που περιλαμβάνει μόνο δύο άτομα, υπάρχει η πιθανότητα μιας γρήγορης διαμάχης μεταξύ τους σχετικά με το ποιο άτομο κρατά το δυσάρεστο και ανεπιθύμητο αντικείμενο. Για παράδειγμα, σου παραδίδω την καυτή πατάτα και εσύ μου την επιστρέφεις βιαστικά. Υποθέτοντας ότι δεν χρειάζεται να ανακοινώσουμε μια παιδική ομοιοκαταληξία μεταξύ κάθε παράδοσης, μπορούμε λίγο πολύ να περάσουμε κατά μήκος της πατάτας όσο γρήγορα μας το επιτρέπουν τα χέρια μας.

Ίσως να είστε περίεργοι γιατί επέλεξα να κάνω μια βαθιά βουτιά στη σεβαστή και συχνά αναφερόμενη καυτή πατάτα.

Εδώ γιατί.

Αποδεικνύεται ότι το πρόσχημα της καυτής πατάτας χρησιμοποιείται όλο και περισσότερο στον τομέα της Τεχνητής Νοημοσύνης (AI).

Οι περισσότεροι άνθρωποι δεν γνωρίζουν τίποτα γι 'αυτό. Δεν το έχουν ακούσει ποτέ. Δεν γνωρίζουν τελείως τι είναι. Ακόμη και πολλοί προγραμματιστές AI δεν γνωρίζουν το θέμα. Ωστόσο, υπάρχει και φαίνεται να χρησιμοποιείται σε πραγματικά αμφισβητούμενα περιβάλλοντα, ειδικά σε περιπτώσεις που αφορούν περιστάσεις ζωής ή θανάτου.

Αναφέρομαι σε αυτό ως AI Σύνδρομο καυτής πατάτας.

Υπάρχουν πολλές σοβαρές επιπτώσεις που κρύβονται πίσω από αυτό το σύνδρομο και πρέπει να βεβαιωθούμε ότι θα βάλουμε τα όρια σκέψης για την ηθική της τεχνητής νοημοσύνης και να σκεφτούμε τι πρέπει να κάνουμε. Υπάρχουν σοβαρές ηθικές σκέψεις. Είναι βέβαιο ότι θα υπάρξουν επίσης αξιοσημείωτες νομικές επιπτώσεις (οι οποίες δεν έχουν φτάσει ακόμη στην κοινωνική ορατότητα, αν και προβλέπω ότι θα γίνουν σύντομα). Για τη συνεχή και εκτενή κάλυψη των θεμάτων AI Ethics, Ethical AI και Legal AI, βλ. ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Ας αποσυσκευάσουμε το Σύνδρομο AI Hot Potato.

Φανταστείτε ένα σύστημα AI που λειτουργεί από κοινού με έναν άνθρωπο. Η τεχνητή νοημοσύνη και ο άνθρωπος περνούν τον έλεγχο κάποιας εν εξελίξει δραστηριότητας, έτσι ώστε μερικές φορές ο άνθρωπος έχει τον έλεγχο ενώ άλλες φορές η τεχνητή νοημοσύνη έχει τον έλεγχο. Αυτό θα μπορούσε αρχικά να γίνει με καλό τρόπο ή λογικό τρόπο. Για διάφορους λόγους, στους οποίους θα αναφερθούμε στιγμιαία, η τεχνητή νοημοσύνη μπορεί να εξακριβώσει υπολογιστικά ότι ο έλεγχος πρέπει να μεταβιβαστεί γρήγορα στον άνθρωπο.

Αυτή είναι η καυτή πατάτα που έρχεται να θέσει σε κίνδυνο τη ζωή στον πραγματικό κόσμο αντί να χρησιμεύσει απλώς ως ένα διδακτικό παιδικό παιχνίδι.

Το πρόβλημα με μια εσπευσμένη μετάβαση του ελέγχου από την τεχνητή νοημοσύνη στον άνθρωπο είναι ότι αυτό μπορεί να γίνει με λογικό τρόπο ή μπορεί να επιτευχθεί με έναν μάλλον παράλογο τρόπο. Εάν ο άνθρωπος δεν περιμένει ιδιαίτερα την παράδοση, αυτό είναι πιθανότατα πρόβλημα. Εάν ο άνθρωπος είναι γενικά εντάξει με τη μεταβίβαση του ελέγχου, οι συνθήκες που διέπουν την παράδοση μπορεί να είναι τρομακτικές όταν ο άνθρωπος έχει ανεπαρκή χρόνο ή ανεπαρκή επίγνωση του γιατί ο έλεγχος τροφοδοτείται με τη βία στα ανθρώπινα χέρια του.

Θα διερευνήσουμε παραδείγματα για το πώς αυτό μπορεί να δημιουργήσει κίνδυνο ζωής ή θανάτου για τον άνθρωπο και πιθανώς άλλους κοντινούς ανθρώπους. Είναι σοβαρά πράγματα. Περίοδος, τελεία.

Πριν ασχοληθώ με μερικές ακόμη από τις σαρκώδεις πτυχές των άγριων και μάλλινων θεωρήσεων που κρύβονται πίσω από το Σύνδρομο AI Hot Potato, ας παρουσιάσουμε μερικές πρόσθετες βασικές αρχές σε βαθιά ουσιαστικά θέματα. Πρέπει να κάνουμε μια σύντομη βουτιά στην ηθική της τεχνητής νοημοσύνης και ιδιαίτερα στην εμφάνιση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL).

Μπορεί να γνωρίζετε αόριστα ότι μια από τις πιο δυνατές φωνές αυτές τις μέρες στον τομέα της τεχνητής νοημοσύνης και ακόμη και εκτός του πεδίου της τεχνητής νοημοσύνης αποτελείται από φωνές για μια μεγαλύτερη ομοιότητα ηθικής τεχνητής νοημοσύνης. Ας ρίξουμε μια ματιά στο τι σημαίνει να αναφερόμαστε στο AI Ethics και στο Ethical AI. Επιπλέον, θα διερευνήσουμε τι εννοώ όταν μιλάω για Μηχανική Μάθηση και Βαθιά Μάθηση.

Ένα συγκεκριμένο τμήμα ή τμήμα της ηθικής τεχνητής νοημοσύνης που έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης αποτελείται από την τεχνητή νοημοσύνη που εμφανίζει αβλαβείς προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Σε λίγο, θα μοιραστώ μαζί σας ορισμένες βασικές αρχές που διέπουν την ηθική της τεχνητής νοημοσύνης. Υπάρχουν πολλές από αυτού του είδους τις λίστες που επιπλέουν εδώ και εκεί. Θα μπορούσατε να πείτε ότι δεν υπάρχει ακόμη μια μοναδική λίστα καθολικής απήχησης και σύμφωνης γνώμης. Αυτά είναι τα δυσάρεστα νέα. Τα καλά νέα είναι ότι τουλάχιστον υπάρχουν άμεσα διαθέσιμες λίστες AI Ethics και τείνουν να είναι αρκετά παρόμοιες. Συνολικά, αυτό υποδηλώνει ότι με μια μορφή αιτιολογημένης σύγκλισης βρίσκουμε τον δρόμο μας προς μια γενική κοινότητα του τι συνίσταται η Ηθική AI.

Αρχικά, ας καλύψουμε εν συντομία μερικές από τις συνολικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι θα έπρεπε να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται στην τήρηση των αντιλήψεων της ηθικής της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας βεβαιωθούμε επίσης ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Ας επιστρέψουμε στην εστίασή μας στην καυτή πατάτα και την δυνητικά καταστροφική χρήση της στην τεχνητή νοημοσύνη. Υπάρχει επίσης μια διαβολικότητα που μπορεί να κρύβεται μέσα στο ζεστό κόλπο της πατάτας.

Ως μια γρήγορη ανακεφαλαίωση σχετικά με την εκδήλωση της τεχνητής νοημοσύνης του hot potato gambit:

  • Η τεχνητή νοημοσύνη και ένας άνθρωπος-in-the-loop εργάζονται από κοινού σε μια δεδομένη εργασία
  • Το AI έχει τον έλεγχο κάποιες φορές
  • Το human-in-the-loop έχει τον έλεγχο κάποιες φορές
  • Υπάρχει κάποια μορφή πρωτοκόλλου μεταβίβασης μεταξύ του AI και του ανθρώπου
  • Η μεταβίβαση μπορεί να είναι πολύ ορατή ή μπορεί να είναι διακριτική και σχεδόν κρυφή
  • Όλα αυτά είναι συνήθως σε ένα πλαίσιο σε πραγματικό χρόνο (κάτι είναι ενεργά σε εξέλιξη)

Η κύρια εστίαση εδώ είναι όταν η παράδοση είναι ουσιαστικά μια καυτή πατάτα και η τεχνητή νοημοσύνη επιλέγει να παραδώσει ξαφνικά τον έλεγχο στον άνθρωπο. Λάβετε υπόψη ότι αργότερα θα καλύψω και την άλλη πτυχή, δηλαδή την παράδοση του ελέγχου από τον άνθρωπο στην τεχνητή νοημοσύνη ως καυτή πατάτα.

Αρχικά, σκεφτείτε τι μπορεί να συμβεί όταν η τεχνητή νοημοσύνη κάνει μια ζεστή παράδοση πατάτας σε έναν άνθρωπο-in-the-loop.

Θα αναφέρω τον άνθρωπο ως τον άνθρωπο-στο-βρόχο γιατί λέω ότι ο άνθρωπος είναι ήδη αναπόσπαστο μέρος της τρέχουσας δραστηριότητας. Θα μπορούσαμε να έχουμε άλλα σενάρια σύμφωνα με τα οποία ένας άνθρωπος που δεν εμπλέκεται ιδιαίτερα στη δραστηριότητα, ίσως ένας άγνωστος στο όλο θέμα, παίρνει την καυτή πατάτα από την τεχνητή νοημοσύνη, οπότε να έχετε κατά νου ότι υπάρχουν και άλλες γεύσεις αυτού του περιβάλλοντος.

Αν σας έδινα μια ζεστή πατάτα και ήθελα να το κάνω με λογικό τρόπο, ίσως θα σας ειδοποιούσα ότι θα σας παραδώσω πράγματα. Επιπλέον, θα προσπαθούσα να το κάνω αυτό αν πίστευα ειλικρινά ότι το να διαθέτετε την καυτή πατάτα ήταν καλύτερα συνολικά από το να την είχα. Θα υπολόγιζα νοερά αν πρέπει να το έχεις ή αν πρέπει να συνεχίσω με αυτό.

Οραματιστείτε έναν αγώνα μπάσκετ. Εσύ και εγώ είμαστε στην ίδια ομάδα. Ελπίζουμε ότι συνεργαζόμαστε για να προσπαθήσουμε να κερδίσουμε το παιχνίδι. Απομένουν μόλις λίγα δευτερόλεπτα στο ρολόι και χρειαζόμαστε απεγνωσμένα να σκοράρουμε διαφορετικά θα χάσουμε το παιχνίδι. Μπαίνω στη θέση να κάνω την τελευταία βολή. Να το κάνω, ή να σου δώσω την μπάλα και να κάνεις το τελευταίο σουτ;

Αν είμαι καλύτερος μπασκετμπολίστας και έχω περισσότερες πιθανότητες να βυθίσω το σουτ, μάλλον θα πρέπει να κρατήσω το μπάσκετ και να προσπαθήσω να κάνω το σουτ. Αν είσαι καλύτερος μπασκετμπολίστας από εμένα, μάλλον θα έπρεπε να σου δώσω την μπάλα και να σε αφήσω να κάνεις το σουτ. Άλλες σκέψεις έρχονται στο προσκήνιο, όπως ποιος από εμάς είναι σε καλύτερη θέση στο γήπεδο για να κάνει το σουτ, καθώς και αν κάποιος από εμάς έχει εξαντληθεί καθώς το παιχνίδι έχει σχεδόν τελειώσει και μπορεί να είναι φθαρμένο και να μην είναι σε θέση πυροβολισμό τους. Και τα λοιπά.

Με όλους αυτούς τους παράγοντες στη μέση της δύσκολης στιγμής, πρέπει να αποφασίσω αν θα κρατήσω την μπάλα ή θα τη δώσω μαζί σου.

Συνειδητοποιήστε καλά ότι σε αυτό το σενάριο το ρολόι είναι κρίσιμο. Εσείς και εγώ βρισκόμαστε αντιμέτωποι με μια εξαιρετικά έγκαιρη απάντηση. Όλο το παιχνίδι είναι πλέον στη γραμμή. Μόλις τελειώσει το ρολόι, είτε έχουμε κερδίσει επειδή ένας από εμάς έκανε το σουτ, είτε χάσαμε αφού δεν το βυθίσαμε. Θα μπορούσα ίσως να γίνω ο ήρωας αν βουλιάξω το καλάθι. Ή μπορείς να είσαι ο ήρωας αν σου δώσω την μπάλα και τη βυθίσεις.

Υπάρχει και η πλευρά της κατσίκας ή τα μειονεκτήματα αυτού. Αν κρατήσω την μπάλα και χάσω το σουτ, όλοι μπορεί να με κατηγορήσουν ότι είμαι ο τράγος ή ότι απογοήτευσα όλη την ομάδα. Από την άλλη, αν σου περάσω την μπάλα και χάσεις το σουτ, ε, γίνεσαι ο τράγος. Αυτό μπορεί να είναι εντελώς άδικο μαζί σου, καθώς σε ανάγκασα να είσαι ο τελευταίος σουτέρ και να κάνεις την τελευταία βολή.

Σίγουρα θα ήξερες ότι σε έβαλα σε αυτή την απίστευτη θέση. Και παρόλο που όλοι μπορούσαν να με δουν να το κάνω αυτό, είναι βέβαιο ότι θα συγκεντρωθούν μόνο στο τελευταίο άτομο που είχε την μπάλα. Πιθανώς θα έκανα δωρεάν πατινάζ. Κανείς δεν θα θυμόταν ότι σου πέρασα την μπάλα την τελευταία στιγμή. Θα θυμόντουσαν μόνο ότι είχες την μπάλα και έχασες το παιχνίδι επειδή δεν έκανες το σουτ.

Εντάξει, λοιπόν, σου δίνω την μπάλα.

Γιατί το έκανα;

Δεν υπάρχει εύκολος τρόπος να προσδιοριστεί αυτό.

Οι αληθινές μου προθέσεις μπορεί να είναι ότι δεν ήθελα να κολλήσω ως η κατσίκα, και έτσι επέλεξα να ασκήσω όλη την πίεση πάνω σου. Όταν με ρώτησαν γιατί πέρασα τη μπάλα, θα μπορούσα να ισχυριστώ ότι το έκανα γιατί πίστευα ότι είσαι καλύτερος σουτέρ από εμένα (αλλά, ας προσποιηθούμε ότι δεν το πιστεύω καθόλου). Ή νόμιζα ότι ήσουν σε καλύτερη θέση από εμένα (ας προσποιηθώ ότι δεν το σκέφτηκα ούτε αυτό). Κανείς δεν θα ήξερε ποτέ ότι στην πραγματικότητα απλώς προσπαθούσα να αποφύγω να κολλήσω με την καυτή πατάτα.

Από την εξωτερική άποψη των πραγμάτων, κανείς δεν μπορούσε να διακρίνει εύκολα το πραγματικό μου σκεπτικό για το να σου δώσω τη μπάλα. Ίσως το έκανα αθώα επειδή πίστευα ότι ήσουν ο καλύτερος παίκτης. Αυτή είναι μια γωνία. Ίσως το έκανα επειδή δεν ήθελα όλοι να με αποκαλούν χαμένο επειδή έχασα το σουτ, έτσι σου έδωσα την μπάλα και σκέφτηκα ότι ήταν τεράστια ανακούφιση για μένα. Το αν νοιαζόμουν πραγματικά για σένα είναι ένα εντελώς διαφορετικό θέμα.

Μπορούμε τώρα να προσθέσουμε μερικές περαιτέρω λεπτομέρειες στη ζεστή πατάτα που σχετίζεται με την τεχνητή νοημοσύνη:

  • Η τεχνητή νοημοσύνη επιλέγει να δώσει τον έλεγχο στον άνθρωπο-in-the-loop την τελευταία στιγμή
  • Η τελευταία στιγμή μπορεί να είναι ήδη πολύ πιο πέρα ​​από οποιαδήποτε ανθρώπινη βιώσιμη ενέργεια
  • Το human-in-the-loop έχει τον έλεγχο αλλά κάπως εσφαλμένα λόγω του χρόνου παράδοσης

Σκεφτείτε το για μια στιγμή.

Ας υποθέσουμε ότι ένα σύστημα AI και ένας άνθρωπος-in-the-loop συνεργάζονται σε μια εργασία σε πραγματικό χρόνο που περιλαμβάνει τη λειτουργία μιας μηχανής μεγάλης κλίμακας σε ένα εργοστάσιο. Η τεχνητή νοημοσύνη ανιχνεύει ότι το μηχάνημα πάει χαμένο. Αντί η τεχνητή νοημοσύνη να συνεχίσει να διατηρεί τον έλεγχο, η τεχνητή νοημοσύνη δίνει απότομα τον έλεγχο στον άνθρωπο. Τα μηχανήματα σε αυτό το εργοστάσιο πηγαίνουν γρήγορα προς τον καθαρό χάος και δεν υπάρχει χρόνος για τον άνθρωπο να λάβει διορθωτικά μέτρα.

Η τεχνητή νοημοσύνη έχει παραδώσει την καυτή πατάτα στον άνθρωπο-in-the-loop και έχει μπλοκάρει τον άνθρωπο με την πραγματική καυτή πατάτα έτσι ώστε οι περιστάσεις δεν είναι πλέον ανθρωπίνως δυνατό να αντιμετωπιστούν. Το tag, you are it, ακολουθεί την παλιά γραμμή όταν παίζετε παιχνίδια με tag ως παιδί. Ο άνθρωπος είναι ας πούμε με ετικέτα με το χάλι.

Όπως το παράδειγμά μου για τον αγώνα μπάσκετ.

Γιατί το AI έκανε την παράδοση;

Λοιπόν, σε αντίθεση με όταν ένας άνθρωπος παραδίδει απότομα μια μπάλα μπάσκετ και στη συνέχεια κάνει ένα άγριο χειρόγραφο για τον λόγο που το έκανε, μπορούμε συνήθως να εξετάσουμε τον προγραμματισμό της τεχνητής νοημοσύνης και να καταλάβουμε τι οδήγησε την τεχνητή νοημοσύνη να κάνει αυτό το είδος ζεστής παράδοσης πατάτας.

Ένας προγραμματιστής τεχνητής νοημοσύνης θα μπορούσε να είχε αποφασίσει εκ των προτέρων ότι όταν η τεχνητή νοημοσύνη βρεθεί σε μια πολύ άσχημη κατάσταση, η τεχνητή νοημοσύνη θα πρέπει να προχωρήσει στην παροχή ελέγχου στον άνθρωπο-in-the-loop. Αυτό φαίνεται απολύτως λογικό και λογικό. Ο άνθρωπος μπορεί να είναι «ο καλύτερος παίκτης» στο γήπεδο. Οι άνθρωποι μπορούν να χρησιμοποιήσουν τις γνωστικές τους ικανότητες για να λύσουν δυνητικά οποιοδήποτε πρόβλημα αντιμετωπίζουν. Η τεχνητή νοημοσύνη πιθανόν να έχει φτάσει στα όρια του προγραμματισμού της και δεν υπάρχει τίποτα άλλο εποικοδομητικό που μπορεί να κάνει στην κατάσταση.

Εάν η τεχνητή νοημοσύνη είχε κάνει την παράδοση με ένα λεπτό να απομένει για να πάει το μηχάνημα kablam, ίσως ένα λεπτό heads-up είναι αρκετό ώστε ο άνθρωπος-in-the-loop να μπορεί να διορθώσει τα πράγματα. Ας υποθέσουμε όμως ότι η τεχνητή νοημοσύνη έκανε την παράδοση με τρία δευτερόλεπτα να απομένουν. Πιστεύετε ότι ένας άνθρωπος θα μπορούσε να αντιδράσει σε αυτό το χρονικό πλαίσιο; Απίθανος. Εν πάση περιπτώσει, για να κάνουμε τα πράγματα ακόμη λιγότερο μπερδεμένα, ας υποθέσουμε ότι η μεταβίβαση στον άνθρωπο-in-the-loop έγινε με λίγα νανοδευτερόλεπτα (ένα νανοδευτερόλεπτο είναι ένα δισεκατομμυριοστό του δευτερολέπτου, που σε σύγκριση με ένα γρήγορο αναλαμπή το μάτι είναι νωθρό 300 χιλιοστά του δευτερολέπτου).

Θα μπορούσε ένας άνθρωπος-in-the-loop να αντιδράσει επαρκώς εάν η τεχνητή νοημοσύνη έχει παραδώσει την καυτή πατάτα με απλά κλάσματα δευτερολέπτων που απομένουν για να κάνει οποιαδήποτε απροκάλυπτη δράση;

Όχι.

Η μεταβίβαση είναι περισσότερο ψεύδος από ό,τι θα μπορούσε να φαίνεται διαφορετικά.

Στην πραγματικότητα, η μεταβίβαση δεν πρόκειται να κάνει καλό όταν πρόκειται για τη δεινή κατάσταση. Το AI έχει τσιμπήσει τον άνθρωπο να γίνει η κατσίκα.

Ορισμένοι προγραμματιστές τεχνητής νοημοσύνης δεν το σκέφτονται αυτό όταν επινοούν το AI τους. Δεν λαμβάνουν (κακώς) μακάρια υπόψη ότι ο χρόνος είναι καθοριστικός παράγοντας. Το μόνο που κάνουν είναι να επιλέγουν να προγραμματίσουν μια παράδοση όταν τα πράγματα γίνονται δύσκολα. Όταν δεν απομένει τίποτα για το AI να κάνει εποικοδομητικά, πετάξτε τη μπάλα στον άνθρωπο παίκτη.

Οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να αποτύχουν να το σκεφτούν αυτό κατά τη στιγμή της κωδικοποίησης της τεχνητής νοημοσύνης και στη συνέχεια συχνά αποτυγχάνουν διπλά αποτυγχάνοντας να κάνουν δοκιμές που το φέρνουν στο φως. Το μόνο που δείχνουν οι δοκιμές τους είναι ότι η τεχνητή νοημοσύνη «υποχρεωτικά» έκανε μια μεταβίβαση όταν έφθασαν τα όρια της τεχνητής νοημοσύνης. Voila, το AI υποτίθεται ότι είναι καλό και έτοιμο να ξεκινήσει. Η δοκιμή δεν περιελάμβανε έναν πραγματικό άνθρωπο που είχε τοποθετηθεί σε αυτή την απίστευτη και αδύνατη θέση. Δεν υπήρχε μια σωστή διαδικασία δοκιμών από τον άνθρωπο στον βρόχο που θα μπορούσε να διαμαρτυρόταν ότι αυτό το κλείσιμο του ματιού την τελευταία στιγμή, ή όντως μετά την τελευταία στιγμή, τους έκανε λίγο ή καθόλου καλό.

Φυσικά, ορισμένοι προγραμματιστές τεχνητής νοημοσύνης θα έχουν εξετάσει προσεκτικά αυτό το είδος δύσκολης κατάστασης, σοφά.

Αφού σκεφτούν το αίνιγμα, θα προχωρήσουν στον προγραμματισμό της τεχνητής νοημοσύνης ώστε να ενεργεί με αυτόν τον τρόπο, ούτως ή άλλως.

Γιατί;

Γιατί δεν υπάρχει τίποτα άλλο να κάνουν, τουλάχιστον στο μυαλό τους. Όταν όλα τα άλλα αποτύχουν, τον έλεγχο με το χέρι στον άνθρωπο. Ίσως γίνει ένα θαύμα. Η ουσία όμως είναι ότι αυτό δεν απασχολεί τον προγραμματιστή της τεχνητής νοημοσύνης και δίνουν στον άνθρωπο την τελευταία ευκαιρία να αντιμετωπίσει το χάος που υπάρχει. Ο προγραμματιστής της τεχνητής νοημοσύνης πλένει τα χέρια του για οτιδήποτε συμβεί στη συνέχεια.

Θέλω να διευκρινίσω ότι οι προγραμματιστές τεχνητής νοημοσύνης δεν είναι οι μόνοι επινοητές αυτών των καυτών σχεδίων πατάτας. Υπάρχουν πολλά άλλα ενδιαφερόμενα μέρη που έρχονται στο τραπέζι για αυτό. Ίσως ένας αναλυτής συστημάτων που έκανε την ανάλυση προδιαγραφών και απαιτήσεων είχε δηλώσει ότι αυτό υποτίθεται ότι πρέπει να κάνει το AI. Οι εμπλεκόμενοι προγραμματιστές AI δημιούργησαν το AI ανάλογα. Ο διαχειριστής έργου AI μπορεί να το είχε επινοήσει αυτό. Τα στελέχη και η διοίκηση που επιβλέπουν την ανάπτυξη της τεχνητής νοημοσύνης μπορεί να το είχαν επινοήσει.

Όλοι σε όλη τη διάρκεια του κύκλου ζωής ανάπτυξης της τεχνητής νοημοσύνης θα μπορούσαν να έχουν προχωρήσει στον ίδιο σχεδιασμό της καυτής πατάτας. Το αν το παρατήρησε κανείς, δεν μπορούμε να πούμε με σιγουριά. Εάν το πρόσεχαν, μπορεί να είχαν χαρακτηριστεί ως αρνητές και να είχαν παραμεριστεί. Άλλοι μπορεί να έλαβαν υπόψη τους το θέμα, αλλά δεν κατάλαβαν τον αντίκτυπο. Ένιωθαν ότι ήταν μια τεχνική λεπτομέρεια που δεν ήταν στο πεδίο εφαρμογής τους.

Θα προσθέσω σε αυτόν τον άτυπο κατάλογο των «λόγων» μια πολύ πιο άθλια πιθανότητα.

Το σύνδρομο καυτής πατάτας με AI χρησιμοποιείται μερικές φορές σκόπιμα επειδή εκείνοι που έκαναν το AI ήθελαν να έχουν τον παθιασμένο ισχυρισμό τους για εύλογη άρνηση.

Ετοιμαστείτε για αυτό το μέρος της ιστορίας.

Στην περίπτωση των εργοστασιακών μηχανημάτων που χάνουν το χαμό, είναι βέβαιο ότι θα υπάρξουν πολλά δάχτυλα για το ποιος είναι υπεύθυνος για αυτό που συνέβη. Όσον αφορά τη λειτουργία του μηχανήματος, είχαμε ένα σύστημα AI που το έκανε και είχαμε έναν άνθρωπο-in-the-loop που το έκανε. Αυτοί είναι οι δύο μπασκετμπολίστες μας, μεταφορικά.

Το ρολόι έτρεχε και τα μηχανήματα ήταν στα πρόθυρα να γίνουν kaboom. Ας πούμε ότι εσείς και εγώ γνωρίζουμε ότι η τεχνητή νοημοσύνη έκανε μια παράδοση στον άνθρωπο-in-the-loop, κάνοντάς το με ανεπαρκή χρόνο που απομένει για τον άνθρωπο να λάβει οποιαδήποτε επαρκή ενέργεια για να διορθώσει ή να αποφύγει την καταστροφή. Κανείς άλλος δεν αντιλαμβάνεται ότι αυτό συνέβη.

Η εταιρεία που κατασκευάζει το AI μπορεί σε κάθε περίπτωση να δηλώσει αμέσως ότι δεν φταίει επειδή ο άνθρωπος είχε τον έλεγχο. Σύμφωνα με τα άψογα αρχεία τους, το AI δεν είχε τον έλεγχο τη στιγμή του kaboom. Ο άνθρωπος ήταν. Επομένως, ξεκάθαρα, είναι προφανές ότι φταίει ένας άνθρωπος.

Λέει βασικά ψέματα η εταιρεία AI όταν κάνει αυτόν τον ειλικρινή ισχυρισμό;

Όχι, φαίνεται να λένε την αλήθεια.

Όταν ρωτήθηκαν αν είναι σίγουροι ότι η τεχνητή νοημοσύνη δεν είχε τον έλεγχο, η εταιρεία θα διακήρυττε δυνατά και περήφανα ότι η τεχνητή νοημοσύνη δεν είχε καθόλου τον έλεγχο. Έχουν τεκμηριωμένη απόδειξη αυτού του ισχυρισμού (υποθέτοντας ότι η AI διατηρούσε αρχείο καταγραφής του συμβάντος). Στην πραγματικότητα, τα στελέχη της εταιρείας AI μπορεί να σηκώσουν τα φρύδια τους με αηδία ότι κάποιος θα αμφισβητούσε την ακεραιότητά τους σε αυτό το σημείο. Θα ήταν πρόθυμοι να ορκιστούν στον ιερό τους όρκο ότι ήταν το AI δεν υπό έλεγχο. Το human-in-the-loop είχε τον έλεγχο.

Πιστεύω ότι βλέπετε πόσο παραπλανητικό μπορεί να είναι αυτό.

Ναι, στον άνθρωπο δόθηκε ο έλεγχος. Θεωρητικά, ο άνθρωπος είχε τον έλεγχο. Το AI δεν είχε πλέον τον έλεγχο. Αλλά η έλλειψη διαθέσιμου χρόνου και ειδοποίησης καθιστά σε μεγάλο βαθμό αυτόν έναν εξαιρετικά κούφιο ισχυρισμό.

Η ομορφιά αυτού, από την οπτική γωνία του κατασκευαστή της τεχνητής νοημοσύνης, θα ήταν ότι λίγοι θα μπορούσαν να αμφισβητήσουν τους ισχυρισμούς που προσφέρονται. Ο κατασκευαστής AI ενδέχεται να μην δημοσιοποιήσει τα αρχεία καταγραφής του περιστατικού. Κάτι τέτοιο θα μπορούσε να ανατρέψει τη στημένη κατάσταση. Τα αρχεία καταγραφής υποστηρίζεται ότι είναι πνευματικής ιδιοκτησίας (IP) ή άλλου ιδιόκτητου και εμπιστευτικού χαρακτήρα. Η εταιρεία πιθανότατα θα ισχυριζόταν ότι εάν εμφανίζονταν τα αρχεία καταγραφής, αυτό θα έδειχνε τη μυστική σάλτσα της τεχνητής νοημοσύνης της και θα εξαντλούσε την πολυτιμότερη IP της.

Φανταστείτε τη δεινή θέση του φτωχού ανθρώπου που βρίσκεται στο βρόχο. Είναι μπερδεμένοι που όλοι τους κατηγορούν ότι αφήνουν τα πράγματα να ξεφύγουν από τον έλεγχο. Το AI «έκανε το σωστό» και παρέδωσε τον έλεγχο στον άνθρωπο. Αυτό μπορεί να ήταν αυτό που έλεγαν οι προδιαγραφές (και πάλι, ωστόσο, οι προδιαγραφές δεν έλαβαν υπόψη τους παράγοντες χρονισμού και σκοπιμότητας). Τα κούτσουρα που δεν έχουν δημοσιοποιηθεί, αλλά ισχυρίζεται ότι είναι σιδερένια από τον κατασκευαστή της τεχνητής νοημοσύνης, πιστοποιούν το απόλυτο γεγονός ότι ο άνθρωπος είχε τον έλεγχο από το AI.

Θα μπορούσατε να το δηλώσετε ως ένα αξιολύπητο slam-dunk για τον μπερδεμένο άνθρωπο που είναι σχεδόν βέβαιο ότι πρόκειται να πέσει.

Οι πιθανότητες είναι ότι μόνο αν αυτό πάει στο δικαστήριο θα αποκαλυφθεί η πραγματικότητα του τι συνέβη. Εάν οι οξυδερκείς νομικοί λαγωνικοί γνωρίζουν αυτό το είδος συναυλίας, θα προσπαθούσαν να αποκτήσουν νόμιμα τα κούτσουρα. Θα χρειαστεί να πάρουν έναν ειδικό μάρτυρα (κάτι που έκανα κατά καιρούς) για να αποκρυπτογραφήσει τα αρχεία καταγραφής. Τα κούτσουρα από μόνα τους μπορεί να μην είναι αρκετά. Τα αρχεία καταγραφής θα μπορούσαν να διαμορφωθούν ή να τροποποιηθούν ή να επινοηθούν σκόπιμα για να μην παρουσιάζουν ξεκάθαρα τις λεπτομέρειες. Ως εκ τούτου, ο κώδικας τεχνητής νοημοσύνης ίσως χρειαστεί να εμβαθύνει επίσης.

Εν τω μεταξύ, σε όλη αυτή την αγωνιώδη και μακρά διαδικασία νομικής ανακάλυψης, ο άνθρωπος-in-the-loop θα φαινόταν πολύ κακός. Τα μέσα ενημέρωσης θα έβαζαν το άτομο ως ανεύθυνο, θα έχασαν το κεφάλι τους, θα απέτυχαν να είναι επιμελείς και θα έπρεπε να λογοδοτήσουν πλήρως. Ενδεχομένως για μήνες ή χρόνια, κατά τη διάρκεια αυτής της διαδικασίας, αυτό το άτομο θα εξακολουθούσε να είναι εκείνο στο οποίο όλοι κουνούσαν το δάχτυλο της κατηγορίας. Η δυσωδία μπορεί να μην αφαιρεθεί ποτέ.

Λάβετε επίσης υπόψη ότι αυτή η ίδια κατάσταση θα μπορούσε εύκολα να συμβεί ξανά. Και ξανα. Υποθέτοντας ότι ο κατασκευαστής της τεχνητής νοημοσύνης δεν άλλαξε την τεχνητή νοημοσύνη, όποτε προκύψει μια παρόμοια κατάσταση της τελευταίας στιγμής, η τεχνητή νοημοσύνη θα κάνει αυτήν την παράδοση χωρίς χρόνο. Θα ήλπιζε κανείς ότι αυτές οι καταστάσεις δεν συμβαίνουν συχνά. Στις σπάνιες περιπτώσεις που εμφανίζεται, ο άνθρωπος-in-the-loop εξακολουθεί να είναι ο βολικός τύπος πτώσης.

Είναι ένα διαβολικό κόλπο.

Ίσως θέλετε να επιμείνετε ότι ο κατασκευαστής AI δεν έχει κάνει τίποτα λάθος. Λένε την αλήθεια. Το AI παράτησε τον έλεγχο. Ο άνθρωπος θεωρήθηκε τότε ότι είχε τον έλεγχο. Αυτά είναι τα γεγονότα. Δεν έχει νόημα να το αμφισβητείς.

Είτε κάποιος σκέφτεται και κάνει τις δύσκολες ερωτήσεις, καθώς και εάν ο κατασκευαστής AI απαντά σε αυτές τις ερωτήσεις με οποιονδήποτε απλό τρόπο, αυτό είναι κάτι που φαίνεται να συμβαίνει σπάνια.

Οι ερωτήσεις περιλαμβάνουν:

  • Πότε η τεχνητή νοημοσύνη έκανε την παράδοση στον άνθρωπο-in-the-loop;
  • Σε ποια προγραμματική βάση έκανε η τεχνητή νοημοσύνη την παράδοση;
  • Δόθηκε αρκετός χρόνος στο human-in-the-loop για να αναλάβει τον έλεγχο;
  • Πώς σχεδιάστηκε και επινοήθηκε η τεχνητή νοημοσύνη για αυτά τα προβλήματα;
  • Και ούτω καθεξής.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα. Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αυτό αναπόσπαστο με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης (ίσως παραδόξως ή ειρωνικά) της αξιολόγησης του τρόπου με τον οποίο υιοθετείται η Δεοντολογία AI από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε αυτή τη συγκυρία αυτής της βαριάς συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά πρόσθετα επεξηγηματικά παραδείγματα που θα μπορούσαν να παρουσιάσουν αυτό το θέμα. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να εντοπίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, έτσι ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει ζωντανά αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται στην τεχνητή νοημοσύνη φωτίζει κάτι για το σύνδρομο AI Hot Potato, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτο-οδηγούμενα αυτοκίνητα και σύνδρομο AI Hot Potato

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Ελπίζω ότι αυτό παρέχει μια αρκετή λιτανεία προειδοποιήσεων για να υποστηρίξω αυτό που πρόκειται να αναφέρω.

Για πλήρως αυτόνομα οχήματα μπορεί να μην υπάρχει καμία πιθανότητα να συμβεί μια μεταβίβαση μεταξύ του AI και ενός ανθρώπου, λόγω της πιθανότητας να μην υπάρχει άνθρωπος-in-the-loop για να ξεκινήσετε. Η φιλοδοξία πολλών από τους σημερινούς κατασκευαστές αυτοοδηγούμενων αυτοκινήτων είναι να αφαιρέσουν εντελώς τον άνθρωπο οδηγό από την οδήγηση. Το όχημα δεν θα περιέχει καν χειριστήρια οδήγησης προσβάσιμα από τον άνθρωπο. Σε αυτήν την περίπτωση, ένας άνθρωπος οδηγός, εάν είναι παρών, δεν θα μπορεί να συμμετάσχει στην οδήγηση καθώς δεν έχει πρόσβαση σε κανέναν έλεγχο οδήγησης.

Για ορισμένα πλήρως αυτόνομα οχήματα, ορισμένα σχέδια εξακολουθούν να επιτρέπουν σε έναν άνθρωπο να βρίσκεται στο βρόχο, αν και ο άνθρωπος δεν χρειάζεται να είναι διαθέσιμος ή να συμμετέχει καθόλου στη διαδικασία οδήγησης. Έτσι, ένας άνθρωπος μπορεί να συμμετάσχει στην οδήγηση, εάν το άτομο το επιθυμεί. Σε κανένα σημείο όμως η τεχνητή νοημοσύνη δεν εξαρτάται από τον άνθρωπο για την εκτέλεση οποιασδήποτε από τις εργασίες οδήγησης.

Στην περίπτωση των ημιαυτόνομων οχημάτων, υπάρχει μια σχέση χέρι-χέρι μεταξύ του ανθρώπινου οδηγού και του AI. Για ορισμένα σχέδια, ο ανθρώπινος οδηγός μπορεί να αναλάβει εξ ολοκλήρου τα χειριστήρια οδήγησης και ουσιαστικά να εμποδίσει την τεχνητή νοημοσύνη να συμμετάσχει στην οδήγηση. Εάν ο ανθρώπινος οδηγός επιθυμεί να επαναφέρει την τεχνητή νοημοσύνη στον ρόλο του οδηγού, μπορεί να το κάνει, αν και αυτό μερικές φορές αναγκάζει τον άνθρωπο να παραιτηθεί από τους ελέγχους οδήγησης.

Μια άλλη μορφή ημιαυτόνομης λειτουργίας θα συνεπαγόταν τον ανθρώπινο οδηγό και την τεχνητή νοημοσύνη να συνεργάζονται με ομαδικό τρόπο. Το AI οδηγεί και ο άνθρωπος οδηγεί. Οδηγούν μαζί. Το AI μπορεί να μεταφερθεί στον άνθρωπο. Ο άνθρωπος μπορεί να αναβληθεί στο AI.

Σε κάποια συγκυρία, το σύστημα οδήγησης τεχνητής νοημοσύνης θα μπορούσε να εξακριβώσει υπολογιστικά ότι το αυτοοδηγούμενο αυτοκίνητο οδεύει σε απαράδεκτη κατάσταση και ότι το αυτόνομο όχημα πρόκειται να συντριβεί.

Επιπλέον, ορισμένοι ειδήμονες κυκλοφορούν και ισχυρίζονται ότι τα αυτοοδηγούμενα αυτοκίνητα δεν θα τρακάρουν, κάτι που είναι σκέτη ανοησία και είναι ένα εξωφρενικό και λανθασμένο πράγμα που λέγεται, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ.

Συνεχίζοντας το σενάριο ενός αυτοοδηγούμενου αυτοκινήτου που κατευθύνεται προς σύγκρουση ή τροχαίο ατύχημα, το σύστημα οδήγησης AI μπορεί να προγραμματιστεί ώστε να παραδίδει συνοπτικά τα χειριστήρια οδήγησης στον άνθρωπο οδηγό. Εάν υπάρχει επαρκής διαθέσιμος χρόνος για τον ανθρώπινο οδηγό να λάβει μέτρα αποφυγής, αυτό μπορεί πράγματι να είναι λογικό και σωστό να κάνει η τεχνητή νοημοσύνη.

Αλλά ας υποθέσουμε ότι η τεχνητή νοημοσύνη κάνει την παράδοση με ένα κλάσμα του δευτερολέπτου που απομένει. Ο χρόνος αντίδρασης του ανθρώπινου οδηγού δεν είναι αρκετά γρήγορος για να ανταποκριθεί επαρκώς. Επιπλέον, αν από θαύμα ο άνθρωπος ήταν αρκετά γρήγορος, οι πιθανότητες είναι ότι δεν υπάρχουν βιώσιμες ενέργειες αποφυγής που να μπορούν να αναληφθούν με τον περιορισμένο χρόνο που απομένει πριν από τη συντριβή. Αυτό είναι δύο: (1) ανεπαρκής χρόνος για να αναλάβει δράση ο ανθρώπινος οδηγός, (2) ανεπαρκής χρόνος ώστε, εάν η ενέργεια ήταν δυνατή από τον ανθρώπινο οδηγό, η ενέργεια θα μπορούσε να πραγματοποιηθεί στον ανεπαρκή χρόνο που προβλέπεται.

Συνολικά, αυτό είναι παρόμοιο με την προηγούμενη συζήτησή μου σχετικά με την κατάσταση στο μπάσκετ και τα εργοστασιακά μηχανήματα που έγιναν ξέφρενα σενάριο.

Ας προσθέσουμε το κακόβουλο συστατικό σε αυτό.

Μια αυτοκινητοβιομηχανία ή μια εταιρεία τεχνολογίας αυτόνομης οδήγησης δεν θέλει να επισημανθεί με διάφορα τροχαία ατυχήματα που έχουν συμβεί στον στόλο της. Το σύστημα οδήγησης τεχνητής νοημοσύνης είναι προγραμματισμένο να δίνει πάντα τον έλεγχο στον ανθρώπινο οδηγό, ανεξάρτητα από το αν υπάρχει επαρκής χρόνος για τον άνθρωπο οδηγό να κάνει οτιδήποτε για τη δύσκολη θέση. Κάθε φορά που συμβαίνει ένα αυτοκινητιστικό ατύχημα αυτού του είδους, η αυτοκινητοβιομηχανία ή η εταιρεία τεχνολογίας αυτόνομης οδήγησης είναι σε θέση να επιμείνει φωνητικά ότι ο άνθρωπος οδηγός ήταν στα χειριστήρια, ενώ η τεχνητή νοημοσύνη όχι.

Το ιστορικό τους για συστήματα οδήγησης AI φαίνεται να είναι εκπληκτικό.

Ούτε μία φορά το σύστημα οδήγησης AI δεν «φταίει» για αυτά τα αυτοκινητιστικά ατυχήματα. Είναι πάντα εκείνοι οι καταραμένοι άνθρωποι οδηγοί που δεν φαίνεται να κρατούν τα μάτια τους στο δρόμο. Μπορεί να έχουμε την τάση να καταπίνουμε αυτό το ψεγάδι και να πιστεύουμε ότι η ακριβής τεχνητή νοημοσύνη πιθανότατα δεν είναι ποτέ λάθος. Μπορεί να τείνουμε να πιστεύουμε (αφού γνωρίζουμε εκ πείρας) ότι οι άνθρωποι οδηγοί είναι ατημέλητοι και κάνουν πολλά λάθη οδήγησης. Το λογικό συμπέρασμα είναι ότι οι άνθρωποι οδηγοί πρέπει να είναι ο ένοχος και το σύστημα οδήγησης AI είναι εντελώς αθώο.

Προτού μερικοί υποστηρικτές της αυτοοδήγησης εκνευριστούν με αυτόν τον χαρακτηρισμό, ας αναγνωρίσουμε απολύτως ότι ο άνθρωπος οδηγός μπορεί κάλλιστα να φταίει και ότι θα έπρεπε να είχαν λάβει νωρίτερα μέτρα, όπως να αναλάβουν τα χειριστήρια οδήγησης από την AI. Υπάρχει επίσης η πιθανότητα ο άνθρωπος οδηγός να είχε κάνει κάτι ουσιαστικό όταν η τεχνητή νοημοσύνη παρέδωσε τα χειριστήρια οδήγησης. Και τα λοιπά.

Η εστίαση εδώ ήταν στις συνθήκες όπου η τεχνητή νοημοσύνη θεωρήθηκε ο οδηγός του οχήματος και στη συνέχεια απότομα και με λίγη προσοχή στο τι μπορεί να κάνει ένας οδηγός, πετάει την καυτή πατάτα στον άνθρωπο οδηγό. Αυτός είναι επίσης ο λόγος που τόσοι πολλοί ανησυχούν για τον διπλό ρόλο οδήγησης των ημιαυτόνομων οχημάτων. Θα μπορούσατε να πείτε ότι υπάρχουν πάρα πολλοί οδηγοί στο τιμόνι. Ο στόχος, φαίνεται, θα ήταν να διευθετηθεί το θέμα έχοντας πλήρως αυτόνομα οχήματα που δεν έχουν ανάγκη για άνθρωπο στο τιμόνι και η τεχνητή νοημοσύνη οδηγεί πάντα το όχημα.

Αυτό φέρνει στο προσκήνιο το συμμαχικό ερώτημα σχετικά με το τι ή ποιος είναι υπεύθυνος όταν οδηγεί το AI, το οποίο έχω αναφερθεί πολλές φορές στις στήλες μου, όπως π.χ. ο σύνδεσμος εδώ και ο σύνδεσμος εδώ.

Συμπέρασμα

Πρέπει να είμαστε προσεκτικοί όταν ακούμε ή διαβάζουμε για τροχαία ατυχήματα που αφορούν ημιαυτόνομα οχήματα. Να είστε επιφυλακτικοί με όσους προσπαθούν να μας ξεγελάσουν δηλώνοντας ότι το σύστημα οδήγησης τεχνητής νοημοσύνης τους έχει ένα άψογο ρεκόρ. Το συγκλονιστικό τέχνασμα των Σύνδρομο AI Hot Potato μπορεί να είναι στο μείγμα.

Για εταιρείες που προσπαθούν να είναι δύσκολες σε αυτά τα θέματα, ίσως μπορούμε να κρατήσουμε κοντά μας την περίφημη φράση του Αβραάμ Λίνκολν: «Μπορείς να κοροϊδεύεις όλους τους ανθρώπους μερικές φορές και κάποιους από τους ανθρώπους όλη την ώρα, αλλά δεν μπορείς να ξεγελάσεις όλος ο κόσμος όλη την ώρα».

Προσπάθησα να αποκαλύψω εδώ τη μαγεία της τεχνητής νοημοσύνης που κρύβεται πίσω από την οθόνη και κατά καιρούς τοποθετείται κάτω από την κουκούλα, την οποία έχω διευκρινίσει ώστε περισσότεροι άνθρωποι δεν θα να ξεγελαστείτε περισσότερες φορές.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- φαινομενικά-προσπαθώντας-να-αποφύγουν-υπευθυνότητα-για-τη-ζωή τους-αποφασίζουν-αυτόνομα-συστήματα/