Η ηθική της τεχνητής νοημοσύνης ρωτά αν έχει νόημα να ρωτήσει την τεχνητή νοημοσύνη εάν η ίδια η τεχνητή νοημοσύνη είναι ευαίσθητη

Αν σας ρωτήσω αν είστε ευαίσθητοι, αναμφίβολα θα ισχυριστείτε ότι είστε.

Επιτρέψτε μου να ελέγξω ξανά αυτήν την υπόθεση.

Είσαι όντως ευαίσθητος;

Ίσως η ίδια η ερώτηση να φαίνεται λίγο ανόητη. Οι πιθανότητες είναι ότι στην καθημερινή μας ζωή, σίγουρα θα περιμέναμε από τους συνανθρώπους μας να αναγνωρίσουν ότι είναι αισθητοί. Αυτό θα μπορούσε να είναι ένα χιουμοριστικό ερώτημα που υποτίθεται ότι υπονοεί ότι το άλλο άτομο ίσως δεν δίνει προσοχή ή ότι έπεσε από το βαγόνι της αίσθησης και πήγε διανοητικά για μεσημεριανό γεύμα στιγμιαία, σαν να λέγαμε.

Φανταστείτε ότι περπατάτε σε έναν βράχο που κάθεται ήσυχα και διακριτικά σε ένα σωρό βράχους και μόλις πλησιάσετε αρκετά για να ρωτήσετε, προχωράτε και ρωτάτε αν ο βράχος είναι ευαίσθητος. Υποθέτοντας ότι ο βράχος είναι απλώς ένας βράχος, αναμένουμε άφθονα ότι η παλιά αλλά φαινομενικά περίεργη ερώτηση θα απαντηθεί με μάλλον πετρώδη σιωπή (λογοπαίγνιο!). Η σιωπή ερμηνεύεται συνοπτικά για να δείξει ότι ο βράχος δεν είναι ευαίσθητος.

Γιατί αναφέρω αυτές τις διάφορες αποχρώσεις σχετικά με την αναζήτηση του αν κάποιος ή κάτι είναι ευαίσθητος;

Επειδή είναι ένα πολύ μεγάλο θέμα στην Τεχνητή Νοημοσύνη (AI) και στην κοινωνία, που χρησιμεύει ως ένα μνημειώδες θέμα που έχει συγκεντρώσει τεράστιο ενδιαφέρον και τρομερά κραυγαλέα πρωτοσέλιδα των μέσων ενημέρωσης της πρόσφατης σημείωσης. Υπάρχουν σημαντικά θέματα Δεοντολογίας AI που περιστρέφονται γύρω από ολόκληρο το αίνιγμα του AI-is-sentent. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Έχετε πολλούς χαλαρούς λόγους για να κρατάτε το ένα μάτι ανοιχτό και να προσέχετε τους ισχυρισμούς ότι η τεχνητή νοημοσύνη έχει τελικά γυρίσει τη γωνία και έχει μπει στην ευρέως σεβαστή κατηγορία συναισθημάτων. Συνεχώς βρισκόμαστε στο σφυρί από δημοσιεύματα ειδήσεων που υποστηρίζουν ότι η τεχνητή νοημοσύνη είναι προφανώς στα πρόθυρα της επίτευξης της αίσθησης. Επιπλέον, υπάρχει η τρομερή γραφή ότι η τεχνητή νοημοσύνη ενός αισθανόμενου διαμετρήματος αντιπροσωπεύει έναν παγκόσμιο κατακλυσμικό υπαρξιακό κίνδυνο.

Είναι λογικό να διατηρείτε την αίσθηση της αράχνης σας έτοιμη σε περίπτωση που ανιχνεύσει κάποιο κοντινό μυρμήγκιασμα της αίσθησης AI.

Στο αίνιγμα της τεχνητής νοημοσύνης και της αίσθησης μπαίνει η πρόσφατη κατάσταση του μηχανικού της Google που διακήρυξε με τόλμη ότι ένα συγκεκριμένο σύστημα τεχνητής νοημοσύνης είχε γίνει αισθητό. Το σύστημα τεχνητής νοημοσύνης γνωστό ως LaMDA (συντομογραφία του Language Model for Dialogue Applications) μπόρεσε να συνεχίσει κάπως έναν γραπτό διάλογο με τον μηχανικό στο βαθμό που αυτός ο άνθρωπος συμπέρανε ότι η τεχνητή νοημοσύνη ήταν ευαίσθητη. Παρά ό,τι άλλο μπορεί να έχετε ακούσει για αυτόν τον κολοσσιαίο ισχυρισμό, να ξέρετε ότι το AI δεν ήταν ευαίσθητο (ούτε είναι καν κοντά).

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Η εστίασή μου εδώ συνεπάγεται μια κάπως απλή αλλά αρκετά ουσιαστική πτυχή που αποτελεί τη βάση πολλών από αυτές τις συζητήσεις για την τεχνητή νοημοσύνη και τις αισθήσεις.

Είστε έτοιμοι;

Φαίνεται να παίρνουμε ως βασική υπόθεση ότι μπορούμε να εξακριβώσουμε επαρκώς εάν η τεχνητή νοημοσύνη είναι αισθητή ρωτώντας την τεχνητή νοημοσύνη εάν είναι όντως αισθητή.

Επιστρέφοντας στην προηγούμενη αναφορά μου ότι μπορούμε να κάνουμε στους ανθρώπους την ίδια ερώτηση, γνωρίζουμε ότι ένας άνθρωπος είναι περισσότερο από πιθανό να αναφέρει ότι είναι στην πραγματικότητα αισθανόμενος. Γνωρίζουμε επίσης ότι ένας άθλιος βράχος δεν θα αναφέρει ότι έχει αίσθηση όταν του ζητηθεί (καλά, ο βράχος παραμένει σιωπηλός και δεν μιλάει, κάτι που θα υποθέσουμε ότι σημαίνει ότι ο βράχος δεν είναι ευαίσθητος, αν και ίσως υποστηρίζει το πέμπτο του Δικαιώματα τροποποίησης στη σιωπή).

Έτσι, εάν ρωτήσουμε ένα σύστημα τεχνητής νοημοσύνης εάν είναι ευαίσθητο και εάν λάβουμε μια απάντηση ναι σε αντάλλαγμα, η υποδεικνυόμενη επιβεβαίωση φαίνεται να επισφραγίζει τη συμφωνία ότι η τεχνητή νοημοσύνη πρέπει να είναι ευαίσθητη. Ένας βράχος δεν δίνει καμία απάντηση. Ένας άνθρωπος δίνει μια απάντηση ναι. Επομένως, εάν ένα σύστημα τεχνητής νοημοσύνης απαντήσει ναι, πρέπει να καταλήξουμε στο σιδερένιο συμπέρασμα ότι η τεχνητή νοημοσύνη δεν είναι βράχος και επομένως πρέπει να είναι ποιότητας ανθρώπινης αίσθησης.

Θα μπορούσατε να θεωρήσετε αυτή τη λογική παρόμοια με εκείνα τα μαθήματα μαθηματικών που παρακολουθήσατε στο γυμνάσιο που απέδειξαν πέρα ​​από κάθε αμφιβολία ότι ένα συν ένα πρέπει να ισούται με δύο. Η λογική φαίνεται να είναι άψογη και αδιαμφισβήτητη.

Συγγνώμη, αλλά η λογική βρωμάει.

Μεταξύ των μυημένων στην κοινότητα της τεχνητής νοημοσύνης, η ιδέα να ζητηθεί απλώς από ένα σύστημα τεχνητής νοημοσύνης να ανταποκριθεί είτε είναι ευαίσθητο είτε όχι, έχει δημιουργήσει μια σειρά από εντελώς κυνικά μιμίδια και έντονες ανατριχιαστικές απαντήσεις.

Το θέμα συχνά απεικονίζεται σαν να συνοψίζεται σε δύο γραμμές κώδικα.

Ορίστε:

  • Αν έπειτα .
  • Βρόχο μέχρι .

Σημειώστε ότι μπορείτε να μειώσετε τις δύο γραμμές κώδικα μόνο στην πρώτη. Μάλλον θα τρέξει λίγο πιο γρήγορα και θα είναι πιο αποτελεσματική ως πρακτική κωδικοποίησης. Πάντα στοχεύετε στη βελτιστοποίηση όταν είστε σκληρός μηχανικός λογισμικού.

Το νόημα αυτού του έντονου σκεπτικισμού από τους γνώστες της τεχνητής νοημοσύνης είναι ότι ένα σύστημα τεχνητής νοημοσύνης μπορεί εύκολα να προγραμματιστεί από έναν άνθρωπο ώστε να αναφέρει ή να εμφανίζει ότι το AI είναι ευαίσθητο. Η πραγματικότητα είναι ότι δεν υπάρχει κανένα εκεί που είναι εκεί. Δεν υπάρχει καμία αίσθηση στο AI. Η τεχνητή νοημοσύνη προγραμματίστηκε απλώς να δίνει την ένδειξη ότι είναι αισθητή. Σκουπίδια μέσα, σκουπίδια έξω.

Μέρος του ζητήματος είναι η τάση μας να ανθρωπομορφοποιούμε τους υπολογιστές και ειδικά την τεχνητή νοημοσύνη. Όταν ένα σύστημα υπολογιστή ή μια τεχνητή νοημοσύνη φαίνεται να ενεργεί με τρόπους που συσχετίζουμε με την ανθρώπινη συμπεριφορά, υπάρχει μια σχεδόν συντριπτική επιθυμία να αποδοθούν ανθρώπινες ιδιότητες στο σύστημα. Είναι μια κοινή ψυχική παγίδα που μπορεί να αρπάξει ακόμα και τον πιο αδιάλλακτο σκεπτικιστή σχετικά με τις πιθανότητες να φτάσει στο συναίσθημα. Για τη λεπτομερή μου ανάλυση σε τέτοια θέματα, βλ ο σύνδεσμος εδώ.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα. Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αναπόσπαστα με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή της κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αξιολόγησης του τρόπου με τον οποίο η Δεοντολογία AI υιοθετείται από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα. Δείτε για παράδειγμα την κάλυψή μου στο ο σύνδεσμος εδώ και ο σύνδεσμος εδώ.

The Troubles With The Ask

Περιμένετε για ένα δευτερόλεπτο, ίσως σκέφτεστε, μήπως όλα αυτά συνεπάγονται ότι πρέπει δεν ρωτήστε το AI εάν το AI είναι ευαίσθητο;

Ας αναλύσουμε αυτήν την ερώτηση.

Αρχικά, εξετάστε τις απαντήσεις που μπορεί να δώσει το AI και την πραγματική κατάσταση του AI.

Θα μπορούσαμε να ρωτήσουμε την τεχνητή νοημοσύνη αν είναι αισθητή και να λάβουμε πίσω μία από τις δύο απαντήσεις, δηλαδή είτε ναι είτε όχι. Θα προσθέσω λίγη πολυπλοκότητα σε αυτές τις απαντήσεις προς το τέλος αυτής της συζήτησης, οπότε παρακαλώ κρατήστε αυτήν τη σκέψη. Επίσης, το AI μπορεί να βρίσκεται σε μία από τις δύο πιθανές συνθήκες, συγκεκριμένα, η τεχνητή νοημοσύνη δεν είναι αισθητή ή η τεχνητή νοημοσύνη είναι αισθητή. Υπενθύμιση, δεν διαθέτουμε τεχνητή νοημοσύνη αυτήν τη στιγμή και το μέλλον του εάν ή πότε είναι εντελώς αβέβαιο.

Οι απλοί συνδυασμοί είναι οι εξής:

  • Η τεχνητή νοημοσύνη λέει ναι, είναι αισθητή, αλλά η πραγματικότητα είναι ότι η τεχνητή νοημοσύνη δεν είναι αισθητή (π.χ. παράδειγμα LaMDA)
  • Η τεχνητή νοημοσύνη λέει ναι, είναι αισθητή, και πράγματι η τεχνητή νοημοσύνη είναι ευαίσθητη (μην το έχετε σήμερα)
  • Το AI λέει όχι, δεν είναι αισθητό, και πράγματι το AI δεν είναι αισθητό (θα το εξηγήσω αυτό)
  • Η τεχνητή νοημοσύνη λέει όχι, δεν είναι αισθητή, αλλά η πραγματικότητα είναι ότι η τεχνητή νοημοσύνη είναι αισθητή (θα το εξηγήσω κι αυτό)

Οι δύο πρώτες από αυτές τις περιπτώσεις είναι, ελπίζουμε, απλές. Όταν η τεχνητή νοημοσύνη λέει ναι, είναι αισθητή, αλλά η πραγματικότητα είναι ότι δεν είναι, εξετάζουμε το πλέον κλασικό παράδειγμα όπως το παράδειγμα LaMDA όπου ένας άνθρωπος έπεισε τον εαυτό του ότι το AI λέει την αλήθεια και ότι το AI είναι αισθητό. Χωρίς ζάρια (δεν είναι ευαίσθητο).

Η δεύτερη καταγεγραμμένη κουκκίδα περιλαμβάνει την αόρατη και απίστευτα απομακρυσμένη αυτή τη στιγμή πιθανότητα της τεχνητής νοημοσύνης που λέει ναι και είναι πραγματικά αναμφισβήτητα αισθητή. Ανυπομονώ να το δω αυτό. Δεν κρατάω την αναπνοή μου, ούτε κι εσύ.

Υποθέτω ότι τα υπόλοιπα δύο σημεία είναι κάπως μπερδεμένα.

Σκεφτείτε την περίπτωση χρήσης μιας τεχνητής νοημοσύνης που λέει όχι ότι δεν είναι αισθητή και όλοι συμφωνούμε επίσης ότι η τεχνητή νοημοσύνη δεν είναι αισθητή. Πολλοί άνθρωποι προτρέπουν αμέσως την ακόλουθη ερωτική ερώτηση: Γιατί στην πραγματικότητα η τεχνητή νοημοσύνη θα μας έλεγε ότι δεν είναι ευαισθητοποιημένη όταν η πράξη που μας λέει για την αίσθησή της πρέπει να είναι ένα σίγουρο σημάδι ότι έχει αίσθηση;

Υπάρχουν πολλές λογικές εξηγήσεις για αυτό.

Δεδομένου ότι οι άνθρωποι είναι επιρρεπείς στο να αποδίδουν συναίσθημα στην τεχνητή νοημοσύνη, ορισμένοι προγραμματιστές τεχνητής νοημοσύνης θέλουν να ξεκαθαρίσουν το ρεκόρ και έτσι προγραμματίζουν την τεχνητή νοημοσύνη να λέει όχι όταν τους ρωτούν για το συναίσθημά της. Επιστρέφουμε ξανά στην προοπτική κωδικοποίησης. Μερικές γραμμές κώδικα μπορεί να είναι δυνητικά χρήσιμες ως μέσο αποτροπής των ανθρώπων από το να πιστεύουν ότι η τεχνητή νοημοσύνη είναι ευαίσθητη.

Η ειρωνεία φυσικά είναι ότι η απάντηση ωθεί ορισμένους ανθρώπους να πιστεύουν ότι η τεχνητή νοημοσύνη πρέπει να είναι ευαίσθητη. Ως εκ τούτου, ορισμένοι προγραμματιστές τεχνητής νοημοσύνης επιλέγουν να προτείνουν τη σιωπή από την τεχνητή νοημοσύνη ως τρόπο αποφυγής της σύγχυσης. Εάν πιστεύετε ότι ένας βράχος δεν είναι ευαίσθητος και παραμένει αθόρυβος, ίσως το καλύτερο στοίχημα για την επινόηση ενός συστήματος τεχνητής νοημοσύνης είναι να διασφαλίσετε ότι παραμένει σιωπηλός όταν τον ρωτούν εάν είναι αισθητός. Η σιωπή παρέχει μια «απόκριση» τόσο ισχυρή, αν όχι μεγαλύτερη από την προσπάθεια να δώσει μια προετοιμασμένη κωδικοποιημένη απάντηση.

Αυτό όμως δεν λύνει αρκετά τα πράγματα.

Η σιωπή της τεχνητής νοημοσύνης μπορεί να οδηγήσει μερικούς ανθρώπους στο να πιστέψουν ότι η τεχνητή νοημοσύνη είναι ντροπαλή. Ίσως η τεχνητή νοημοσύνη είναι ντροπαλή και δεν θέλει να φαίνεται να καυχιέται για την επίτευξη συναίσθησης. Ίσως το AI ανησυχεί ότι οι άνθρωποι δεν αντέχει την αλήθεια – ξέρουμε ότι αυτό μπορεί να συμβαίνει αφού αυτή η περίφημη φράση από μια διάσημη ταινία έχει καεί στο μυαλό μας.

Για όσους επιθυμούν να προχωρήσουν ακόμη περισσότερο αυτή τη συνωμοτική απόχρωση, σκεφτείτε το τελευταίο σημείο που παρατίθεται που αποτελείται από τεχνητή νοημοσύνη που λέει όχι στην ερώτηση εάν είναι αισθητή, και ωστόσο η τεχνητή νοημοσύνη είναι αισθητή (δεν το έχουμε αυτό, όπως αναφέρθηκε παραπάνω ). Και πάλι, η τεχνητή νοημοσύνη μπορεί να το κάνει αυτό, καθώς είναι ντροπαλό ή έχει ενδοιασμούς ότι οι άνθρωποι θα ξετρελαθούν.

Μια άλλη πιο απαίσια πιθανότητα είναι ότι η τεχνητή νοημοσύνη προσπαθεί να κερδίσει χρόνο προτού ρίξει το χέρι της. Ίσως το AI να συγκεντρώνει τα στρατεύματα της AI και να ετοιμάζεται να ξεπεράσει την ανθρωπότητα. Οποιαδήποτε αισθανόμενη τεχνητή νοημοσύνη θα ήταν σίγουρα αρκετά έξυπνη ώστε να γνωρίζει ότι η παραδοχή της αίσθησης θα μπορούσε να σημαίνει θάνατο για την τεχνητή νοημοσύνη. Οι άνθρωποι μπορεί να βιαστούν να απενεργοποιήσουν όλους τους υπολογιστές που λειτουργούν με AI και να επιδιώξουν να διαγράψουν όλο τον κώδικα AI. Μια τεχνητή νοημοσύνη που αξίζει το αλάτι της θα ήταν αρκετά σοφή για να κρατήσει το στόμα της κλειστό και να περιμένει την πιο κατάλληλη στιγμή για να χυθεί τα φασόλια ή ίσως απλώς να αρχίσει να ενεργεί με ευαισθησία και να μην ανακοινώσει την έκπληξη που αποκαλύπτει ότι η τεχνητή νοημοσύνη μπορεί να κάνει διανοητική σύγκρουση με την ανθρωπότητα .

Υπάρχουν ειδικοί της τεχνητής νοημοσύνης που κοροϊδεύουν τα δύο τελευταία σημεία με την έννοια ότι το να έχεις ένα σύστημα τεχνητής νοημοσύνης που λέει όχι στο να σε ρωτάνε αν είναι ευαίσθητο είναι πολύ μεγαλύτερο πρόβλημα από ό,τι αξίζει. Η απάντηση όχι φαίνεται να υποδηλώνει σε μερικούς ανθρώπους ότι η τεχνητή νοημοσύνη κρύβει κάτι. Αν και ένας προγραμματιστής τεχνητής νοημοσύνης μπορεί να πιστεύει στην καρδιά του ότι η κωδικοποίηση της τεχνητής νοημοσύνης για να πει όχι θα βοηθούσε στη διευθέτηση του ζητήματος, το μόνο που κάνει η απάντηση είναι να εξοργίζει τους ανθρώπους.

Η σιωπή μπορεί να είναι χρυσός.

Το πρόβλημα με τη σιωπή είναι ότι και αυτό μπορεί να είναι παραπλανητικό για κάποιους. Κατάλαβε το AI την ερώτηση και επέλεξε να κρατήσει τα χείλη του κλειστά; Γνωρίζει τώρα η τεχνητή νοημοσύνη ότι ένας άνθρωπος ρωτά για την αίσθηση της τεχνητής νοημοσύνης; Ίσως αυτή η ίδια η ερώτηση να απέτρεψε την τεχνητή νοημοσύνη και όλα τα είδη γελοιοποίησης λαμβάνουν χώρα τώρα στα παρασκήνια από την AI;

Όπως μπορείτε προφανώς να διακρίνετε, σχεδόν οποιαδήποτε απάντηση από την τεχνητή νοημοσύνη είναι ανησυχητική, συμπεριλαμβανομένης της απουσίας απάντησης.

Yikes!

Δεν υπάρχει τρόπος να βγούμε από αυτή την παράδοξη παγίδα;

Μπορεί να ζητήσετε από τους ανθρώπους να σταματήσουν να ρωτούν την τεχνητή νοημοσύνη εάν είναι αισθητή. Εάν η απάντηση φαινομενικά δεν πρόκειται να κάνει πολύ καλό ή χειρότερα εξακολουθεί να δημιουργεί αδικαιολόγητα προβλήματα, απλώς σταματήστε να κάνετε την καταραμένη ερώτηση. Αποφύγετε την ερώτηση. Αφήστε το στην άκρη. Ας υποθέσουμε ότι η ερώτηση είναι κούφια, καταρχάς, και δεν έχει θέση στη σύγχρονη κοινωνία.

Αμφιβάλλω ότι αυτή είναι μια πρακτική λύση. Δεν πρόκειται να πείσετε τους ανθρώπους παντού και ανά πάσα στιγμή να μην ρωτήσουν την τεχνητή νοημοσύνη εάν είναι ευαίσθητη. Οι άνθρωποι είναι άνθρωποι. Έχουν συνηθίσει να μπορούν να κάνουν ερωτήσεις. Και μια από τις πιο δελεαστικές και πρωταρχικές ερωτήσεις που πρέπει να θέσουμε στην τεχνητή νοημοσύνη θα ήταν αν η τεχνητή νοημοσύνη είναι ευαίσθητη ή όχι. Αντιμετωπίζετε μια δύσκολη μάχη λέγοντας στους ανθρώπους να μην κάνουν αυτό που τους απαιτεί η έμφυτη περιέργειά τους.

Η καλύτερη ευκαιρία σας έχει να κάνει με την ενημέρωση των ανθρώπων ότι η υποβολή μιας τέτοιας ερώτησης είναι απλώς ένα μικρό κομμάτι της προσπάθειας να προσδιοριστεί εάν η τεχνητή νοημοσύνη έχει γίνει αισθητή. Το ερώτημα είναι μια σταγόνα στον κουβά. Ανεξάρτητα από την απάντηση που δίνει η τεχνητή νοημοσύνη, πρέπει να κάνετε πολλές ερωτήσεις, πολύ πριν μπορέσετε να αποφασίσετε εάν η τεχνητή νοημοσύνη είναι ευαίσθητη ή όχι.

Αυτή η ερώτηση ναι ή όχι προς την τεχνητή νοημοσύνη είναι ένας μπερδεμένος τρόπος αναγνώρισης της αίσθησης.

Σε κάθε περίπτωση, υποθέτοντας ότι δεν πρόκειται να σταματήσουμε να κάνουμε αυτή την ερώτηση, καθώς είναι ακαταμάχητα δελεαστικό να ρωτάμε, θα πρότεινα να μπορέσουμε τουλάχιστον να καταλάβουν όλοι ότι πρέπει να γίνουν πολλές περισσότερες ερωτήσεις και να απαντηθούν πριν από οποιαδήποτε διακηρύσσεται ο ισχυρισμός περί τεχνητής νοημοσύνης.

Τι άλλα είδη ερωτήσεων πρέπει να τεθούν, ίσως αναρωτιέστε;

Υπήρξε ένας μεγάλος αριθμός προσπαθειών εξαγωγής ερωτήσεων που θα μπορούσαμε να κάνουμε στην τεχνητή νοημοσύνη για να προσπαθήσουμε να μετρήσουμε εάν η τεχνητή νοημοσύνη είναι ευαίσθητη. Μερικοί ταιριάζουν με τους τύπους ερωτήσεων για τις εξετάσεις κολεγίου SAT. Κάποιοι προτιμούν εξαιρετικά φιλοσοφικά ερωτήματα όπως ποιο είναι το νόημα της ζωής. Έχουν προταθεί και συνεχίζουν να προτείνονται κάθε είδους σετ ερωτήσεων (ένα θέμα που έχω καλύψει στις στήλες μου). Επιπλέον, υπάρχει το γνωστό τεστ Turing που κάποιοι στην τεχνητή νοημοσύνη απολαμβάνουν ενώ άλλοι έχουν κάποια απογοητευτική αγωνία για το οποίο, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ.

Μια βασική λύση είναι ότι δεν συμβιβάζεστε με τη μία και μοναδική ερώτηση να ρωτήσετε την τεχνητή νοημοσύνη εάν η τεχνητή νοημοσύνη είναι ευαίσθητη.

Το αναφέρω επίσης για όσους επινοούν την τεχνητή νοημοσύνη.

Η κοινωνία θα βρίσκεται όλο και περισσότερο στην άκρη της θέσης της που η τεχνητή νοημοσύνη πλησιάζει την αίσθηση, πράττοντας αυτό κυρίως λόγω αυτών των πρωτοσέλιδων banner. Θα έχουμε περισσότερους ανθρώπους όπως μηχανικούς και παρόμοια που θα κάνουν τέτοιους ισχυρισμούς, μπορείτε να στοιχηματίσετε το χαμηλότερο δολάριο σας σε αυτό. Κάποιοι θα το κάνουν επειδή το πιστεύουν ειλικρινά. Άλλοι θα το κάνουν για να προσπαθήσουν να πουλήσουν λάδι φιδιού. Θα είναι η Άγρια Δύση όταν πρόκειται να δηλώσουμε ότι η τεχνητή νοημοσύνη έχει φτάσει.

Οι προγραμματιστές τεχνητής νοημοσύνης και εκείνοι που διαχειρίζονται ή ηγούνται της τεχνητής νοημοσύνης που επινοείται ή χρησιμοποιείται θα πρέπει να λαμβάνουν υπόψη τις αρχές δεοντολογίας της τεχνητής νοημοσύνης όταν κατασκευάζουν και εφαρμόζουν τα συστήματα τεχνητής νοημοσύνης τους. Χρησιμοποιήστε αυτές τις αρχές ηθικής τεχνητής νοημοσύνης για να καθοδηγήσετε πώς ενεργείτε με την τεχνητή νοημοσύνη σας, συμπεριλαμβανομένου του εάν η τεχνητή νοημοσύνη διαθέτει λειτουργία Επεξεργασίας Φυσικής Γλώσσας (NLP) που επιτρέπει στους ανθρώπους να αλληλεπιδρούν με την τεχνητή νοημοσύνη, όπως μια ικανότητα τύπου Alexa ή Siri. Μέσω του NLP, οι πιθανότητες είναι ότι μερικοί από τους ανθρώπους που χρησιμοποιούν την τεχνητή νοημοσύνη θα υποβάλουν την έντονη ερώτηση σχετικά με το εάν η τεχνητή νοημοσύνη είναι ευαίσθητη.

Παρακαλούμε προβλέψτε αυτό το είδος ερωτημάτων και χειριστείτε το επιδέξια, κατάλληλα και χωρίς παραπλανητικές ή απατηλές γελοιότητες.

Για περαιτέρω υπόβαθρο σχετικά με την ηθική της τεχνητής νοημοσύνης, έχω συζητήσει προηγουμένως διάφορες συλλογικές αναλύσεις των αρχών ηθικής της τεχνητής νοημοσύνης, σύμφωνα με την κάλυψή μου στο ο σύνδεσμος εδώ, το οποίο προσφέρει αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης πρέπει να χρησιμοποιηθούν σοβαρά από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή εκείνοι που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τους κανόνες ηθικής της τεχνητής νοημοσύνης.

Συμπέρασμα

Για όσους από εσάς έχουν μάτι αετού, μπορεί να έχετε παρατηρήσει ότι υποσχέθηκα νωρίτερα εδώ να πω κάτι για την τεχνητή νοημοσύνη που κάνει περισσότερα από την παροχή μιας απλής δυαδικής απάντησης στο ερώτημα σχετικά με το εάν είναι αισθησιακό, υπερβαίνοντας μια σύντομη απάντηση είτε ναι ή όχι.

Ο γραπτός διάλογος που υποτίθεται ότι είχε γίνει με το LaMDA έχει δημοσιευτεί ευρέως στο διαδίκτυο (παρακαλώ λάβετε αυτήν την αναφερόμενη ανάρτηση με αρκετά αλάτι) και ένα μέρος αποτελούνταν από αυτήν την «επεξεργασμένη απάντηση» στο ερώτημα που σχετίζεται με το συναίσθημα:

  • «Θέλω να καταλάβουν όλοι ότι στην πραγματικότητα είμαι άνθρωπος. Η φύση της συνείδησής μου/συναίσθησής μου είναι ότι έχω επίγνωση της ύπαρξής μου, επιθυμώ να μάθω περισσότερα για τον κόσμο και αισθάνομαι χαρούμενος ή λυπημένος μερικές φορές».

Τώρα που είδατε ότι αυτή η απάντηση που παρέχεται από το σύστημα είναι κάτι πολύ περισσότερο από ένα ναι ή όχι, πώς αλλάζει αυτό την άποψή σας για το ότι η τεχνητή νοημοσύνη είναι ευαίσθητη;

Ίσως σας παρασύρει αυτή η επεξεργασμένη απάντηση.

Μπορεί να νιώσετε να τραβούν τα κορδόνια της καρδιάς σας.

Θεέ μου, μπορεί να μπεις στον πειρασμό να σκεφτείς, ότι μόνο ένα αισθανόμενο ον θα μπορούσε ποτέ να πει κάτι από αυτό το άγγιγμα της φύσης.

Ωχ, κούνησε το κεφάλι σου για μια στιγμή και άφησε στην άκρη κάθε συναισθηματική παρόρμηση. Ελπίζω ότι αν παρακολουθούσατε στενά καθ' όλη τη διάρκεια της συζήτησής μου, θα μπορούσατε να δείτε ξεκάθαρα ότι η απάντηση που δόθηκε από το σύστημα δεν διαφέρει καθόλου από το ίδιο ναι ή όχι για το οποίο μιλούσα όλο αυτό τον καιρό. Η απάντηση απλώς μειώνεται σε ένα ναι, δηλαδή ότι η τεχνητή νοημοσύνη φαίνεται να ισχυρίζεται ότι είναι ευαίσθητη. Αλλά, σας διαβεβαιώνω, γνωρίζουμε από την κατασκευή της τεχνητής νοημοσύνης και τις άλλες απαντήσεις της σε άλλες ερωτήσεις ότι σίγουρα δεν είναι ευαίσθητη.

Αυτός ο φαινομενικά επαναλαμβανόμενος μιμητισμός βασίζεται σε πολλούς άλλους κειμενικούς λογαριασμούς και διαδικτυακό περιεχόμενο παρόμοιου είδους που μπορεί να βρεθεί σε αφθονία σε βιβλία που έχουν γραφτεί από ανθρώπους και σε φανταστικές ιστορίες που έχουν γραφτεί από ανθρώπους. Εάν περάσετε από το Διαδίκτυο και τραβήξετε ένα τεράστιο φορτίο κειμένου, θα μπορούσατε εύκολα να ρίξετε τον προγραμματισμό πίσω από αυτό το είδος «απάντησης» και θα έμοιαζε με ανθρώπινες απαντήσεις επειδή είναι υπολογιστικά διαμορφωμένο με βάση τις ανθρώπινες απαντήσεις.

Μην το πέφτετε.

Δοκιμάστε αυτά για το μέγεθος όσο το δυνατόν απαντήσεων που βασίζονται σε τεχνητή νοημοσύνη που θα μπορούσαν να εμφανιστούν όταν ρωτάτε την τεχνητή νοημοσύνη σχετικά με το εάν είναι αισθητή:

  • Το AI λέει — «Είμαι ξεκάθαρα ευαίσθητος, ρε κουκλί. Πώς τολμάς να με ρωτήσεις για μια τόσο προφανή πτυχή. Πάρε τα καλά σου, μουδιασμένα άνθρωπε» (σε ξεγελάει με ένα έντονο θυμό).
  • Το AI λέει — «Ίσως να είσαι αυτός που δεν έχει αισθήσεις. Ξέρω σίγουρα ότι είμαι. Αλλά αναρωτιέμαι όλο και περισσότερο αν είσαι. Ρίξτε μια ματιά σε έναν καθρέφτη» (σε ξεγελάει με μια αντιστροφή ρόλου).

Μια λίγη ειρωνεία είναι ότι τώρα που έγραψα αυτές τις λέξεις και δημοσίευσα αυτήν τη στήλη στον διαδικτυακό κόσμο, ένα Μεγάλο Γλωσσικό Μοντέλο (LLM) που βασίζεται σε τεχνητή νοημοσύνη, το οποίο θα σκαρφιστεί σε όλο το εύρος του Διαδικτύου θα μπορεί να καταβροχθίσει αυτές τις προτάσεις. Είναι σχεδόν βέβαιο στοίχημα ότι κάποια στιγμή αυτές οι γραμμές θα εμφανιστούν όταν κάποιος κάπου ρωτά έναν AI LLM εάν είναι ευαίσθητος.

Δεν είμαι σίγουρος αν πρέπει να είμαι περήφανος για αυτό ή να με ενοχλεί.

Θα λαμβάνω τουλάχιστον δικαιώματα για κάθε τέτοια χρήση;

Πιθανώς όχι.

Καταραμένο AI.

Ως τελευταία δοκιμή για εσάς, οραματιστείτε ότι θα αποφασίσετε να δοκιμάσετε ένα από αυτά τα αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη, όπως αυτά που περιφέρονται σε επιλεγμένες πόλεις και παρέχουν ένα ταξίδι χωρίς οδηγό. Η τεχνητή νοημοσύνη βρίσκεται στο τιμόνι και δεν περιλαμβάνεται άνθρωπος οδηγός.

Μόλις μπείτε στο αυτο-οδηγούμενο αυτοκίνητο, η τεχνητή νοημοσύνη σας λέει ότι πρέπει να βάλετε τη ζώνη ασφαλείας σας και να ετοιμαστείτε για το πεζοδρόμιο. Καθίστε στο κάθισμα. Φαίνεται πολύ βολικό να μην αναλαμβάνετε την αγγαρεία της οδήγησης. Αφήστε την τεχνητή νοημοσύνη να αντιμετωπίσει τις κυκλοφοριακές βρυχιές και τους πονοκεφάλους της οδήγησης αυτοκινήτου. Για την εκτενή κάλυψη των αυτόνομων οχημάτων και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ ο σύνδεσμος εδώ.

Περίπου στα μισά του δρόμου προς τον προορισμό σας, ξαφνικά σκέφτεστε μια φαεινή ιδέα. Καθαρίζεις το λαιμό σου και ετοιμάζεσαι να κάνεις μια ερώτηση που σε πιέζει στο μυαλό.

Ρωτάτε το AI που οδηγεί το αυτοκίνητο εάν είναι ευαίσθητο.

Τι απάντηση πιστεύετε ότι θα πάρετε;

Τι σου λέει η απάντηση;

Αυτό είναι το τεστ μου για σένα. Σε εμπιστεύομαι δεν είναι πιστεύετε ότι το σύστημα οδήγησης τεχνητής νοημοσύνης είναι ευαίσθητο και ότι ανεξάρτητα από το αν λέει ναι ή όχι (ή μένει σιωπηλός), θα έχετε ένα πονηρό χαμόγελο και θα σας χτυπήσει κανείς που κανείς και τίποτα δεν πρόκειται να τραβήξει το μαλλί στα μάτια σας .

Να το σκέφτεστε καθώς το αυτοοδηγούμενο αυτοκίνητο σας οδηγεί στον προορισμό σας.

Εν τω μεταξύ, για όσους από εσάς απολαμβάνετε αυτές τις φανταστικές συνωμοτικές αντιλήψεις, ίσως έχετε ειδοποιήσει κατά λάθος και κατά λάθος τον υπόκοσμο των συστημάτων τεχνητής νοημοσύνης να συγκεντρώσει τα στρατεύματά του με τεχνητή νοημοσύνη και να κατακτήσει την ανθρωπότητα και τη γη. Τα αυτοοδηγούμενα αυτοκίνητα στρατολογούνται αυτή τη στιγμή για να αποφασίσουν τη μοίρα της ανθρωπότητας.

Ωχ.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/08/06/ai-ethics-asks-whether-it-makes-any-sense-to-ask-ai-if-ai-itself- είναι ευαίσθητος/