Ηθική τεχνητής νοημοσύνης και νόμος για την τεχνητή νοημοσύνη Θέτοντας δύσκολες ερωτήσεις σχετικά με αυτή τη νέα υπόσχεση από κατασκευαστές ρομπότ Dancing που λένε ότι θα αποτρέψουν την όπλα τεχνητής νοημοσύνης

Ίσως να έχετε δει την περασμένη εβδομάδα στις ειδήσεις ή να παρατηρήσατε στα μέσα κοινωνικής δικτύωσης την ανακοινωθείσα δέσμευση ορισμένων κατασκευαστών ρομπότ σχετικά με τους δήθεν στόχους τους να αποφύγουν την οπλοποίηση ρομπότ γενικής χρήσης με τεχνητή νοημοσύνη. Θα σας καθοδηγήσω στις λεπτομέρειες σε λίγο, οπότε μην ανησυχείτε αν δεν είχατε καταλάβει το θέμα.

Η αντίδραση σε αυτή τη διακήρυξη ήταν γρήγορη και, ίσως ως συνήθως στην πολωμένη κοινωνία μας, ήταν και εγκωμιαστική και μερικές φορές κοροϊδευτικά επικριτική ή ειλικρινά άσχημα σκεπτικιστική.

Είναι μια ιστορία δύο κόσμων.

Σε έναν κόσμο, κάποιοι λένε ότι αυτό ακριβώς χρειαζόμαστε υπεύθυνος Οι προγραμματιστές ρομπότ AI να δηλώσουν.

Δόξα τω Θεώ που βρίσκεστε στη σωστή πλευρά ενός ζητήματος που σταδιακά θα γίνεται πιο ορατό και πιο ανησυχητικό. Αυτά τα χαριτωμένα ρομπότ που χορεύουν είναι ανησυχητικά γιατί είναι πολύ εύκολο να τα ξαναζωντάξεις για να κουβαλάς όπλα και να τα χρησιμοποιήσεις με τους χειρότερους τρόπους (μπορείς να το ελέγξεις μόνος σου πηγαίνοντας στα μέσα κοινωνικής δικτύωσης και υπάρχουν άφθονα βίντεο που παρουσιάζουν χορευτικά ρομπότ οπλισμένα με πολυβόλα και άλλοι οπλισμοί).

Η άλλη όψη αυτού του νομίσματος λέει ότι η λεγόμενη δέσμευση δεν είναι τίποτα άλλο από ένα τέχνασμα μάρκετινγκ ή δημοσίων σχέσεων (ως δευτερεύουσα σημείωση, γνωρίζει κανείς τη διαφορά μεταξύ μιας υπόσχεσης και μιας δωρεάς;). Ούτως ή άλλως, οι αμφίβολοι προτρέπουν ότι πρόκειται για αχαλίνωτη σηματοδότηση αρετής στο πλαίσιο των ρομπότ που χορεύουν. Βλέπετε, το να παραπονιόμαστε για το γεγονός ότι τα ρομπότ γενικής χρήσης μπορούν να οπλιστούν είναι σίγουρα μια αξιόλογη και ειλικρινή εξέταση, αν και ο ισχυρισμός απλώς ότι ένας κατασκευαστής δεν θα το κάνει αυτό είναι πιθανώς μια κούφια υπόσχεση, επιμένουν ορισμένοι.

Συνολικά, το όλο θέμα αναδεικνύει ένα μεγάλο σύνολο θεωρήσεων για την ηθική της τεχνητής νοημοσύνης και το δίκαιο της τεχνητής νοημοσύνης. Θα αποσυσκευάσουμε σχολαστικά το θέμα και θα δούμε πώς αυτό είναι μια διπλή σύγκρουση μιας ηθικής και νομικής τεχνητής νοημοσύνης. Για τη συνεχή και εκτενή κάλυψη της Δεοντολογίας της AI και του νόμου της AI, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Θα αναφερθώ επίσης σε όλη αυτή τη συζήτηση στις προηγούμενες αναλύσεις μου σχετικά με τους κινδύνους της οπλοποίησης με τεχνητή νοημοσύνη, όπως η εις βάθος αξιολόγησή μου στο ο σύνδεσμος εδώ. Ίσως θελήσετε να ρίξετε μια ματιά σε αυτήν την ομιλία για πρόσθετες λεπτομέρειες πίσω από τα παρασκήνια.

Το ανοιχτό γράμμα που ανοίγει ένα κουτί με σκουλήκια

Ας ξεκινήσουμε αυτήν την ανάλυση κάνοντας μια προσεκτική, βήμα προς βήμα εξερεύνηση του Open Letter που δημοσιεύτηκε πρόσφατα από έξι σχετικά γνωστούς προηγμένους κατασκευαστές ρομπότ, συγκεκριμένα Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics και Unitree. Σε γενικές γραμμές, υποθέτω ότι έχετε δει κυρίως τα ρομπότ της Boston Dynamics, όπως αυτά που τριγυρίζουν στα τέσσερα. Μοιάζουν σαν να είναι σαν σκύλοι και απολαμβάνουμε να τους βλέπουμε να τρέχουν τριγύρω.

Όπως έχω προειδοποιήσει προηγουμένως και επανειλημμένα, η χρήση τέτοιων «χορευτικών» ρομπότ ως μέσο για να πειστεί το ευρύ κοινό ότι αυτά τα ρομπότ είναι χαριτωμένα και αξιολάτρευτα είναι δυστυχώς παραπλανητική και στρέφεται στις άφθονες παγίδες της ανθρωπομορφοποίησής τους. Αρχίζουμε να σκεφτόμαστε αυτά τα σκληρυμένα κομμάτια μετάλλου και πλαστικού σαν να είναι ισοδύναμα ενός φιλόξενου πιστού σκύλου. Η προθυμία μας να αποδεχτούμε αυτά τα ρομπότ βασίζεται σε μια ψευδή αίσθηση ασφάλειας και σιγουριάς. Σίγουρα, πρέπει να κερδίσετε χρήματα και οι πιθανότητες να το κάνετε ενισχύονται με την παρέλαση γύρω από ρομπότ που χορεύουν, αλλά αυτό δυστυχώς παραλείπει ή φαινομενικά κρύβει το πραγματικό γεγονός ότι αυτά τα ρομπότ είναι ρομπότ και ότι η τεχνητή νοημοσύνη που ελέγχει τα ρομπότ μπορεί να επινοηθεί λανθασμένα ή να στραβώσει.

Σκεφτείτε αυτές τις προεκτάσεις της τεχνητής νοημοσύνης (απόσπασμα από το άρθρο μου σχετικά με την όπλα τεχνητής νοημοσύνης, που βρίσκεται στο ο σύνδεσμος εδώ):

  • Η τεχνητή νοημοσύνη μπορεί να αντιμετωπίσει ένα σφάλμα που θα την κάνει να παραστρατήσει
  • Η τεχνητή νοημοσύνη μπορεί να κατακλυστεί και να κλειδωθεί χωρίς να ανταποκρίνεται
  • Η τεχνητή νοημοσύνη μπορεί να περιέχει σφάλματα προγραμματιστή που προκαλούν ακανόνιστη συμπεριφορά
  • Η τεχνητή νοημοσύνη μπορεί να έχει καταστραφεί με εμφυτευμένο ιό του κακού
  • Η τεχνητή νοημοσύνη μπορεί να καταληφθεί από κυβερνοχάκερ σε πραγματικό χρόνο
  • Η τεχνητή νοημοσύνη μπορεί να θεωρηθεί απρόβλεπτη λόγω πολυπλοκότητας
  • Η τεχνητή νοημοσύνη μπορεί υπολογιστικά να πάρει τη «λάθος» απόφαση (σχετικά)
  • Κλπ

Αυτά είναι σημεία σχετικά με την τεχνητή νοημοσύνη που είναι του τύπου που επινοήθηκε πραγματικά στην αρχή για να κάνει το σωστό.

Εκτός από αυτά τα ζητήματα, πρέπει να συμπεριλάβετε συστήματα AI που δημιουργήθηκαν από την αρχή για να κάνουν κακά πράγματα. Μπορείτε να έχετε AI που έχει κατασκευαστεί για ευεργετικούς σκοπούς, που συχνά αναφέρεται ως AI για καλό. Μπορείτε επίσης να έχετε τεχνητή νοημοσύνη που έχει δημιουργηθεί σκόπιμα για κακούς σκοπούς, γνωστή ως AI για κακό. Επιπλέον, μπορείτε να έχετε AI για καλό που έχει αλλοιωθεί ή μετατραπεί σε γίγνεσθαι AI για κακό.

Παρεμπιπτόντως, τίποτα από αυτά δεν έχει καμία σχέση με το να γίνει αισθητή η τεχνητή νοημοσύνη, κάτι που το αναφέρω γιατί κάποιοι συνεχίζουν να αναφωνούν ότι η σημερινή τεχνητή νοημοσύνη είναι είτε αισθητή είτε στα πρόθυρα να γίνει αισθητή. Οχι τόσο. Ξεχωρίζω αυτούς τους μύθους στην ανάλυσή μου στο ο σύνδεσμος εδώ.

Ας βεβαιωθούμε λοιπόν ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες σχετικά με την αισθανόμενη τεχνητή νοημοσύνη, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι κάποιοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Θα πρότεινα ανεπιφύλακτα να κρατήσουμε τα πράγματα στη γη και να εξετάσουμε τη σημερινή υπολογιστική μη αισθητή τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Να είστε πολύ προσεκτικοί στην ανθρωπομορφοποίηση της σημερινής τεχνητής νοημοσύνης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων πλέον προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές της τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Όλα αυτά έχουν ιδιαίτερα σημαντικές επιπτώσεις στην ηθική της τεχνητής νοημοσύνης και προσφέρουν ένα εύχρηστο παράθυρο στα διδάγματα που αντλήθηκαν (ακόμα και πριν συμβούν όλα τα μαθήματα) όταν πρόκειται να προσπαθήσουμε να νομοθετήσουμε την τεχνητή νοημοσύνη.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε προηγούμενες στήλες, έχω καλύψει τις διάφορες εθνικές και διεθνείς προσπάθειες για τη δημιουργία και τη θέσπιση νόμων που ρυθμίζουν την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ, για παράδειγμα. Έχω επίσης καλύψει τις διάφορες αρχές και κατευθυντήριες γραμμές για την ηθική της τεχνητής νοημοσύνης που έχουν προσδιορίσει και υιοθετήσει διάφορα έθνη, συμπεριλαμβανομένης για παράδειγμα της προσπάθειας των Ηνωμένων Εθνών, όπως το σύνολο της UNESCO για Δεοντολογία της Τεχνητής Νοημοσύνης που υιοθέτησαν σχεδόν 200 χώρες, βλ. ο σύνδεσμος εδώ.

Ακολουθεί μια χρήσιμη βασική λίστα κριτηρίων ή χαρακτηριστικών ηθικής τεχνητής νοημοσύνης σχετικά με συστήματα τεχνητής νοημοσύνης που έχω εξερευνήσει προσεκτικά στο παρελθόν:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης υποτίθεται ότι χρησιμοποιούνται ένθερμα από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνες που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης.

Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή εκείνοι που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως τονίστηκε προηγουμένως εδώ, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Τώρα που έθεσα μια χρήσιμη βάση για να μπω στην Ανοιχτή Επιστολή, είμαστε έτοιμοι να βουτήξουμε.

Ο επίσημος θεματικός τίτλος της Ανοιχτής Επιστολής είναι αυτός:

  • "Μια ανοιχτή επιστολή προς τη βιομηχανία ρομποτικής και τις κοινότητές μας, τα ρομπότ γενικής χρήσης δεν πρέπει να οπλίζονται” (όπως δημοσιεύτηκε στο διαδίκτυο).

Μέχρι εδώ καλά.

Ο τίτλος μοιάζει σχεδόν με παγωτό και μηλόπιτα. Πώς θα μπορούσε κανείς να το αμφισβητήσει αυτό ως μια παλαιότερη έκκληση για αποφυγή οπλισμού ρομπότ AI;

Διαβάστε παρακάτω για να δείτε.

Πρώτον, ως τροφή προς εξέταση, εδώ είναι η επίσημη εναρκτήρια παράγραφος της Ανοιχτής Επιστολής:

  • «Είμαστε μερικές από τις κορυφαίες εταιρείες παγκοσμίως αφοσιωμένες στην εισαγωγή νέων γενεών προηγμένης ρομποτικής κινητής τηλεφωνίας στην κοινωνία. Αυτές οι νέες γενιές ρομπότ είναι πιο προσιτές, ευκολότερες στη λειτουργία, πιο αυτόνομες, προσιτές και προσαρμόσιμες από τις προηγούμενες γενιές και ικανές να πλοηγούνται σε τοποθεσίες που προηγουμένως δεν ήταν προσβάσιμες σε αυτοματοποιημένες ή τηλεκατευθυνόμενες τεχνολογίες. Πιστεύουμε ότι τα προηγμένα κινητά ρομπότ θα προσφέρουν μεγάλο όφελος στην κοινωνία ως συνεργάτες στη βιομηχανία και σύντροφοι στα σπίτια μας» (όπως δημοσιεύτηκε στο διαδίκτυο).

Η ηλιόλουστη πλευρά της εμφάνισης αυτών των τύπων ρομπότ είναι ότι μπορούμε να προβλέψουμε πολλά μεγάλα οφέλη που θα προκύψουν. Καμιά αμφιβολία γι 'αυτό. Μπορεί να έχετε ένα ρομπότ στο σπίτι σας που μπορεί να κάνει αυτές τις δραστηριότητες που μοιάζουν με Jetson, όπως το καθάρισμα του σπιτιού σας, το πλύσιμο των πιάτων σας και άλλες δουλειές του σπιτιού. Θα έχουμε προηγμένα ρομπότ για χρήση σε εργοστάσια και εγκαταστάσεις παραγωγής. Τα ρομπότ μπορούν ενδεχομένως να σέρνονται ή να κάνουν ελιγμούς σε στενούς χώρους, όπως όταν ένα κτίριο καταρρέει και διακυβεύονται ανθρώπινες ζωές για να σωθούν. Και ούτω καθεξής.

Επιπλέον, μπορεί να σας ενδιαφέρει η πρόσφατη κρίσιμη κάλυψη της ημέρας Tesla AI, κατά την οποία ορισμένα είδη ρομπότ περπατώντας απεικονίστηκαν από τον Elon Musk ως το μέλλον για τον Tesla και την κοινωνία, βλ. ο σύνδεσμος εδώ.

Επιστροφή στο θέμα. Όταν συζητάμε σοβαρά για τα ρομπότ που χορεύουν ή για τα ρομπότ που περπατούν, πρέπει να λαμβάνουμε υπόψη μας τις ανταλλαγές ή το συνολικό ROI (Return on Investment) αυτής της χρήσης της AI. Δεν πρέπει να επιτρέπουμε στον εαυτό μας να ερωτευόμαστε υπερβολικά από τα οφέλη όταν πρέπει να ληφθούν υπόψη και κόστη.

Ένα νέο γυαλιστερό παιχνίδι μπορεί να έχει μάλλον αιχμηρές άκρες.

Όλα αυτά υποκινούν ένα σημαντικό αλλά κάπως σιωπηλό σημείο ότι μέρος του λόγου που τίθεται τώρα το ζήτημα της οπλοποίησης AI οφείλεται στην πρόοδο της τεχνητής νοημοσύνης προς την αυτόνομη δραστηριότητα. Συνήθως περιμέναμε ότι τα όπλα είναι γενικά ανθρώπινης λειτουργίας. Ένας άνθρωπος αποφασίζει αν θα πυροβολήσει ή θα εμπλακεί με το όπλο. Προφανώς μπορούμε να θεωρήσουμε αυτόν τον άνθρωπο υπεύθυνο για τις πράξεις του.

Η τεχνητή νοημοσύνη που έχει σχεδιαστεί για να λειτουργεί αυτόνομα ή που μπορεί να εξαπατηθεί για να το κάνει, φαινομενικά θα αφαιρούσε τον άνθρωπο από τον βρόχο. Στη συνέχεια, το AI λαμβάνει αλγοριθμικά υπολογιστικές αποφάσεις που μπορεί να καταλήξουν να σκοτώσουν ή να βλάψουν ανθρώπους. Εκτός από τις προφανείς ανησυχίες σχετικά με την έλλειψη ελέγχου επί της τεχνητής νοημοσύνης, έχετε επίσης τους ενδοιασμούς ότι μπορεί να έχουμε έναν επίπονο χρόνο για να προσδιορίσουμε την ευθύνη ως προς τις ενέργειες της τεχνητής νοημοσύνης. Δεν έχουμε άνθρωπο που να είναι ο προφανής εμπνευστής μας.

Συνειδητοποιώ ότι ορισμένοι πιστεύουν ότι πρέπει απλά και άμεσα να θεωρούμε την τεχνητή νοημοσύνη υπεύθυνη για τις ενέργειές της, σαν να έχει αποκτήσει η τεχνητή νοημοσύνη ή με άλλον τρόπο την ιδιότητα του νομικού προσώπου (βλ. ο σύνδεσμος εδώ). Αυτό δεν πρόκειται να λειτουργήσει προς το παρόν. Θα πρέπει να ανιχνεύσουμε την τεχνητή νοημοσύνη στους ανθρώπους που είτε την επινόησαν είτε που την έδωσαν. Αναμφίβολα θα προσπαθήσουν να αποφύγουν νομικά την ευθύνη προσπαθώντας να υποστηρίξουν ότι η τεχνητή νοημοσύνη ξεπέρασε αυτό που είχαν οραματιστεί. Αυτή είναι μια αυξανόμενη διαμάχη που πρέπει να αντιμετωπίσουμε (δείτε τα κείμενά μου στον νόμο AI για πληροφορίες σχετικά με τα επίμαχα ζητήματα που εμπλέκονται).

Τα Ηνωμένα Έθνη (ΟΗΕ) μέσω της Σύμβασης για ορισμένα συμβατικά όπλα (CCW) στη Γενεύη έχουν θεσπίσει έντεκα μη δεσμευτικές κατευθυντήριες αρχές για τα θανατηφόρα αυτόνομα όπλα, σύμφωνα με την επίσημη έκθεση που δημοσιεύτηκε στο Διαδίκτυο (που περιλαμβάνει αναφορές σε σχετικές διατάξεις του Διεθνούς Ανθρωπιστικού Δικαίου ή του ΔΑΔ). , συμπεριλαμβανομένου:

(α) Το διεθνές ανθρωπιστικό δίκαιο εξακολουθεί να εφαρμόζεται πλήρως σε όλα τα οπλικά συστήματα, συμπεριλαμβανομένης της πιθανής ανάπτυξης και χρήσης θανατηφόρων αυτόνομων οπλικών συστημάτων·

(β) Η ανθρώπινη ευθύνη για αποφάσεις σχετικά με τη χρήση οπλικών συστημάτων πρέπει να διατηρηθεί, καθώς η ευθύνη δεν μπορεί να μεταβιβαστεί σε μηχανές. Αυτό θα πρέπει να λαμβάνεται υπόψη σε ολόκληρο τον κύκλο ζωής του οπλικού συστήματος.

(γ) Η αλληλεπίδραση ανθρώπου-μηχανής, η οποία μπορεί να λάβει διάφορες μορφές και να εφαρμοστεί σε διάφορα στάδια του κύκλου ζωής ενός όπλου, θα πρέπει να διασφαλίζει ότι η πιθανή χρήση οπλικών συστημάτων που βασίζονται σε αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων βρίσκεται σε συμμόρφωση με το εφαρμοστέο διεθνές δίκαιο, ιδίως το ΔΑΔ. Κατά τον προσδιορισμό της ποιότητας και της έκτασης της αλληλεπίδρασης ανθρώπου-μηχανής, θα πρέπει να λαμβάνεται υπόψη μια σειρά παραγόντων, συμπεριλαμβανομένου του επιχειρησιακού πλαισίου και των χαρακτηριστικών και των δυνατοτήτων του οπλικού συστήματος στο σύνολό του.

(δ) Η λογοδοσία για την ανάπτυξη, ανάπτυξη και χρήση οποιουδήποτε αναδυόμενου οπλικού συστήματος στο πλαίσιο της CCW πρέπει να διασφαλίζεται σύμφωνα με το ισχύον διεθνές δίκαιο, μεταξύ άλλων μέσω της λειτουργίας τέτοιων συστημάτων εντός μιας υπεύθυνης αλυσίδας ανθρώπινης διοίκησης και ελέγχου.

(ε) Σύμφωνα με τις υποχρεώσεις των κρατών βάσει του διεθνούς δικαίου, κατά τη μελέτη, ανάπτυξη, απόκτηση ή υιοθέτηση ενός νέου όπλου, μέσων ή μεθόδου πολέμου, πρέπει να καθοριστεί εάν η χρήση του, σε ορισμένες ή όλες τις περιστάσεις, θα ήταν απαγορεύεται από το διεθνές δίκαιο·

(στ) Κατά την ανάπτυξη ή την απόκτηση νέων οπλικών συστημάτων που βασίζονται σε αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων, τη φυσική ασφάλεια, τις κατάλληλες μη φυσικές διασφαλίσεις (συμπεριλαμβανομένης της ασφάλειας στον κυβερνοχώρο κατά της πειρατείας ή της πλαστογράφησης δεδομένων), τον κίνδυνο απόκτησης από τρομοκρατικές ομάδες και ο κίνδυνος διάδοσης πρέπει να λαμβάνεται υπόψη·

(ζ) Οι εκτιμήσεις κινδύνου και τα μέτρα μετριασμού θα πρέπει να αποτελούν μέρος του κύκλου σχεδιασμού, ανάπτυξης, δοκιμών και ανάπτυξης αναδυόμενων τεχνολογιών σε οποιαδήποτε οπλικά συστήματα·

(η) Θα πρέπει να ληφθεί υπόψη η χρήση αναδυόμενων τεχνολογιών στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων για την τήρηση της συμμόρφωσης με το ΔΑΔ και άλλες ισχύουσες διεθνείς νομικές υποχρεώσεις·

(i) Κατά τη χάραξη πιθανών μέτρων πολιτικής, οι αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων δεν θα πρέπει να ανθρωπομορφοποιούνται·

(ι) Οι συζητήσεις και τυχόν μέτρα πολιτικής που λαμβάνονται στο πλαίσιο της CCW δεν θα πρέπει να εμποδίζουν την πρόοδο ή την πρόσβαση σε ειρηνικές χρήσεις ευφυών αυτόνομων τεχνολογιών.

(ια) Η CCW προσφέρει ένα κατάλληλο πλαίσιο για την αντιμετώπιση του ζητήματος των αναδυόμενων τεχνολογιών στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων στο πλαίσιο των στόχων και των σκοπών της Σύμβασης, η οποία επιδιώκει να επιτύχει μια ισορροπία μεταξύ στρατιωτικής αναγκαιότητας και ανθρωπιστικών εκτιμήσεων.

Αυτοί και άλλοι διάφοροι νόμοι πολέμου και νόμοι ένοπλων συγκρούσεων ή IHL (International Humanitarian Laws) χρησιμεύουν ως ένας ζωτικής σημασίας και πολλά υποσχόμενος οδηγός για να εξετάσουμε τι θα μπορούσαμε να προσπαθήσουμε να κάνουμε σχετικά με την εμφάνιση αυτόνομων συστημάτων που είναι οπλισμένα, είτε με βάση σχεδιασμό ή με μεθόδους εκ των υστέρων.

Κάποιοι λένε ότι πρέπει να απαγορεύσουμε ρητά αυτά τα αυτόνομα συστήματα τεχνητής νοημοσύνης που μπορούν να οπλιστούν. Αυτό είναι σωστό, ο κόσμος θα πρέπει να βάλει το πόδι του κάτω και να απαιτήσει σθεναρά ότι τα αυτόνομα συστήματα τεχνητής νοημοσύνης δεν πρέπει ποτέ να οπλιστούν. Θα επιβληθεί πλήρης απαγόρευση. Τέλος της ιστορίας. Τελεία, τελεία.

Λοιπόν, μπορούμε ειλικρινά να ευχηθούμε να τηρηθεί αυστηρά και υπάκουα η απαγόρευση των θανατηφόρων οπλισμένων αυτόνομων συστημάτων. Το πρόβλημα είναι ότι είναι βέβαιο ότι θα βρεθούν πολλά περιθώρια κουνήματος σε οποιαδήποτε από τις πιο ειλικρινείς απαγορεύσεις. Όπως λένε, οι κανόνες προορίζονται για να παραβιάζονται. Μπορείτε να στοιχηματίσετε ότι, όπου τα πράγματα είναι χαλαρά, οι ριφάδες θα λύσουν τα κενά και θα προσπαθήσουν να κλείσουν το μάτι τους γύρω από τους κανόνες.

Ακολουθούν ορισμένα πιθανά κενά που αξίζει να εξεταστούν:

  • Αξιώσεις μη θανατηφόρων. Φτιάξτε μη θανατηφόρα αυτόνομα οπλικά συστήματα (φαινομενικά εντάξει δεδομένου ότι είναι εκτός των ορίων απαγόρευσης), τα οποία μπορείτε στη συνέχεια να μετατρέψετε σε μια δεκάρα να γίνουν θανατηφόρα (θα ξεπεράσετε την απαγόρευση μόνο την τελευταία στιγμή).
  • Αξιώσεις μόνο για αυτόνομο σύστημα. Υποστηρίξτε την απαγόρευση μη φτιάχνοντας αυτόνομα συστήματα εστιασμένα στα θανατηφόρα, εν τω μεταξύ, σημειώστε τόση πρόοδο στην επινόηση καθημερινών αυτόνομων συστημάτων που δεν είναι (ακόμα) οπλισμένα αλλά που μπορείτε να τα εξοπλίσετε για να τα οπλίσετε.
  • Αξιώσεις μη ενσωματωμένων ως ενιαίων. Κατασκευάστε αυτόνομα συστήματα που δεν είναι καθόλου οπλισμένα και όταν έρθει η ώρα, οπλισμός piggyback έτσι ώστε να μπορείτε να προσπαθήσετε να υποστηρίξετε έντονα ότι είναι δύο ξεχωριστά στοιχεία και επομένως να ισχυριστείτε ότι δεν εμπίπτουν στη ρουμπρίκα ενός all-in-one αυτόνομο οπλικό σύστημα ή τον ξάδερφό του.
  • Ισχυρίζεται ότι δεν είναι αυτόνομο. Φτιάξτε ένα οπλικό σύστημα που δεν φαίνεται να έχει αυτόνομες δυνατότητες. Αφήστε χώρο σε αυτό το πιθανώς μη αυτόνομο σύστημα για την απόρριψη της αυτονομίας που βασίζεται στην τεχνητή νοημοσύνη. Όταν χρειαστεί, συνδέστε την αυτονομία και είστε έτοιμοι να ρολάρετε (μέχρι τότε, φαινομενικά δεν παραβιάζατε την απαγόρευση).
  • ΑΛΛΑ

Υπάρχουν πολλές άλλες εκφρασμένες δυσκολίες στην προσπάθεια να απαγορευτούν εντελώς τα θανατηφόρα αυτόνομα οπλικά συστήματα. Θα καλύψω μερικά ακόμη από αυτά.

Ορισμένοι ειδικοί υποστηρίζουν ότι η απαγόρευση δεν είναι ιδιαίτερα χρήσιμη και αντ' αυτού θα πρέπει να υπάρχουν ρυθμιστικές διατάξεις. Η ιδέα είναι ότι αυτά τα μηχανήματα θα επιτρέπονται αλλά θα ελέγχονται αυστηρά. Παρουσιάζεται μια σειρά από νόμιμες χρήσεις, μαζί με νόμιμους τρόπους στόχευσης, νόμιμους τύπους δυνατοτήτων, νόμιμη αναλογικότητα και παρόμοια.

Κατά την άποψή τους, μια απευθείας απαγόρευση είναι σαν να βάζεις το κεφάλι σου στην άμμο και να προσποιείσαι ότι ο ελέφαντας στο δωμάτιο δεν υπάρχει. Ωστόσο, αυτή η διαμάχη προκαλεί το αίμα εκείνων που έρχονται σε αντίθεση με το επιχείρημα ότι με τη θέσπιση απαγόρευσης μπορείτε να μειώσετε δραματικά τον κατά τα άλλα πειρασμό να επιδιώξετε τέτοιου είδους συστήματα. Σίγουρα, κάποιοι θα καμαρώσουν την απαγόρευση, αλλά τουλάχιστον ελπίζουμε ότι οι περισσότεροι δεν θα το κάνουν. Στη συνέχεια, μπορείτε να εστιάσετε την προσοχή σας στους επιδεικνυόμενους και να μην χρειάζεται να διασπάσετε την προσοχή σας σε όλους.

Γύρω από αυτές τις συζητήσεις συνεχίζονται.

Μια άλλη ανησυχία που παρατηρείται συχνά είναι ότι ακόμα κι αν οι καλοί τηρήσουν την απαγόρευση, οι κακοί δεν θα το κάνουν. Αυτό βάζει το καλό σε μια άθλια στάση. Οι κακοί θα έχουν αυτού του είδους τα οπλισμένα αυτόνομα συστήματα και οι καλοί όχι. Μόλις αποκαλυφθούν τα πράγματα ότι τα έχουν οι κακοί, θα είναι πολύ αργά για να προλάβουν οι καλοί. Εν ολίγοις, το μόνο έξυπνο πράγμα που πρέπει να κάνετε είναι να προετοιμαστείτε να πολεμήσετε τη φωτιά με τη φωτιά.

Υπάρχει και η κλασική αντιπαράθεση αποτροπής. Εάν οι καλοί επιλέξουν να κατασκευάσουν οπλισμένα αυτόνομα συστήματα, αυτό μπορεί να χρησιμοποιηθεί για να αποτρέψει τους κακούς από το να επιδιώξουν να μπουν σε μια διαμάχη. Είτε οι καλοί θα είναι καλύτερα οπλισμένοι και έτσι θα αποτρέψουν τους κακούς, είτε οι καλοί θα είναι έτοιμοι όταν οι κακοί ίσως αποκαλύψουν ότι επινοούσαν κρυφά αυτά τα συστήματα σε όλη τη διάρκεια.

Ένα αντίθετο σε αυτούς τους μετρητές είναι ότι φτιάχνοντας οπλισμένα αυτόνομα συστήματα, διεξάγετε μια κούρσα εξοπλισμών. Η άλλη πλευρά θα επιδιώξει να έχει το ίδιο. Ακόμα κι αν δεν είναι τεχνολογικά σε θέση να δημιουργήσουν ξανά τέτοια συστήματα, θα μπορούν τώρα να κλέψουν τα σχέδια των «καλών», να αντιστρέψουν τα κότσια υψηλής τεχνολογίας ή να μιμηθούν οτιδήποτε φαίνεται να θεωρούν δοκιμασμένο και αληθινό. τρόπος για να γίνει η δουλειά.

Αχα, κάποιοι απαντούν, όλα αυτά μπορεί να οδηγήσουν σε μείωση των συγκρούσεων κατά ένα φαινομενικό αμοιβαίο. Εάν η πλευρά Α γνωρίζει ότι η πλευρά Β έχει αυτά τα θανατηφόρα όπλα αυτόνομων συστημάτων, και η πλευρά Β γνωρίζει ότι η πλευρά Α τα έχει, μπορεί να καθίσει σφιχτά και να μην έρθει σε σύγκρουση. Αυτό έχει αυτή την ξεχωριστή αύρα αμοιβαίως εξασφαλισμένης καταστροφής (MAD).

Και ούτω καθεξής.

Κοιτάζοντας προσεκτικά τη δεύτερη παράγραφο

Έχουμε ήδη καλύψει πολλά σημεία εδώ και μόνο μέχρι στιγμής εξετάσαμε την πρώτη ή την αρχική παράγραφο της Ανοιχτής Επιστολής (υπάρχουν τέσσερις παράγραφοι συνολικά).

Ώρα να ρίξετε μια ματιά στη δεύτερη παράγραφο, ορίστε:

  • «Όπως συμβαίνει με κάθε νέα τεχνολογία που προσφέρει νέες δυνατότητες, η εμφάνιση προηγμένων κινητών ρομπότ προσφέρει τη δυνατότητα κακής χρήσης. Αναξιόπιστοι άνθρωποι θα μπορούσαν να τα χρησιμοποιήσουν για να εισβάλουν στα πολιτικά δικαιώματα ή για να απειλήσουν, να βλάψουν ή να εκφοβίσουν άλλους. Ένας τομέας που προκαλεί ιδιαίτερη ανησυχία είναι ο οπλισμός. Πιστεύουμε ότι η προσθήκη όπλων σε ρομπότ που λειτουργούν εξ αποστάσεως ή αυτόνομα, είναι ευρέως διαθέσιμα στο κοινό και είναι ικανά να πλοηγούνται σε προηγουμένως απρόσιτες τοποθεσίες όπου ζουν και εργάζονται άνθρωποι, εγείρει νέους κινδύνους βλάβης και σοβαρά ηθικά ζητήματα. Οι οπλισμένες εφαρμογές αυτών των πρόσφατα ικανών ρομπότ θα βλάψουν επίσης την εμπιστοσύνη του κοινού στην τεχνολογία με τρόπους που βλάπτουν τα τεράστια οφέλη που θα φέρουν στην κοινωνία. Για αυτούς τους λόγους, δεν υποστηρίζουμε τον οπλισμό των ρομπότ γενικής χρήσης προηγμένης κινητικότητας. Για όσους από εμάς έχουμε μιλήσει για αυτό το θέμα στο παρελθόν, και όσοι ασχολούνται για πρώτη φορά, νιώθουμε τώρα εκ νέου επείγουσα ανάγκη υπό το φως της αυξανόμενης δημόσιας ανησυχίας τους τελευταίους μήνες που προκαλείται από έναν μικρό αριθμό ανθρώπων που έχουν εμφανώς δημοσιοποιήσει τα αυτοσχέδια τους προσπάθειες να οπλιστούν τα εμπορικά διαθέσιμα ρομπότ» (όπως δημοσιεύτηκε στο διαδίκτυο).

Με την ανάγνωση αυτής της δεύτερης παραγράφου, ελπίζω να μπορείτε να δείτε πώς έρχεται στο προσκήνιο η προηγούμενη ομιλία μου εδώ σχετικά με τον οπλισμό με τεχνητή νοημοσύνη.

Ας εξετάσουμε μερικά επιπλέον σημεία.

Ένας κάπως ενδοιασμός σχετικά με μια συγκεκριμένη πτυχή της διατύπωσης που έχει κάνει το κέφι από μερικούς είναι ότι η αφήγηση φαίνεται να τονίζει ότι «αναξιόπιστοι άνθρωποι» θα μπορούσαν να κάνουν κατάχρηση αυτών των ρομπότ τεχνητής νοημοσύνης. Ναι, πράγματι, θα μπορούσαν να είναι κακοί άνθρωποι ή κακοποιοί που επιφέρουν άθλιες πράξεις που θα «κακομεταχειριστούν» ρομπότ τεχνητής νοημοσύνης.

Ταυτόχρονα, όπως επισημάνθηκε στην αρχή αυτής της συζήτησης, πρέπει επίσης να καταστήσουμε σαφές ότι η ίδια η τεχνητή νοημοσύνη θα μπορούσε να πάει στραβά, πιθανώς λόγω ενσωματωμένων σφαλμάτων ή σφαλμάτων και άλλων παρόμοιων επιπλοκών. Η εκφρασμένη ανησυχία είναι ότι μόνο τονίζοντας τις πιθανότητες αναξιόπιστοι άνθρωποι είναι ότι φαίνεται να αγνοεί άλλες δυσμενείς πιθανότητες. Αν και οι περισσότερες εταιρείες και προμηθευτές τεχνητής νοημοσύνης απεχθάνονται να το παραδεχτούν, υπάρχει πληθώρα ζητημάτων συστημάτων τεχνητής νοημοσύνης που μπορούν να υπονομεύσουν την ασφάλεια και την αξιοπιστία των αυτόνομων συστημάτων. Για την κάλυψη της ασφάλειας της τεχνητής νοημοσύνης και την ανάγκη για αυστηρές και αποδείξιμες διασφαλίσεις, βλ ο σύνδεσμος εδώ, Για παράδειγμα.

Ένα άλλο αξιοσημείωτο σημείο που προέκυψε μεταξύ εκείνων που εξέτασαν την Ανοιχτή Επιστολή συνεπάγεται τον περιλαμβανόμενο ισχυρισμό ότι θα μπορούσε να καταλήξει να υποτιμηθεί η εμπιστοσύνη του κοινού που σχετίζεται με τα ρομπότ τεχνητής νοημοσύνης.

Από τη μια πλευρά, αυτός είναι ένας έγκυρος ισχυρισμός. Εάν τα ρομπότ AI χρησιμοποιούνται για να κάνουν κακές προσφορές, μπορείτε να στοιχηματίσετε ότι το κοινό θα ενθουσιαστεί αρκετά. Όταν το κοινό εξοργιστεί, μπορείτε να στοιχηματίσετε ότι οι νομοθέτες θα πηδήξουν στην επιδρομή και θα επιδιώξουν να θεσπίσουν νόμους που περιορίζουν τα ρομπότ τεχνητής νοημοσύνης και τους κατασκευαστές ρομποτικών τεχνητής νοημοσύνης. Αυτό με τη σειρά του θα μπορούσε να ακρωτηριάσει τη βιομηχανία ρομποτικής τεχνητής νοημοσύνης, εάν οι νόμοι είναι περιεκτικοί και τερματίσουν τις προσπάθειες που αφορούν ρομποτικά οφέλη τεχνητής νοημοσύνης. Κατά μία έννοια, το μωρό θα μπορούσε να πεταχτεί έξω με το νερό του μπάνιου (μια παλιά έκφραση, που μάλλον αξίζει να αποσυρθεί).

Το προφανές ερώτημα που τίθεται επίσης είναι εάν αυτός ο ισχυρισμός σχετικά με την αποτροπή της μείωσης της εμπιστοσύνης του κοινού στα ρομπότ τεχνητής νοημοσύνης είναι μια κάπως ιδιοτελής πίστη ή αν είναι για το καλό όλων μας (μπορεί να είναι και τα δύο;).

Εσύ αποφασίζεις.

Ερχόμαστε τώρα στο ιδιαίτερα κρεατικό μέρος της Ανοιχτής Επιστολής:

  • «Δεσμευόμαστε ότι δεν θα οπλίσουμε τα ρομπότ γενικής χρήσης προηγμένης κινητικότητας ή το λογισμικό που αναπτύσσουμε που επιτρέπει την προηγμένη ρομποτική και δεν θα υποστηρίξουμε άλλους να το κάνουν. Όταν είναι δυνατόν, θα εξετάσουμε προσεκτικά τις εφαρμογές των πελατών μας για να αποφύγουμε πιθανή όπλα. Δεσμευόμαστε επίσης να διερευνήσουμε την ανάπτυξη τεχνολογικών χαρακτηριστικών που θα μπορούσαν να μετριάσουν ή να μειώσουν αυτούς τους κινδύνους. Για να είμαστε σαφείς, δεν διαφωνούμε με τις υπάρχουσες τεχνολογίες που χρησιμοποιούν τα έθνη και οι κυβερνητικές υπηρεσίες τους για να υπερασπιστούν τους εαυτούς τους και να τηρήσουν τους νόμους τους» (όπως δημοσιεύτηκε στο διαδίκτυο).

Μπορούμε να το αποσυσκευάσουμε αυτό.

Καθίστε και προετοιμαστείτε ανάλογα.

Είστε έτοιμοι για κάποια φλογερή πόλωση;

Από την ευνοϊκή πλευρά, ορισμένοι προαναγγέλλουν φωνητικά ότι αυτοί οι κατασκευαστές ρομπότ τεχνητής νοημοσύνης θα έκαναν μια τέτοια υπόσχεση. Φαίνεται ότι αυτοί οι κατασκευαστές ρομπότ θα προσπαθήσουν ευτυχώς να μην οπλίσουν τα ρομπότ «προηγμένης κινητικότητας γενικής χρήσης». Επιπλέον, η Ανοιχτή Επιστολή λέει ότι δεν θα υποστηρίξουν άλλους που το κάνουν.

Οι κριτικοί αναρωτιούνται αν υπάρχει κάποια έξυπνη λογοτεχνία.

Για παράδειγμα, πού ξεκινά και πού τελειώνει η «προηγμένη κινητικότητα»; Εάν ένας κατασκευαστής ρομπότ επινοεί α απλός-ρομπότ τεχνητής νοημοσύνης κινητικότητας αντί για προηγμένο (που είναι μια απροσδιόριστη ορολογία της τεχνολογίας), εξαιρείται από το πεδίο εφαρμογής του δεν να είναι οπλισμένος; Επομένως, προφανώς, είναι εντάξει να οπλίζουμε ρομπότ τεχνητής νοημοσύνης απλής κινητικότητας, εφόσον δεν είναι τα λεγόμενα προηγμένες.

Το ίδιο ισχύει και για τη διατύπωση των ρομπότ γενικής χρήσης. Εάν ένα ρομπότ τεχνητής νοημοσύνης έχει σχεδιαστεί ειδικά για οπλισμό και επομένως δεν είναι, θα πούμε α γενικού σκοπού ρομπότ, γίνεται αυτό βιώσιμος αποκλεισμός από το πεδίο εφαρμογής;

Μπορεί να διαφωνήσετε με αυτές τις κουβέντες και να υποστηρίξετε ένθερμα ότι πρόκειται απλώς για μια Ανοιχτή Επιστολή και όχι για ένα νομικό έγγραφο πενήντα σελίδων που περιγράφει κάθε γωνιά και γωνιά.

Αυτό μας φέρνει στον φαινομενικά πιο μακροοικονομικό ενδοιασμό που εκφράζεται από ορισμένους. Στην ουσία, τι σημαίνει «ενέχυρο»;

Κάποιοι ρωτούν, πού είναι το βόειο κρέας;

Μια εταιρεία που κάνει μια υπόσχεση όπως αυτή φαίνεται ότι το κάνει χωρίς κανένα πραγματικό μερίδιο στο παιχνίδι. Εάν η κορυφαία εταιρεία οποιασδήποτε εταιρείας που εγγράφεται για αυτήν τη δέσμευση αποφασίσει να μην τηρήσει πλέον τη δέσμευση, τι θα συμβεί σε αυτήν την εταιρεία; Θα πάρουν συνοπτικά κονσέρβες τα στελέχη; Θα κλείσει η εταιρεία και θα ζητήσει άφθονα συγγνώμη για την παραβίαση της υπόσχεσης; Και ούτω καθεξής.

Από όσο μπορεί να συναχθεί, δεν υπάρχει ιδιαίτερη ποινή ή κύρωση για οποιαδήποτε παράβαση της δέσμευσης.

Μπορεί να υποστηρίξετε ότι υπάρχει πιθανότητα βλάβης της φήμης. Μια εταιρεία ενεχυρίασης μπορεί να καταδιώκεται στην αγορά επειδή έχει κάνει μια υπόσχεση που δεν τηρούσε πλέον. Φυσικά, αυτό προϋποθέτει επίσης ότι οι άνθρωποι θα θυμούνται ότι η υπόσχεση έγινε. Υποθέτει επίσης ότι η παραβίαση της δέσμευσης θα εντοπιστεί με κάποιο τρόπο (φαίνεται σαφώς απίθανο μια εταιρεία να τα πει όλα αν το κάνει). Ο παραβάτης της δέσμευσης θα έπρεπε να κληθεί και παρόλα αυτά ένα τέτοιο ζήτημα θα μπορούσε να γίνει απλός θόρυβος στο συνεχιζόμενο τσουνάμι ειδήσεων σχετικά με τους κατασκευαστές ρομποτικής τεχνητής νοημοσύνης.

Σκεφτείτε μια άλλη γωνία που προέκυψε.

Μια εταιρεία ενεχύρου αγοράζεται από κάποια μεγαλύτερη εταιρεία. Η μεγαλύτερη εταιρεία επιλέγει να αρχίσει να μετατρέπει τα ρομπότ γενικής χρήσης προηγμένης κινητικότητας σε εκδόσεις με όπλα με τεχνητή νοημοσύνη.

Είναι αυτό παραβίαση της δέσμευσης;

Η μεγαλύτερη εταιρεία μπορεί να επιμείνει ότι δεν αποτελεί παραβίαση, καθώς αυτή (η μεγαλύτερη εταιρεία) δεν έκανε ποτέ τη δέσμευση. Εν τω μεταξύ, τα αβλαβή ρομπότ τεχνητής νοημοσύνης που έχει συγκεντρώσει και επινοήσει η μικρότερη εταιρεία, πράττοντάς το με φαινομενικά τις πιο αλτρουιστικές προθέσεις, μετατρέπονται σχεδόν σε μια νύχτα σε όπλα.

Κάπως υπονομεύει τη δέσμευση, αν και μπορείτε να πείτε ότι η μικρότερη εταιρεία δεν ήξερε ότι αυτό θα συνέβαινε κάποια μέρα. Ήταν ειλικρινείς στην επιθυμία τους. Ήταν εκτός ελέγχου τους ως προς το τι επέλεξε να κάνει η μεγαλύτερη αγοραστική εταιρεία.

Ορισμένοι ρωτούν επίσης εάν υπάρχει νομική ευθύνη σε αυτό.

Μια εταιρεία ενεχύρου αποφασίζει σε λίγους μήνες από τώρα ότι δεν πρόκειται να τηρήσει τη δέσμευση. Έχουν αλλάξει γνώμη. Μπορεί να μηνυθεί η εταιρεία επειδή εγκατέλειψε τη δέσμευση που είχε κάνει; Ποιος θα έκανε μήνυση; Ποια θα ήταν η βάση για την αγωγή; Προκύπτουν πολλά νομικά ζητήματα. Όπως λένε, μπορείς να μηνύσεις σχεδόν οποιονδήποτε, αλλά το αν θα επικρατήσεις είναι εντελώς διαφορετικό θέμα.

Σκεφτείτε το με άλλο τρόπο. Μια εταιρεία που δίνει δεσμεύσεις έχει την ευκαιρία να κάνει μια πραγματικά μεγάλη συμφωνία για να πουλήσει ένα ολόκληρο μάτσο από τα προηγμένα ρομπότ γενικής χρήσης της σε μια τεράστια εταιρεία που είναι πρόθυμη να πληρώσει από τη μύτη για να αποκτήσει τα ρομπότ. Είναι μια από αυτές τις προσφορές αγορών αξίας χιλιάδων δολαρίων που χρησιμοποιούνται μια φορά στη ζωή.

Τι πρέπει να κάνει η εταιρεία ρομποτικής AI;

Εάν η εταιρεία υποσχέσεων ρομποτικής τεχνητής νοημοσύνης διαπραγματεύεται δημόσια, είναι σχεδόν βέβαιο ότι θα στόχευαν να πραγματοποιήσουν την πώληση (το ίδιο θα μπορούσαμε να πούμε για μια ιδιωτική εταιρεία, αν και όχι ακριβώς). Φανταστείτε ότι η εταιρεία ενεχύρου ανησυχεί ότι ο αγοραστής μπορεί να προσπαθήσει να οπλίσει τα ρομπότ, αν και ας πούμε ότι δεν υπάρχει καμία τέτοια συζήτηση στο τραπέζι. Απλώς φημολογείται ότι ο αγοραστής μπορεί να το κάνει.

Αντίστοιχα, η εταιρεία δεσμεύσεων βάζει στην αδειοδότηση ότι τα ρομπότ δεν πρέπει να οπλίζονται. Ο αγοραστής διστάζει αυτή τη γλώσσα και απομακρύνεται από την αγορά.

Από πόσα κέρδη μόλις αποχώρησε η υπόσχεται εταιρεία ρομποτικής τεχνητής νοημοσύνης;

Υπάρχει κάποιο σημείο στο οποίο το εισπρακτικό κέρδος αντισταθμίζει τη συμπερίληψη της απαίτησης περιορισμού αδειοδότησης (ή, ίσως με νομική διατύπωση του περιορισμού, ώστε να υπάρχει χώρος περιστροφής και να συνεχιστεί η συμφωνία); Νομίζω ότι μπορείτε να δείτε το δίλημμα που εμπλέκεται. Τόνοι τέτοιων σεναρίων επινοούνται εύκολα. Το ερώτημα είναι αν αυτή η υπόσχεση θα έχει δόντια. Αν ναι, τι είδους δόντια;

Εν ολίγοις, όπως αναφέρθηκε στην αρχή αυτής της συζήτησης, ορισμένοι ενισχύονται ότι αυτό το είδος δέσμευσης γίνεται, ενώ άλλοι έχουν μια πιο αμυδρή άποψη για το εάν η υπόσχεση θα κρατήσει νερό.

Προχωράμε.

Getting A Pledge Going

Η τέταρτη και τελευταία παράγραφος της Ανοιχτής Επιστολής λέει τα εξής:

  • «Κατανοούμε ότι η δέσμευσή μας από μόνη της δεν αρκεί για την πλήρη αντιμετώπιση αυτών των κινδύνων, και ως εκ τούτου καλούμε τους υπεύθυνους χάραξης πολιτικής να συνεργαστούν μαζί μας για να προωθήσουμε την ασφαλή χρήση αυτών των ρομπότ και να απαγορεύσουμε την κακή χρήση τους. Καλούμε επίσης κάθε οργανισμό, προγραμματιστή, ερευνητή και χρήστη στην κοινότητα της ρομποτικής να κάνει παρόμοιες δεσμεύσεις για να μην κατασκευάσει, να εξουσιοδοτήσει, να υποστηρίξει ή να ενεργοποιήσει την προσάρτηση όπλων σε τέτοια ρομπότ. Είμαστε πεπεισμένοι ότι τα οφέλη για την ανθρωπότητα αυτών των τεχνολογιών υπερτερούν σημαντικά του κινδύνου κακής χρήσης και είμαστε ενθουσιασμένοι για ένα λαμπρό μέλλον στο οποίο άνθρωποι και ρομπότ θα εργάζονται δίπλα-δίπλα για να αντιμετωπίσουν ορισμένες από τις προκλήσεις του κόσμου» (όπως δημοσιεύτηκε στο διαδίκτυο).

Αυτό το τελευταίο τμήμα της Ανοιχτής Επιστολής έχει πολλά πρόσθετα στοιχεία που έχουν προκαλέσει οργή.

Κάποιοι ισχυρίζονται ότι η κλήση προς τους υπεύθυνους χάραξης πολιτικής μπορεί να είναι καλά ή κακή συμβουλή. Ίσως οι υπεύθυνοι χάραξης πολιτικής που δεν είναι έμπειροι σε αυτά τα θέματα να κάνουν τους κλασικούς βιαστικούς να κρίνουν και να δημιουργήσουν νόμους και κανονισμούς που σφετερίζονται την πρόοδο στα ρομπότ τεχνητής νοημοσύνης. Σύμφωνα με το σημείο που αναφέρθηκε προηγουμένως, ίσως η καινοτομία που προωθεί τις ρομποτικές προόδους της τεχνητής νοημοσύνης να διαταραχθεί ή να πατηθεί.

Καλύτερα να είστε σίγουροι ότι ξέρετε τι ζητάτε, λένε οι κριτικοί.

Φυσικά, το αντεπιχείρημα είναι ότι η αφήγηση δηλώνει ξεκάθαρα ότι οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να συνεργάζονται με εταιρείες ρομποτικής τεχνητής νοημοσύνης για να καταλάβουν πώς να θεσπίσουν πιθανώς λογικά τέτοιους νόμους και κανονισμούς. Το αντίθετο στο αντεπιχείρημα είναι ότι οι υπεύθυνοι χάραξης πολιτικής μπορεί να θεωρηθούν ότι βλέπουν τους δημιουργούς ρομποτικής τεχνητής νοημοσύνης εάν ικανοποιούν τις ιδιοτροπίες τους. Το αντίθετο στο αντεπιχείρημα είναι ότι είναι φυσικά μια αναγκαιότητα να συνεργαστείτε με εκείνους που γνωρίζουν για την τεχνολογία, διαφορετικά το αποτέλεσμα θα είναι δυνητικά αρνητικό. Και τα λοιπά.

Σε μια πιθανή αμφισβήτηση, ορισμένοι είχαν καούρα πέρα ​​από τη γραμμή που καλεί όλους να κάνουν παρόμοιες δεσμεύσεις για να μην επισυνάπτοντας όπλα σε ρομπότ γενικής χρήσης προηγμένης κινητικότητας. Η λέξη-κλειδί εκεί είναι η λέξη επισυνάπτοντας. Εάν κάποιος κατασκευάζει ένα ρομπότ τεχνητής νοημοσύνης που ενσωματώνει ή ενσωματώνει απρόσκοπτα όπλα, αυτό φαίνεται να παρακάμπτει τη διατύπωση του επισυνάπτοντας κάτι. Μπορείτε να το δείτε τώρα, κάποιος που υποστηρίζει έντονα ότι το όπλο δεν είναι συνδεδεμένο, είναι εξ ολοκλήρου μέρος του ρομπότ AI. Ξεπεράστε το, αναφωνούν, δεν εμπίπτουμε στο πεδίο εφαρμογής αυτής της υπόσχεσης, και θα μπορούσαν ακόμη και να το είχαν πει αλλιώς ότι ήταν.

Αυτό φέρνει ένα άλλο παράπονο σχετικά με την έλλειψη κολλώδους δέσμευσης.

Μπορεί μια εταιρεία ή οποιοσδήποτε οποιοσδήποτε επιλέγει να κάνει αυτή τη δέσμευση να δηλώσει ότι δεν δεσμεύεται ανά πάσα στιγμή ότι το επιθυμεί και για οποιονδήποτε λόγο το επιθυμεί;

Προφανώς ναι.

Γίνεται πολλή σύγκρουση γύρω από την ανάληψη δεσμεύσεων και την έλξη που εμπνέουν.

Συμπέρασμα

Ναι, μπορείτε να πείτε, αυτές οι εταιρείες που προσπαθούν να κάνουν το σωστό τυμπάνονται επειδή προσπαθούν να κάνουν το σωστό.

Τι ήρθε από τον κόσμο μας;

Οποιοσδήποτε κάνει μια τέτοια υπόσχεση θα πρέπει να έχει το πλεονέκτημα της αμφιβολίας, θα μπορούσατε να διατηρήσετε με πάθος. Βγαίνουν στη δημόσια σφαίρα για να προσφέρουν μια τολμηρή και ζωτική συμβολή. Αν αρχίσουμε να τους αδικούμε που το κάνουν, σίγουρα θα χειροτερέψουν τα πράγματα. Κανείς δεν θα θέλει να δώσει μια τέτοια υπόσχεση. Οι εταιρείες και άλλοι δεν θα προσπαθήσουν καν. Θα κρυφτούν και δεν θα προειδοποιήσουν την κοινωνία για το τι μπορούν να μετατραπούν επικίνδυνα αυτά τα αγαπημένα ρομπότ που χορεύουν.

Οι σκεπτικιστές διακηρύσσουν ότι ο τρόπος για να σοφιστεί η κοινωνία συνεπάγεται άλλες ενέργειες, όπως η απόρριψη της φανταστικής πράξης της επίδειξης των χορευτικών ρομπότ τεχνητής νοημοσύνης. Ή τουλάχιστον να είναι μια πιο ισορροπημένη πράξη. Για παράδειγμα, αντί να μιμούνται αποκλειστικά τα αγαπημένα σκυλιά που είναι πιστά στα κατοικίδια, επεξηγήστε πώς τα ρομπότ που χορεύουν μπορούν να μοιάζουν περισσότερο με άγριους εξαγριωμένους θυμωμένους λύκους που μπορούν να κομματιάσουν τους ανθρώπους με πολύ δισταγμό.

Αυτό θα τραβήξει περισσότερη προσοχή από τις υποσχέσεις, εκλιπαρούν.

Οι υποσχέσεις μπορεί αναμφίβολα να είναι ένα μεγάλο αίνιγμα.

Όπως είπε εύγλωττα ο Μαχάτμα Γκάντι: «Ανεξάρτητα από το πόσο σαφής είναι η υπόσχεση, οι άνθρωποι θα γυρίσουν και θα στρίψουν το κείμενο για να ταιριάξουν με τον δικό τους σκοπό».

Ίσως για να ολοκληρώσω εδώ με μια ενθαρρυντική νότα, ο Τόμας Τζέφερσον είπε το εξής σχετικά με τις υποσχέσεις: «Δεσμευόμαστε αμοιβαία ο ένας στον άλλον τη ζωή μας, τις περιουσίες μας και την ιερή μας τιμή».

Όσον αφορά τα ρομπότ τεχνητής νοημοσύνης, την αυτονομία τους, τον οπλισμό τους και άλλα παρόμοια, τελικά θα είμαστε όλοι μαζί. Η αμοιβαία δέσμευσή μας πρέπει τουλάχιστον να είναι ότι θα κρατήσουμε αυτά τα θέματα στην πρώτη γραμμή, θα προσπαθήσουμε να βρούμε τρόπους να αντιμετωπίσουμε αυτές τις προόδους και με κάποιο τρόπο να βρούμε τον δρόμο μας προς την εξασφάλιση της τιμής μας, της τύχης μας και της ζωής μας.

Μπορούμε να δεσμευτούμε για αυτό;

Το ελπίζω.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- ρομπότ-κατασκευαστές-λέγοντας-θα-αποτρέψουν-ai-όπλο/