Ηθική τεχνητής νοημοσύνης εξετάζει τα πλεονεκτήματα της νομικής εντολής κεφαλαίων εξιλέωσης για τη διασφάλιση λογοδοσίας για την τεχνητή νοημοσύνη που ενεργεί άσχημα

Ποιος φταίει;

Αυτό μπορεί να φαίνεται σαν μια απλή ερώτηση, αν και στην περίπτωση της διάσημης κωμωδίας από το θρυλικό δίδυμο Abbott και Costello για μια ομάδα μπέιζμπολ, το "who" μπορεί να προκαλέσει σύγχυση. Ίσως να είστε αόριστα εξοικειωμένοι με το Ποιος είναι πρώτος κωμική ρουτίνα που έκαναν ένα από τα πιο ανθεκτικά σκετς όλων των εποχών (ειδοποίηση spoiler για όσους από εσάς δεν το έχετε ακούσει).

Ο Abbott λέει στον Costello ότι το Who είναι στο πρώτο, το What's στο δεύτερο και το I Don't Know είναι στο τρίτο. Το έξυπνο κόλπο είναι ότι ο πρώτος βασικός λέγεται Who, ο δεύτερος υπόγειος ονομάζεται What και ο τρίτος βασικός λέγεται I Don't Know. Φυσικά, αυτές οι φράσεις έχουν επίσης τη συμβατική τους σημασία και έτσι η προσπάθεια ερμηνείας των όσων λέει ο Άμποτ μπορεί να είναι εντελώς μπερδεμένη. Πράγματι, ο Costello θέτει τη φαινομενικά αβλαβή ερώτηση για το ποιος είναι πρώτος, για το οποίο η απάντηση είναι κατηγορηματικά δηλωμένη ναι. Αλλά αυτό δεν έχει νόημα για τον Costello, καθώς περίμενε ένα όνομα και αντ' αυτού έλαβε ένα περίπλοκο ναι ως απάντηση.

Η αλλαγή ταχυτήτων, όταν πρόκειται για την έλευση της Τεχνητής Νοημοσύνης (AI), ένα από τα πιο ενοχλητικά ερωτήματα που τίθενται συνεχώς συνεπάγεται ποιος ή ίσως τι θα λογοδοτήσει όταν η τεχνητή νοημοσύνη παραπλανηθεί.

Έχω συζητήσει προηγουμένως την ποινική ευθύνη για το πότε η τεχνητή νοημοσύνη οδηγεί ή αναλαμβάνει εγκληματικές ενέργειες, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ. Υπάρχει επίσης το θέμα της αστικής ευθύνης, όπως ποιος ή τι μπορεί να μηνύσετε όταν η τεχνητή νοημοσύνη σας έχει κάνει λάθος, το οποίο είναι το θέμα που θα συζητήσω εδώ. Όλα αυτά έχουν σημαντικά ζητήματα ηθικής τεχνητής νοημοσύνης. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αυτό αναπόσπαστο με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης (ίσως παραδόξως ή ειρωνικά) της αξιολόγησης του τρόπου με τον οποίο υιοθετείται η Δεοντολογία AI από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Μια έντονη συζήτηση που διεξάγεται είναι εάν οι υπάρχοντες νόμοι είναι σε θέση να αντιμετωπίσουν επαρκώς την εμφάνιση συστημάτων τεχνητής νοημοσύνης σε ολόκληρη την κοινωνία. Η νομική ευθύνη συνήθως απαιτεί να μπορείτε να καρφιτσώσετε την ουρά στον γάιδαρο ως προς το ποιος είναι υπεύθυνος για επιβλαβή συμπεριφορά. Στην περίπτωση της τεχνητής νοημοσύνης, μπορεί να υπάρχει μια μάλλον ασαφής διαδρομή που συνδέει ένα συγκεκριμένο άτομο ή άτομα με την τεχνητή νοημοσύνη που πραγματοποίησε κάποια ζημιογόνο ενέργεια. Το AI μπορεί να είναι σε μεγάλο βαθμό μη ανιχνεύσιμο στην πηγή ή τον εφευρέτη που συνέθεσε το AI.

Μια άλλη σκέψη είναι ότι ακόμη και αν οι ρίζες της τεχνητής νοημοσύνης μπορούν να εντοπιστούν σε κάποιον, το ερώτημα είναι εάν το άτομο ή τα άτομα ενδέχεται να μην ήταν σε θέση να προβλέψουν εύλογα το δυσμενές αποτέλεσμα που τελικά παρήγαγε το AI. Η ουσία της προβλεψιμότητας είναι ένας συνήθως αξιοσημείωτος παράγοντας για την εκτίμηση της νομικής ευθύνης.

Μπορεί να μπείτε στον πειρασμό να σκεφτείτε ότι μπορείτε απλώς να αναζητήσετε το ίδιο το AI και να ονομάσετε το AI ως το νόμιμο μέρος που είναι υπεύθυνο ή υπεύθυνο για οποιαδήποτε βλάβη φέρεται να έχει προκληθεί. Σε γενικές γραμμές, η επικρατούσα νομική άποψη είναι ότι η τεχνητή νοημοσύνη δεν έχει φτάσει ακόμη σε επίπεδο νομικής προσωπικότητας. Έτσι, δεν θα είστε σε θέση να επιδιώξετε αυστηρά να πληρώσετε το AI και θα χρειαστεί να βρείτε ανθρώπους που δούλευαν τους μοχλούς στα παρασκήνια, όπως ήταν (για την ανάλυσή μου σχετικά με το νομικό πρόσωπο για την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ).

Σε όλο αυτό το δυνητικό νομικό τέλμα μπαίνει μια ιδέα που επιπλέει ως πιθανή θεραπεία, είτε σε βραχυπρόθεσμη βάση είτε πιθανώς σε μακροπρόθεσμη βάση. Η ιδέα είναι ότι ίσως θα έπρεπε να δημιουργηθεί ένα ειδικό αντισταθμιστικό ταμείο για την παροχή οικονομικής ανακούφισης σε όσους έχουν πληγεί από την τεχνητή νοημοσύνη. Εάν διαφορετικά δεν μπορείτε να ζητήσετε από την τεχνητή νοημοσύνη να σας αποζημιώσει και δεν μπορείτε να εντοπίσετε τα άτομα που θα έπρεπε πιθανώς να λογοδοτήσουν, η επόμενη καλύτερη επιλογή θα μπορούσε να είναι να αξιοποιήσετε ένα αντισταθμιστικό ταμείο που στοχεύει να βοηθήσει όσους βλάπτονται από την τεχνητή νοημοσύνη.

Ένα τέτοιο ταμείο θα ήταν παρόμοιο με μια μορφή ασφάλισης, όπως αναφέρεται σε μια στοχαστική ερευνητική εργασία: «Αυτό θα ήταν ουσιαστικά ένας ασφαλιστικός μηχανισμός έναντι της αβεβαιότητας: Ένα σαφές και διαφανές πλαίσιο για ταχεία αποζημίωση σε περιπτώσεις όπου μια αγωγή ευθύνης έχει αβέβαιη ή καθόλου προοπτική επιτυχίας λόγω της απρόβλεπτης φύσης της επιζήμιας συμπεριφοράς, του ίδιου του (τύπου) ζημίας ή του υπερβολικού κόστους ή/και της πολυπλοκότητας της διαδικασίας» (άρθρο των Olivia Erdelyi και Gabor Erdelyi, «The AI ​​Liability Puzzle Και μια εργασία που βασίζεται σε ταμεία», Journal of Artificial Intelligence Research, 2021).

Το αντισταθμιστικό ταμείο θα αποτελεί μέρος ενός γενικού συστήματος εγγυήσεων τεχνητής νοημοσύνης (AIGS) και θα συνοδεύεται από κάποιες ελαφριές αλλαγές στην υφιστάμενη νομοθεσία σχετικά με τη νομική ευθύνη. Το ελαφρύ άγγιγμα θα ήταν πιθανώς πιο εύκολο να εφαρμοστεί και δεν θα απαιτούσε το επίπονο είδος νομικού και κοινωνικού άγχους, εάν γινόταν μια πιο τρομακτική σειρά αποδεικτικών αλλαγών στα υπάρχοντα νομικά καθεστώτα. Σύμφωνα με τους ερευνητές: «Αυτό αντανακλά την πεποίθησή μας ότι – παρά την ελκυστικότητα μιας τέτοιας λύσης γρήγορης επιδιόρθωσης – το αμεταποίητος εφαρμογή των υφιστάμενων κανόνων ευθύνης στην τεχνητή νοημοσύνη ή α με προστατευτικά κίνητρα Η προσφυγή σε αντικειμενική ευθύνη με σκοπό την απόδειξη ευθύνης με οποιοδήποτε κόστος δεν είναι οι σωστές απαντήσεις για τρεις λόγους: Πρώτον, αγνοώντας ότι αυτοί οι κανόνες έχουν προσαρμοστεί σε διαφορετικές περιστάσεις και ως εκ τούτου μπορεί να είναι ακατάλληλοι για την τεχνητή νοημοσύνη, αντιβαίνουν στους ευαίσθητα ισορροπημένους στόχους του σύστημα νομικής ευθύνης. Δεύτερον, αναστέλλουν την καινοτομία της τεχνητής νοημοσύνης υιοθετώντας μια αδικαιολόγητη τιμωρητική προσέγγιση. Τρίτον, η αδικαιολόγητη προσφυγή σε αντικειμενική ευθύνη απλώς παρακάμπτει προβλήματα προβλεψιμότητας και σφαλμάτων με δογματικά ασυνεπή τρόπο αντί να τα διορθώσει» (σύμφωνα με το έγγραφο που αναφέρεται παραπάνω).

Τα επιχειρήματα υπέρ αυτών των αντισταθμιστικών κεφαλαίων τεχνητής νοημοσύνης περιλαμβάνουν:

  • Μειώνει την ανάγκη για μακροχρόνιες και δαπανηρές νομικές δίκες για την αντιμετώπιση των βλαβών που προκαλούνται από την τεχνητή νοημοσύνη
  • Διαβεβαιώνει τους ανθρώπους ότι μπορούν να κάνουν χρήση της τεχνητής νοημοσύνης και να αποζημιωθούν σε περίπτωση βλάβης
  • Προωθεί την καινοτομία της τεχνητής νοημοσύνης μειώνοντας τη νομική αβεβαιότητα που αντιμετωπίζουν οι καινοτόμοι τεχνητής νοημοσύνης
  • Μπορεί να τεθεί σε χρήση πολύ πιο γρήγορα από την πραγματοποίηση τεράστιων αλλαγών στους υπάρχοντες νόμους
  • Προσφέρει μια σχετικά ξεκάθαρη θεραπεία που είναι αξιόπιστη και άμεσα διαθέσιμη
  • ΑΛΛΑ

Εν τω μεταξύ, όσοι αντιτίθενται στην προσέγγιση των αντισταθμιστικών κεφαλαίων τεχνητής νοημοσύνης λένε το εξής:

  • Ας αφήσουμε τους κατασκευαστές τεχνητής νοημοσύνης υπερβολικά απροσδόκητους και ας τους επιτρέψουμε να παρακάμψουν την ευθύνη
  • Θα ενθαρρύνει τους κατασκευαστές τεχνητής νοημοσύνης να δημιουργήσουν τεχνητή νοημοσύνη που στερείται υπεύθυνης ασφάλειας και κατάλληλων ελέγχων
  • Μπορεί να ωθήσει τους ανθρώπους να ισχυρίζονται ψευδώς ότι βλάπτει την τεχνητή νοημοσύνη, ώστε να μπορούν να αξιοποιήσουν τα κεφάλαια
  • Παρακάμπτει και υπονομεύει την πραγματική ανάγκη να αναθεωρήσουμε τους νόμους μας για να διέπει επαρκώς την τεχνητή νοημοσύνη
  • Θα μπορούσε να γίνει ένας γραφειοκρατικός εφιάλτης που βαλτώνει και κάνει κατάχρηση των κεφαλαίων
  • ΑΛΛΑ

Όπως θα μπορούσε να είναι προφανές, υπάρχουν τόσο υποστηρικτές όσο και πολέμιοι αυτής της εντελώς αμφιλεγόμενης ιδέας.

Θα δυσκολευτείτε να αποκλείσετε συνοπτικά το αντισταθμιστικό ταμείο AI ως πιθανή προσέγγιση στις αυξανόμενες ανησυχίες σχετικά με την τεχνητή νοημοσύνη που προκαλεί βλάβη. Ούτε η προτεινόμενη λύση είναι slam dunk.

Μια άποψη είναι ότι οι κατασκευαστές τεχνητής νοημοσύνης θα πρέπει να βάλουν χρήματα στα ταμεία ως μέρος των προσπαθειών τους όταν επινοούν και διαδίδουν την τεχνητή νοημοσύνη. Αυτό θα μπορούσε να ερμηνευθεί ως ένα είδος τέλους ή φόρου που καλούνται να επιβαρυνθούν ως μέρος της δυνατότητας απελευθέρωσης της τεχνητής νοημοσύνης τους στον κόσμο. Αλλά αυτό το πρόσθετο κόστος δυνητικά καταστέλλει τις προσπάθειες των νεοφυών επιχειρήσεων που προσπαθούν να ξεπεράσουν τα όρια της σημερινής τεχνητής νοημοσύνης; Και πώς θα αντιμετωπιζόταν η επιβολή της διασφάλισης ότι οι κατασκευαστές τεχνητής νοημοσύνης πλήρωσαν το τέλος ή τον φόρο τους;

Προκύπτουν μια σειρά από ερωτήματα και θα πρέπει να λυθούν:

  • Σε ποιες χώρες θα ήταν καλύτερα εφικτό ένα αντισταθμιστικό ταμείο τεχνητής νοημοσύνης;
  • Θα μπορούσε να δημιουργηθεί μια παγκόσμια εμφάνιση διασυνδεδεμένων αντισταθμιστικών κεφαλαίων τεχνητής νοημοσύνης;
  • Ποιοι θα ήταν οι λεπτομερείς και εφαρμόσιμοι μηχανισμοί που συνδέονται με τέτοια κονδύλια;
  • Πώς θα χρηματοδοτηθούν τα αντισταθμιστικά κεφάλαια της τεχνητής νοημοσύνης (δημόσιο, ιδιωτικό, φιλανθρωπικό);
  • Αυτό θα ήταν μια βάση ασφάλισης χωρίς σφάλμα ή θα ακολουθηθεί κάποια άλλη προσέγγιση;
  • Κλπ

Ένα βασίλειο στο οποίο έχει ήδη διαδοθεί η ιδέα των αντισταθμιστικών κεφαλαίων AI αποτελείται από αυτόνομα συστήματα όπως αυτόνομα οχήματα και αυτοοδηγούμενα αυτοκίνητα. Για την κάλυψή μου για αυτοκίνητα αυτόνομης οδήγησης και αυτόνομα συστήματα τεχνητής νοημοσύνης, βλ ο σύνδεσμος εδώ.

Ακολουθεί ένα σκίτσο του πώς μπορεί να λειτουργήσει αυτό για αυτοοδηγούμενα αυτοκίνητα που βασίζονται σε τεχνητή νοημοσύνη.

Ας υποθέσουμε ότι ένα αυτοοδηγούμενο αυτοκίνητο συγκρούεται με έναν αναβάτη ποδηλάτου. Ο ποδηλάτης τραυματίζεται. Ο ποδηλάτης μπορεί να αναζητήσει νομική αποκατάσταση κυνηγώντας την αυτοκινητοβιομηχανία του αυτόνομου οχήματος. Ή μπορεί να στοχεύουν στην εταιρεία τεχνολογίας αυτόνομης οδήγησης που κατασκεύασε το σύστημα οδήγησης AI. Εάν το αυτοοδηγούμενο αυτοκίνητο λειτουργεί ως στόλος, μια άλλη νόμιμη οδός θα ήταν η καταδίωξη του χειριστή του στόλου. Η προσπάθεια μήνυσης κατά της τεχνητής νοημοσύνης δεν αποτελεί επιλογή σε αυτή τη συγκυρία, καθώς η νομική προσωπικότητα της τεχνητής νοημοσύνης δεν έχει ακόμη εδραιωθεί.

Αντί να κινηθεί νομικά εναντίον οποιουδήποτε από αυτά τα μέρη, μια άλλη προσφυγή θα ήταν η υποβολή αίτησης ή αξίωσης σε ένα κατάλληλο αντισταθμιστικό ταμείο τεχνητής νοημοσύνης. Το ταμείο θα είχε επισημοποιήσει τις διαδικασίες που συνεπάγονται την επανεξέταση της απαίτησης και στη συνέχεια θα καθόριζε τι θα μπορούσε να παρασχεθεί τυχόν αντισταθμιστικές πληρωμές στον αιτούντα. Μπορεί να υπάρχει μια διαδικασία προσφυγής που βοηθά τους ενάγοντες που πιστεύουν ότι είτε απορρίφθηκαν εσφαλμένα από το ταμείο είτε αποζημιώθηκαν ανεπαρκώς από το ταμείο.

Θεωρητικά, το αντισταθμιστικό ταμείο τεχνητής νοημοσύνης θα ήταν ένας πολύ πιο γρήγορος δρόμος για την αποζημίωση για τη ζημιά που προκλήθηκε. Μπορείτε να φανταστείτε πόσο επίπονη μπορεί να είναι μια μήνυση, με την οποία οι εταιρείες που ενάγονται μπορεί να προσπαθήσουν να τραβήξουν την υπόθεση.

Ωστόσο, οι δικηγόροι θα μπορούσαν να τονίσουν ότι το ταμείο αντιστάθμισης της τεχνητής νοημοσύνης θα μπορούσε να επιτρέψει σε αυτά τα άλλα μέρη, όπως οι κατασκευαστές τεχνητής νοημοσύνης, φαινομενικά να αποφύγουν κάθε σαφή ποινή επειδή άφησαν το αυτοκίνητό τους σε δημόσιους δρόμους που κατέληξαν να χτυπήσουν έναν αναβάτη ποδηλάτου. Τι άλλο θα μπορούσαν να επιλέξουν αυτές οι εταιρείες να κάνουν «απρόσεκτα»; Χωρίς το διαφαινόμενο φάντασμα του νομικού σπαθιού που κρέμεται πάνω από τα κεφάλια τους, θα μπορούσαμε να βρεθούμε καθημερινά αντιμέτωποι με τεχνητή νοημοσύνη που είναι γεμάτη από επικίνδυνες ικανότητες.

Γύρω και γύρω τα επιχειρήματα πηγαίνουν.

Συμπέρασμα

Η ηθική της τεχνητής νοημοσύνης μας υπενθυμίζει ότι θα πρέπει πάντα να λαμβάνουμε υπόψη τις ηθικές και νομικές συνέπειες της τεχνητής νοημοσύνης. Σε αυτήν την περίπτωση των αντισταθμιστικών κεφαλαίων τεχνητής νοημοσύνης, η προτεινόμενη ιδέα μιας δεξαμενής κεφαλαίων που μοιάζει με ασφάλιση για την αποζημίωση εκείνων που ζημιώνονται από την τεχνητή νοημοσύνη φαίνεται δελεαστική. Τα κεφάλαια φαινομενικά θα περιμένουν εκεί, έτοιμα να αξιοποιηθούν και να παρέχουν την συντομότερη δυνατή αποζημίωση.

Οι ανταλλαγές σχετικά με το εάν αυτό θα μπορούσε να ανοίξει τις πύλες προς την κατεύθυνση της δημιουργίας τεχνητής νοημοσύνης που θα έχει όλο και λιγότερους ελέγχους ασφαλείας είναι μια τρομακτική και πολύ πραγματική ανησυχία. Μάλλον δεν χρειάζεται να ρίξουμε λάδι σε μια φωτιά που ίσως είναι ήδη κάπως σε εξέλιξη.

Μπορούμε με κάποιο τρόπο να επιτρέψουμε στους κατασκευαστές τεχνητής νοημοσύνης να επινοήσουν την κατάλληλη ηθική τεχνητή νοημοσύνη και ταυτόχρονα να δημιουργήσουν αυτά τα αντισταθμιστικά κεφάλαια τεχνητής νοημοσύνης;

Κάποιοι θα έλεγαν ότι ναι, μπορούμε. Με την ανανέωση των υφιστάμενων νόμων για την ευθυγράμμιση με τα αντισταθμιστικά κεφάλαια της τεχνητής νοημοσύνης, όσοι βλάπτονται από την τεχνητή νοημοσύνη θα μπορούσαν ενδεχομένως να έχουν μια διπλή διαδρομή για να αναζητήσουν τη δίκαιη αποζημίωση τους.

Ποιος είναι πρώτος;

Ναι, αυτός είναι (όπως σε όλους μας) με την πρώτη ειδοποίηση ότι θα πρέπει να σκεφτούμε την πιθανή χρήση των αντισταθμιστικών κεφαλαίων της τεχνητής νοημοσύνης και να τροποποιήσουμε τους υπάρχοντες νόμους, έστω και ελαφρώς, παρέχοντας ένα μέσο για την αντιμετώπιση της επίθεσης τόσο της καλής τεχνητής νοημοσύνης όσο και κακό AI.

Δεν υπάρχει σύγχυση σχετικά με αυτό το ζωτικό στοιχείο.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- Ευθύνη/