Η εμφύτευση νομικού συλλογισμού στην τεχνητή νοημοσύνη θα μπορούσε έξυπνα να επιτύχει ευθυγράμμιση ανθρώπινης αξίας λέει η ηθική της τεχνητής νοημοσύνης και ο νόμος της τεχνητής νοημοσύνης

Στη σημερινή στήλη, θα συνδυάσω μυριάδες φαινομενικά ανόμοια θέματα που σχετίζονται με την τεχνητή νοημοσύνη σε ένα όμορφα υφαντό ύφασμα.

Είστε έτοιμοι;

Φανταστείτε ότι χρησιμοποιείτε μια εφαρμογή που υποστηρίζεται από AI που σας βοηθά ενώ αναλαμβάνετε κάποιο είδος σημαντικής εργασίας. Ίσως το θέμα είναι οικονομικό ή μπορεί να σχετίζεται με την υγεία. Η ουσία είναι ότι βασίζεστε στην τεχνητή νοημοσύνη για να κάνετε το σωστό και να αποδώσετε με έναν υποτιθέμενο ασφαλή και υγιή τρόπο.

Ας υποθέσουμε ότι η τεχνητή νοημοσύνη στρέφεται σε ανήθικο έδαφος.

Ίσως να μην αντιλαμβάνεστε ότι το AI το κάνει.

Για παράδειγμα, η τεχνητή νοημοσύνη θα μπορούσε να βασίζεται σε δυνητικά κρυφούς μεροληπτικούς παράγοντες όπως η φυλή ή το φύλο, αν και μπορεί να μην έχετε κανένα βιώσιμο μέσο για να διακρίνετε την ακατάλληλη χρήση. Ορίστε, ολομόναχοι, παίρνετε το κοντό άκρο του ραβδιού μέσω μιας τεχνητής νοημοσύνης που είτε έχει επινοηθεί από την αρχή με προβληματικό τρόπο είτε έχει καταφέρει να οδηγηθεί σε ζόρικο και οριακό ηθικό κίνδυνο (θα πω περισσότερα για αυτό σε μια στιγμή).

Τι μπορείτε να κάνετε ή τι μπορείτε να κάνετε για την τεχνητή νοημοσύνη που επιλέγει να ακολουθήσει έναν ανήθικο δρόμο;

Εκτός από την προσπάθεια να κατασκευάσω εκ των προτέρων την τεχνητή νοημοσύνη έτσι ώστε να μην κάνει αυτό το είδος ύπουλης δράσης, έχω αναφέρει επίσης προηγουμένως ότι υπάρχει αυξανόμενο ενδιαφέρον για την ενσωμάτωση ενός Έλεγχος ηθικής τεχνητής νοημοσύνης συστατικό στο εκρηκτικό λάκκο των κατά τα άλλα συστήματα τεχνητής νοημοσύνης της Άγριας Δύσης που πετιούνται στην αγορά. Η ιδέα είναι ότι για να προσπαθήσουμε να αποτρέψουμε μια εφαρμογή με τεχνητή νοημοσύνη από το να ξεφύγει από ηθικές διαστάσεις, θα μπορούσαμε να χρησιμοποιήσουμε πρόσθετη τεχνητή νοημοσύνη για να κάνουμε έλεγχο και ισορροπία. Αυτή η προστιθέμενη τεχνητή νοημοσύνη μπορεί να βρίσκεται εκτός της στοχευμένης εφαρμογής τεχνητής νοημοσύνης ή θα μπορούσε να είναι ένα στοιχείο ενσωματωμένο ή εμφυτευμένο απευθείας στο AI που θέλουμε να κάνουμε διπλό έλεγχο.

Όπως έχω ξαναπεί, βλ ο σύνδεσμος εδώ: «Μια τάση που αναδύεται πρόσφατα συνίσταται στην προσπάθεια δημιουργίας ηθικών προστατευτικών κιγκλιδωμάτων στην τεχνητή νοημοσύνη που θα πιάσει καθώς το υπόλοιπο σύστημα τεχνητής νοημοσύνης αρχίζει να υπερβαίνει τα προκαθορισμένα ηθικά όρια. Κατά μία έννοια, ο στόχος είναι να χρησιμοποιηθεί η ίδια η τεχνητή νοημοσύνη για να μην πάει ηθικά στραβά. Θα μπορούσατε να πείτε ότι στοχεύουμε να θεραπεύσουμε την τεχνητή νοημοσύνη» (Lance Eliot, «Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up», Forbes, 28 Μαρτίου 2022).

Μπορεί επίσης να βρείτε σχετικό ενδιαφέρον για το βιβλίο μου AI φύλακας bots, μερικές φορές αναφέρεται ως φύλακες άγγελοι, το οποίο καλύπτει τα τεχνικά θεμέλια αυτού του υπερσύγχρονου ενσωματωμένου διπλού ελεγκτή AI-within-AI, βλ. ο σύνδεσμος εδώ.

Το συμπέρασμα είναι ότι το μπέικον σας μπορεί ευτυχώς να σωθεί με τη χρήση ενός ενσωματωμένου στοιχείου μέτρησης δεοντολογίας διπλού ελέγχου τεχνητής νοημοσύνης που έχει επινοηθεί και εμφυτευθεί σε μια εφαρμογή τεχνητής νοημοσύνης που χρησιμοποιείτε. Θα είναι, όμως, αρκετός φύλακας για να βεβαιωθείτε ότι η τεχνητή νοημοσύνη δεν θα σας σκληρύνει εντελώς και δεν θα τολμήσετε ακόμη και σε επιβλαβές έδαφος;

Βλέπετε, η εφαρμογή AI θα μπορούσε να έχει φαινομενικά απόδοση παράνομη πράξεις.

Είναι ένα πράγμα να έχουμε τεχνητή νοημοσύνη που μπαίνει σε μια γκρίζα περιοχή αυτού που θεωρούμε ότι είναι ηθικές ή ανήθικες συμπεριφορές. Μια εξίσου ανησυχητική συμπεριφορά και μια πιθανή επιδείνωση της ανησυχίας συνεπάγεται την τεχνητή νοημοσύνη που απλώς πηδάει τον καρχαρία όπως ήταν και κατεβαίνει στο άθλιο σκοτάδι των απροκάλυπτων παράνομων πράξεων.

Το παράνομο AI είναι κακό. Το να επιτρέπεται η παράνομη τεχνητή νοημοσύνη να περάσει χωρίς επιτήρηση είναι κακό. Μερικοί νομικοί επιστήμονες ανησυχούν ανοιχτά ότι η έλευση και η διάχυση της τεχνητής νοημοσύνης πρόκειται να υπονομεύσει σταδιακά και τρομακτικά την εμφάνισή μας για το του κράτους δικαίου, δείτε την ανάλυσή μου στο ο σύνδεσμος εδώ.

Περίμενε λίγο, ίσως λες.

Μπορεί να μπείτε στον πειρασμό να σκεφτείτε ότι οι προγραμματιστές AI θα το έκαναν ποτέ προγραμματίζουν την τεχνητή νοημοσύνη τους να είναι ενάντια στο νόμο. Αφάνταστος. Μόνο κακοί κακοί θα το έκαναν (οι οποίοι, παρεμπιπτόντως, να έχετε κατά νου ότι υπάρχουν εκείνοι που επινοούν και χρησιμοποιούν σκόπιμα την τεχνητή νοημοσύνη για κακούς σκοπούς, ένας αυξανόμενος τομέας ενδιαφέροντος για εγκληματίες και άλλους που επιθυμούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για κακόβουλες δραστηριότητες).

Λυπούμαστε, αλλά είναι ευσεβής πόθος να υποθέσουμε ότι όλοι οι μη κακοί προγραμματιστές τεχνητής νοημοσύνης θα βεβαιωθούν αυστηρά ότι η τεχνητή νοημοσύνη τους είναι πλήρως νομοταγής. Θα μπορούσε να είναι ότι το AI αυτοπροσαρμόζεται και περιπλανιέται σε παράνομη δραστηριότητα. Φυσικά, υπάρχει επίσης το ενδεχόμενο οι προγραμματιστές τεχνητής νοημοσύνης είτε να ήθελαν η τεχνητή νοημοσύνη να ενεργεί παράνομα είτε να μην γνώριζαν τι συνιστούσε παράνομη έναντι νομικών πράξεων όταν έφτιαχναν την τεχνητή νοημοσύνη (ναι, αυτό είναι πολύ πιθανό, δηλαδή ότι ένα Η ομάδα της τεχνητής νοημοσύνης με το κεφάλι κάτω, μπορεί να αγνοεί τις νόμιμες γελοιότητες της τεχνητής νοημοσύνης της, κάτι που δεν δικαιολογείται και όμως συμβαίνει με ανησυχητική συχνότητα).

Τι μπορεί να γίνει γι 'αυτό;

Για άλλη μια φορά, εκτός από την προσπάθεια διασφάλισης ότι η τεχνητή νοημοσύνη έξω από την πύλη είναι σιδερένια και νόμιμη, μια πρόσθετη προσέγγιση για την απόκτηση ατμού περιλαμβάνει την ενσωμάτωση ή την εμφύτευση ενός στοιχείου AI που κάνει νόμιμο διπλό έλεγχο για την υπόλοιπη εφαρμογή AI. Καθισμένος ήσυχος και συχνά χωρίς προειδοποίηση, αυτή η προστιθέμενη τεχνητή νοημοσύνη παρατηρεί την υπόλοιπη τεχνητή νοημοσύνη για να προσπαθήσει να διακρίνει εάν η τεχνητή νοημοσύνη θα γίνει απατεώνας ή τουλάχιστον θα ξεπεράσει τα όρια των νομικών ή κανονιστικών περιορισμών που επιβάλλονται.

Τώρα έχουμε δύο είδη διπλού ελέγχου τεχνητής νοημοσύνης που είναι δυνητικά ενσωματωμένα σε μια εφαρμογή τεχνητής νοημοσύνης:

  • Διπλός έλεγχος AI Ethics: Σε πραγματικό χρόνο, αυτό το στοιχείο ή το πρόσθετο AI αξιολογεί το υπόλοιπο AI για ηθικές και ανήθικες συμπεριφορές που παρουσιάζει το AI
  • Διπλός έλεγχος AI Legal: Σε πραγματικό χρόνο, αυτό το στοιχείο ή το πρόσθετο τεχνητής νοημοσύνης αξιολογεί την υπόλοιπη τεχνητή νοημοσύνη ως προς τη διασφάλιση της παραμονής εντός των νόμιμων βασικών λίθων και για τη σύλληψη αναδυόμενων παράνομων δραστηριοτήτων από το AI

Για να διευκρινίσουμε, αυτές είναι σχετικά νέες αντιλήψεις και ως εκ τούτου η τεχνητή νοημοσύνη που χρησιμοποιείτε σήμερα μπορεί να βρίσκεται σε οποιαδήποτε από αυτές τις παρούσες συνθήκες:

  • Τεχνητή νοημοσύνη που δεν περιλαμβάνει καθόλου διπλό πούλι
  • AI που περιλαμβάνει διπλό έλεγχο AI Ethics, αλλά όχι άλλους διπλούς ελέγχους
  • Τεχνητή νοημοσύνη που περιλαμβάνει διπλό έλεγχο τεχνητής νοημοσύνης Legal, αλλά όχι άλλους διπλούς ελέγχους
  • Τεχνητή νοημοσύνη που διαθέτει διπλό έλεγχο ηθικής τεχνητής νοημοσύνης και διπλό έλεγχο AI Legal
  • ΑΛΛΑ

Υπάρχουν ορισμένες εξαιρετικά δύσκολες πτυχές του να λειτουργούν δίπλα-δίπλα τόσο ο διπλός έλεγχος ηθικής τεχνητής νοημοσύνης όσο και ο διπλός έλεγχος AI Legal σε μια εφαρμογή τεχνητής νοημοσύνης ως συγγενής αδελφός και αδελφή. Αυτός είναι ένας τύπος δυϊσμού που μπορεί να είναι πιο δύσκολο να συντονιστεί κανείς από ό,τι μπορεί να υποθέσει (νομίζω ότι όλοι γνωρίζουμε ότι τα αδέρφια και οι αδελφές μπορούν να έχουν τους πιο στενούς δεσμούς, αν και μπορούν επίσης να πολεμούν όπως οι Ντίκενς κατά καιρούς και να έχουν σθεναρή αντίθεση προβολές).

Έχω συζητήσει εκτενώς αυτό το είδος κοπιαστικής δυαδική υπόσταση: «Ένας παραμελημένος δυϊσμός εμφανίζεται στο AI for Social Good, ο οποίος συνεπάγεται την έλλειψη συμπερίληψης τόσο του ρόλου της τεχνητής ηθικής αρχής όσο και του τεχνητού νομικού συλλογισμού σε προηγμένα συστήματα AI. Οι προσπάθειες ερευνητών τεχνητής νοημοσύνης και προγραμματιστών τεχνητής νοημοσύνης έτειναν να επικεντρωθούν στον τρόπο δημιουργίας και ενσωμάτωσης τεχνητών ηθικών παραγόντων για να καθοδηγήσουν τη λήψη ηθικών αποφάσεων όταν ένα σύστημα τεχνητής νοημοσύνης λειτουργεί στο πεδίο, αλλά δεν έχουν επίσης επικεντρωθεί και συνδυάσει τη χρήση τεχνητών δυνατοτήτων νομικής συλλογιστικής , το οποίο είναι εξίσου απαραίτητο για ισχυρά ηθικά και νομικά αποτελέσματα» (Lance Eliot, «The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good», Ετήσιο Συνέδριο CRCS του Πανεπιστημίου Χάρβαρντ 2020, Κέντρο Έρευνας και Υπολογιστικής Εταιρείας του Χάρβαρντ)

Αν θέλετε να αναρωτηθείτε γιατί μπορεί να υπάρχει ένταση μεταξύ ενός διπλού ελέγχου ηθικής τεχνητής νοημοσύνης και ενός διπλού ελέγχου AI Legal, μπορεί να βρείτε αυτό το αξιοσημείωτο απόφθεγμα της εντυπωσιακής εννοιολογικής αξίας: «Ο νόμος μπορεί να επιτρέπει κάποια συγκεκριμένη ενέργεια, παρόλο που αυτή η πράξη είναι ανήθικη. και ο νόμος μπορεί να απαγορεύσει μια πράξη, παρόλο που αυτή η πράξη είναι ηθικά επιτρεπτή ή ακόμη και ηθικά επιβεβλημένη» (Shelly Kagan, Τα όρια της ηθικής, 1998).

Ας αλλάξουμε λίγο την εστίασή μας και ας δούμε πώς αυτά τα διπλά πούλια συνδυάζονται σε ένα άλλο εξονυχιστικό θέμα τεχνητής νοημοσύνης, δηλαδή Υπεύθυνη τεχνητή νοημοσύνη ή μια συντονισμένη εξέταση της ευθυγράμμισης των ανθρώπινων αξιών και της τεχνητής νοημοσύνης.

Η γενική ιδέα είναι ότι θέλουμε τεχνητή νοημοσύνη που να τηρεί τις σωστές και επιθυμητές ανθρώπινες αξίες. Κάποιοι αναφέρονται σε αυτό ως Υπεύθυνη τεχνητή νοημοσύνη. Και άλλοι συζητούν παρόμοια Υπεύθυνη AI, Αξιόπιστη τεχνητή νοημοσύνη, να Ευθυγράμμιση AI, τα οποία άπτονται της ίδιας αρχής ακρογωνιαίο λίθο. Για τη συζήτησή μου για αυτά τα σημαντικά θέματα, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Πώς μπορούμε να κάνουμε την τεχνητή νοημοσύνη να ευθυγραμμιστεί με τις ανθρώπινες αξίες;

Όπως προτάθηκε προηγουμένως, ελπίζουμε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα έχουν επίγνωση της ανάπτυξης τεχνητής νοημοσύνης που επιτυγχάνει υπεύθυνη προσκόλληση σε τεχνητή νοημοσύνη. Δυστυχώς, μπορεί να μην είναι, σύμφωνα με τους λόγους που διευκρινίστηκαν προηγουμένως. Επιπλέον, μπορεί να προσπαθήσουν να το κάνουν, και παρόλα αυτά η τεχνητή νοημοσύνη καταλήγει να αυτοπροσαρμόζεται πέρα ​​από το σημαντικό πεδίο των ηθικών συμπεριφορών ή πιθανώς σε παράνομα νερά.

Εντάξει, τότε πρέπει να εξετάσουμε τα εύχρηστα δανδά διπλά πούλια μας ως ένα μέσο για να στηρίξουμε αυτούς τους κινδύνους και τις εκθέσεις. Η χρήση ενός καλά σχεδιασμένου διπλού ελέγχου AI Ethics μπορεί να βοηθήσει ουσιαστικά στην ευθυγράμμιση της τεχνητής νοημοσύνης με τις ανθρώπινες αξίες. Ομοίως, η χρήση ενός καλά σχεδιασμένου διπλού ελέγχου AI Legal μπορεί να βοηθήσει ουσιαστικά στην ευθυγράμμιση της τεχνητής νοημοσύνης με τις ανθρώπινες αξίες.

Έτσι, ένας κρίσιμος και όχι ακόμη γνωστός τρόπος για να φτάσετε στο Responsible AI, Trustworthy AI, Accountable AI, AI Alignment κ.λπ., θα συνεπαγόταν τη χρήση διπλών ελεγκτών AI, όπως ένας διπλός έλεγχος AI Ethics και ένας AI Νομικός διπλός έλεγχος που θα λειτουργούσε ακούραστα ως διπλός έλεγχος στο AI στο οποίο είναι ενσωματωμένοι.

Σε αυτήν την παρούσα συζήτηση, θα ήθελα να αναφερθώ σε λίγο περισσότερες λεπτομέρειες σχετικά με τη φύση και τις κατασκευές των AI Legal διπλών ελεγκτών που μπορεί να ενσωματωθούν στο AI. Για να το κάνετε αυτό, θα ήταν χρήσιμο να μοιραστείτε μαζί σας κάποιο πρόσθετο υπόβαθρο σχετικά με το συνολικό θέμα του AI & Νόμος.

Για μια μη ανόητη εξέταση του τρόπου με τον οποίο η τεχνητή νοημοσύνη και ο νόμος αναμιγνύονται μεταξύ τους, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Στην οξυδερκή μου ματιά στο AI & Νόμος Σε συνδυασμό, παρέχω αυτή την απλή αντίληψη δύο βασικών τρόπων αλληλοσυσχέτισης της τεχνητής νοημοσύνης και του νόμου:

  • (1) Νόμος που εφαρμόζεται στο AI: Η διατύπωση, η θέσπιση και η επιβολή των νόμων που ισχύουν για τη ρύθμιση ή τη διακυβέρνηση της Τεχνητής Νοημοσύνης στην κοινωνία μας
  • (2) AI-εφαρμοσμένο σε νόμο: Τεχνολογία τεχνητής νοημοσύνης που επινοήθηκε και εφαρμόστηκε στη νομοθεσία, συμπεριλαμβανομένου του Legal Reasoning (AILR) που βασίζεται σε τεχνητή νοημοσύνη και ενσωματώθηκε σε εφαρμογές υψηλής τεχνολογίας LegalTech για την αυτόνομη ή ημι-αυτόνομη εκτέλεση εργασιών δικηγόρου

Η πρώτη παρατιθέμενη άποψη συνίσταται στην εξέταση του τρόπου με τον οποίο οι υφιστάμενοι και νέοι νόμοι θα διέπουν την τεχνητή νοημοσύνη. Η δεύτερη προοπτική που αναφέρεται έχει να κάνει με την εφαρμογή της τεχνητής νοημοσύνης στο νόμο.

Αυτή η τελευταία κατηγορία συνήθως περιλαμβάνει τη χρήση νομικής συλλογιστικής που βασίζεται σε AI (AILR) σε διάφορα διαδικτυακά εργαλεία που χρησιμοποιούνται από δικηγόρους. Για παράδειγμα, η τεχνητή νοημοσύνη μπορεί να αποτελεί μέρος ενός πακέτου Contract Life Cycle Management (CLM) που βοηθά τους δικηγόρους προσδιορίζοντας συμβατική γλώσσα που θα είναι χρήσιμη για τη σύνταξη νέων συμβάσεων ή μπορεί να ανιχνεύει συμβάσεις που έχουν νομικά ευχάριστη γλώσσα που επιτρέπει ατυχίες ή νομικά κενά (για την ματιά μου στις αποκαλούμενες «μυρίσεις νόμου» που μπορούν να διακριθούν από την τεχνητή νοημοσύνη, βλ ο σύνδεσμος εδώ).

Αναπόφευκτα θα εφαρμόσουμε την τεχνητή νοημοσύνη στον νόμο που είναι διαθέσιμος για χρήση από το ευρύ κοινό και που δεν απαιτεί να είναι ενήμερος δικηγόρος. Αυτήν τη στιγμή, ως αποτέλεσμα διάφορων περιορισμών, συμπεριλαμβανομένου του UPL (Unauthorized Practical of Law), η διάθεση εφαρμογών νομικών συμβουλών που βασίζονται σε τεχνητή νοημοσύνη είναι ένα ακανθώδες και αμφιλεγόμενο θέμα, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ.

Έφερα αυτήν την εισαγωγή σχετικά με την τεχνητή νοημοσύνη και το νόμο για να επισημάνω ότι μια άλλη εργαλειακή χρήση της τεχνητής νοημοσύνης που εφαρμόζεται στο νόμο θα ήταν η δημιουργία διπλών ελεγκτών AI Legal.

Ναι, το ίδιο είδος τεχνολογικής ικανότητας που εμπλέκεται στην εφαρμογή της τεχνητής νοημοσύνης στο νόμο μπορεί να λειτουργήσει ως διπλό καθήκον χρησιμοποιώντας την τεχνητή νοημοσύνη για να χρησιμεύσει ως ενσωματωμένος ή εμφυτευμένος νομικός έλεγχος τεχνητής νοημοσύνης. Ο διπλός έλεγχος AI Legal είναι ένα στοιχείο που πρέπει να γνωρίζει νομικές πτυχές. Όταν η υπόλοιπη εφαρμογή τεχνητής νοημοσύνης εκτελεί διάφορες ενέργειες, ο διπλός έλεγχος AI Legal υπολογίζει εάν η εφαρμογή AI το κάνει νόμιμα και εντός νόμιμων περιορισμών.

Ένα στοιχείο διπλού ελέγχου AI Legal δεν χρειάζεται απαραίτητα να καλύπτει όλη την γκάμα όλων όσων πρέπει να γνωρίζουμε για το νόμο. Ανάλογα με τη φύση της εφαρμογής AI ως προς τον σκοπό και τις ενέργειες της τεχνητής νοημοσύνης συνολικά, ο διπλός έλεγχος AI Legal μπορεί να είναι πολύ πιο περιορισμένος όσον αφορά τη νομική εμπειρογνωμοσύνη που περιέχει.

Εντόπισα ένα χρήσιμο πλαίσιο για την επίδειξη του τρόπου με τον οποίο η τεχνητή νοημοσύνη στον νομικό τομέα κυμαίνεται σε μια σειρά αυτόνομων δυνατοτήτων, γνωστών ως Επίπεδα Αυτονομίας (LoA). Για μια επισκόπηση δείτε το δικό μου Forbes ανάρτηση στήλης της 21ης ​​Νοεμβρίου 2022, «The No-Nonsense Comprehensive Compelling Case for Why Lawyers Need To Know About AI and the Law» στο ο σύνδεσμος εδώ, και για μια λεπτομερή τεχνική απεικόνιση δείτε το σε βάθος ερευνητικό μου άρθρο στο MIT Computational Law Journal της 7ης Δεκεμβρίου 2021, βλ ο σύνδεσμος εδώ.

Το πλαίσιο διευκρινίζει πέντε επίπεδα τεχνητής νοημοσύνης όπως χρησιμοποιούνται σε νομικές προσπάθειες:

  • Επίπεδο 0: Χωρίς αυτοματισμό για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη
  • Επίπεδο 1: Απλή αυτοματοποίηση βοήθειας για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη
  • Επίπεδο 2: Προηγμένη αυτοματοποίηση βοήθειας για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη
  • Επίπεδο 3: Ημιαυτόνομη αυτοματοποίηση για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη
  • Επίπεδο 4: Τομέας αυτόνομος για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη
  • Επίπεδο 5: Πλήρως αυτόνομο για νομική εργασία που βασίζεται σε τεχνητή νοημοσύνη

Θα τα περιγράψω εν συντομία εδώ.

Το επίπεδο 0 θεωρείται το επίπεδο χωρίς αυτοματισμό. Η νομική συλλογιστική και τα νομικά καθήκοντα εκτελούνται με μη αυτόματες μεθόδους και κυρίως μέσω προσεγγίσεων που βασίζονται σε χαρτί.

Το Επίπεδο 1 αποτελείται από απλή αυτοματοποίηση βοήθειας για νομική συλλογιστική AI. Παραδείγματα αυτής της κατηγορίας θα περιλαμβάνουν τη χρήση καθημερινής επεξεργασίας κειμένου που βασίζεται σε υπολογιστή, τη χρήση καθημερινών υπολογιστικών φύλλων που βασίζονται σε υπολογιστή, την πρόσβαση σε ηλεκτρονικά νομικά έγγραφα που αποθηκεύονται και ανακτώνται ηλεκτρονικά κ.λπ.

Το Επίπεδο 2 αποτελείται από προηγμένη αυτοματοποίηση βοήθειας για νομική συλλογιστική τεχνητής νοημοσύνης. Παραδείγματα αυτής της κατηγορίας θα περιλαμβάνουν τη χρήση στοιχειώδους Επεξεργασίας Φυσικής Γλώσσας (NLP) τύπου ερωτήματος, απλοϊκά στοιχεία Μηχανικής Μάθησης (ML), εργαλεία στατιστικής ανάλυσης για προβλέψεις νομικών υποθέσεων κ.λπ.

Το Επίπεδο 3 αποτελείται από ημιαυτόνομη αυτοματοποίηση για νομική αιτιολογία AI. Παραδείγματα αυτής της κατηγορίας θα περιλαμβάνουν τη χρήση προηγμένων συστημάτων που βασίζονται στη γνώση (KBS) για νομική συλλογιστική, τη χρήση Μηχανικής Μάθησης και Βαθιάς Μάθησης (ML/DL) για νομική συλλογιστική, προηγμένο NLP κ.λπ.

Το επίπεδο 4 αποτελείται από αυτόνομα συστήματα που βασίζονται σε υπολογιστή για νομική συλλογιστική AI. Αυτό το επίπεδο επαναχρησιμοποιεί την εννοιολογική έννοια των τομέων επιχειρησιακού σχεδιασμού (ODDs), όπως χρησιμοποιείται για αυτοοδηγούμενα αυτοκίνητα, αλλά όπως εφαρμόζεται στον νομικό τομέα. Οι νομικοί τομείς μπορεί να ταξινομηθούν κατά λειτουργικούς τομείς, όπως το οικογενειακό δίκαιο, το δίκαιο ακινήτων, το πτωχευτικό δίκαιο, το περιβαλλοντικό δίκαιο, το φορολογικό δίκαιο κ.λπ.

Το Επίπεδο 5 αποτελείται από πλήρως αυτόνομα συστήματα που βασίζονται σε υπολογιστή για νομική συλλογιστική τεχνητής νοημοσύνης. Κατά μία έννοια, το Επίπεδο 5 είναι το υπερσύνολο του Επιπέδου 4 από την άποψη ότι περιλαμβάνει όλους τους πιθανούς νομικούς τομείς. Παρακαλώ συνειδητοποιήστε ότι πρόκειται για μια αρκετά μεγάλη παραγγελία.

Μπορείτε να φανταστείτε αυτά τα Επίπεδα Αυτονομίας στο ίδιο επίπεδο με τις παρόμοιες χρήσεις όταν συζητάτε για αυτόνομα αυτοκίνητα και αυτόνομα οχήματα (επίσης με βάση το επίσημο πρότυπο SAE, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ). Δεν διαθέτουμε ακόμη αυτοοδηγούμενα αυτοκίνητα SAE Level 5. Προχωράμε στα αυτοοδηγούμενα αυτοκίνητα SAE Level 4. Τα περισσότερα συμβατικά αυτοκίνητα βρίσκονται στο SAE Level 2, ενώ μερικά από τα νεότερα αυτοκίνητα προχωρούν στο SAE Level 3.

Στον νομικό τομέα, δεν έχουμε ακόμη AILR Επιπέδου 5. Αγγίζουμε κάποιο Επίπεδο 4, αν και σε εξαιρετικά στενές αποδόσεις. Το Επίπεδο 3 αρχίζει να βλέπει το φως της δημοσιότητας, ενώ ο πυλώνας του AILR σήμερα βρίσκεται κυρίως στο Επίπεδο 2.

Ένα πρόσφατο ερευνητικό άρθρο σχετικά με την τεχνητή νοημοσύνη όπως εφαρμόζεται στη νομοθεσία έχει θέσει μια τυποποίηση γνωστή ως Law Informs Code. Ο ερευνητής το αναφέρει: «Ένας από τους πρωταρχικούς στόχους του Law Informs Code Η ατζέντα είναι να διδάξουμε την τεχνητή νοημοσύνη να ακολουθεί το πνεύμα του νόμου» (John J. Nay, «Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans», Northwestern Journal of Technology and Intellectual Property, Τόμος 20, προσεχής). Υπάρχουν ορισμένες βασικές εκτιμήσεις ότι το Law Informs Code Το μάντρα εμφανίζεται και θα σας καθοδηγήσω σε αρκετές από αυτές τις βασικές αρχές.

Πριν ασχοληθώ με το θέμα, θα ήθελα να θέσω πρώτα κάποια βασικά θεμέλια σχετικά με την τεχνητή νοημοσύνη και ιδιαίτερα την ηθική της τεχνητής νοημοσύνης και το δίκαιο της τεχνητής νοημοσύνης, ώστε να βεβαιωθώ ότι η συζήτηση θα είναι λογική με βάση τα συμφραζόμενα.

Η αυξανόμενη συνειδητοποίηση της ηθικής τεχνητής νοημοσύνης και επίσης του νόμου περί τεχνητής νοημοσύνης

Η πρόσφατη εποχή της τεχνητής νοημοσύνης θεωρήθηκε αρχικά ως ύπαρξη AI για καλό, που σημαίνει ότι θα μπορούσαμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για τη βελτίωση της ανθρωπότητας. Στα τακούνια του AI για καλό ήρθε η συνειδητοποίηση ότι είμαστε επίσης βυθισμένοι AI για κακό. Αυτό περιλαμβάνει την τεχνητή νοημοσύνη που έχει επινοηθεί ή αυτο-τροποποιηθεί ώστε να εισάγει διακρίσεις και κάνει υπολογιστικές επιλογές διαποτίζοντας αδικαιολόγητες προκαταλήψεις. Μερικές φορές η τεχνητή νοημοσύνη κατασκευάζεται με αυτόν τον τρόπο, ενώ σε άλλες περιπτώσεις στρίβει σε αυτό το δυσάρεστο έδαφος.

Θέλω να βεβαιωθώ ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες σχετικά με την αισθανόμενη τεχνητή νοημοσύνη, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι κάποιοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Θα πρότεινα ανεπιφύλακτα να κρατήσουμε τα πράγματα στη γη και να εξετάσουμε τη σημερινή υπολογιστική μη αισθητή τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Να είστε πολύ προσεκτικοί στην ανθρωπομορφοποίηση της σημερινής τεχνητής νοημοσύνης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων πλέον προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές της τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Όλα αυτά έχουν ιδιαίτερα σημαντικές επιπτώσεις στην ηθική της τεχνητής νοημοσύνης και προσφέρουν ένα εύχρηστο παράθυρο στα διδάγματα που αντλήθηκαν (ακόμα και πριν συμβούν όλα τα μαθήματα) όταν πρόκειται να προσπαθήσουμε να νομοθετήσουμε την τεχνητή νοημοσύνη.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε προηγούμενες στήλες, έχω καλύψει τις διάφορες εθνικές και διεθνείς προσπάθειες για τη δημιουργία και τη θέσπιση νόμων που ρυθμίζουν την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ, για παράδειγμα. Έχω επίσης καλύψει τις διάφορες αρχές και κατευθυντήριες γραμμές για την ηθική της τεχνητής νοημοσύνης που έχουν προσδιορίσει και υιοθετήσει διάφορα έθνη, συμπεριλαμβανομένης για παράδειγμα της προσπάθειας των Ηνωμένων Εθνών, όπως το σύνολο της UNESCO για Δεοντολογία της Τεχνητής Νοημοσύνης που υιοθέτησαν σχεδόν 200 χώρες, βλ. ο σύνδεσμος εδώ.

Ακολουθεί μια χρήσιμη βασική λίστα κριτηρίων ή χαρακτηριστικών ηθικής τεχνητής νοημοσύνης σχετικά με συστήματα τεχνητής νοημοσύνης που έχω εξερευνήσει προσεκτικά στο παρελθόν:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης υποτίθεται ότι χρησιμοποιούνται ένθερμα από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνες που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης.

Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή εκείνοι που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως τονίστηκε προηγουμένως εδώ, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Πρόσφατα εξέτασα επίσης το Διακήρυξη Δικαιωμάτων AI που είναι ο επίσημος τίτλος του επίσημου εγγράφου της κυβέρνησης των ΗΠΑ με τίτλο «Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People» που ήταν το αποτέλεσμα μιας προσπάθειας ενός έτους από το Γραφείο Πολιτικής Επιστήμης και Τεχνολογίας (OSTP ). Το OSTP είναι μια ομοσπονδιακή οντότητα που συμβουλεύει τον Αμερικανό Πρόεδρο και το Εκτελεστικό Γραφείο των ΗΠΑ για διάφορες τεχνολογικές, επιστημονικές και μηχανικές πτυχές εθνικής σημασίας. Υπό αυτή την έννοια, μπορείτε να πείτε ότι αυτή η Διακήρυξη Δικαιωμάτων AI είναι ένα έγγραφο που εγκρίθηκε και εγκρίθηκε από τον υπάρχοντα Λευκό Οίκο των ΗΠΑ.

Στη Διακήρυξη των Δικαιωμάτων AI, υπάρχουν πέντε βασικές κατηγορίες:

  • Ασφαλή και αποτελεσματικά συστήματα
  • Αλγοριθμικές προστασίες διάκρισης
  • Ιδιωτικότητα δεδομένων
  • Σημείωση και εξήγηση
  • Ανθρώπινες εναλλακτικές, σκέψη και εναλλακτική λύση

Εξέτασα προσεκτικά αυτές τις αρχές, βλ ο σύνδεσμος εδώ.

Τώρα που έθεσα μια χρήσιμη βάση σε αυτά τα σχετικά θέματα Ηθικής AI και νόμου για την τεχνητή νοημοσύνη, είμαστε έτοιμοι να μεταβούμε στο μεθυστικό θέμα των διπλών ελεγκτών AI Legal και στο βασίλειο της Law Informs Code.

AI Legal Double-Checkers ενσωματωμένα σε AI για ευθυγράμμιση ανθρώπινης αξίας

Μερικές φορές αναφέρομαι AI Legal Double-Checkers μέσω ενός ακρωνύμιου του AI-LDC. Αυτό είναι λίγο ενοχλητικό οπτικά για όσους δεν είναι εξοικειωμένοι με το ακρωνύμιο. Ως εκ τούτου, δεν θα χρησιμοποιήσω αυτό το συγκεκριμένο αρκτικόλεξο σε αυτήν τη συζήτηση, αλλά ήθελα να σας το αναφέρω ως προειδοποίηση.

Για να αποσυμπιέσουμε ορισμένες από τις πολυπλοκότητες των διπλών ελεγκτών AI Legal, ας εξετάσουμε αυτά τα κύρια σημεία:

  • Χρήση των AI Legal double-checkers ως μηχανισμός ευθυγράμμισης ανθρώπινων αξιών AI
  • Η πιο επεκτατική τεχνητή νοημοσύνη θα απαιτήσει αντίστοιχα πιο ισχυρούς διπλούς ελέγχους AI Legal
  • Οι νομικοί διπλοί έλεγχοι της AI θεσπίζουν το νόμο και κυρίως δεν θεσπίζουν νόμο (πιθανώς)
  • Λεπτή ισορροπία μεταξύ AI Νομική ενσωμάτωση του νόμου ως κανόνες έναντι προτύπων
  • Απαιτείται απόδειξη της πουτίγκας όταν πρόκειται για τεχνητή νοημοσύνη που τηρεί τη νομοθεσία

Λόγω περιορισμών χώρου, θα καλύψω μόνο αυτά τα πέντε σημεία προς το παρόν, αν και παρακαλώ να είστε σε εγρήγορση για περαιτέρω κάλυψη στη στήλη μου που καλύπτει πρόσθετες και εξίσου αξιοσημείωτες σκέψεις για αυτά τα ταχέως εξελισσόμενα και προοδευτικά ζητήματα.

Αυτή τη στιγμή, βάλτε τη ζώνη σας και ετοιμαστείτε για ένα αναζωογονητικό ταξίδι.

  • Χρήση των AI Legal double-checkers ως μηχανισμός ευθυγράμμισης ανθρώπινων αξιών AI

Υπάρχουν πολλοί τρόποι για να προσπαθήσετε να επιτύχετε μια αρμονική ευθυγράμμιση μεταξύ της τεχνητής νοημοσύνης και των ανθρώπινων αξιών.

Όπως αναφέρθηκε προηγουμένως, μπορούμε να παράγουμε και να διαδώσουμε κανόνες ηθικής τεχνητής νοημοσύνης και να επιδιώξουμε να πείσουμε τους προγραμματιστές της τεχνητής νοημοσύνης και εκείνους που διαθέτουν και λειτουργούν την τεχνητή νοημοσύνη να συμμορφώνονται με αυτούς τους βασικούς λίθους. Δυστυχώς, αυτό από μόνο του δεν θα κάνει το κόλπο. Έχετε κάποιους επινοητές που αναπόφευκτα δεν θα λάβουν το μήνυμα. Έχετε μερικούς επινοητές που θα επιδεικνύουν την ηθική τεχνητή νοημοσύνη και θα προσπαθήσουν να παρακάμψουν τις κάπως χαλαρές προδιαγεγραμμένες αρχές. Και ούτω καθεξής.

Η χρήση προσεγγίσεων «ήπιου νόμου» που συνεπάγεται την ηθική της τεχνητής νοημοσύνης πρέπει σχεδόν αναπόφευκτα να συνδυαστεί με οδούς «σκληρού νόμου», όπως η ψήφιση νόμων και κανονισμών που θα στείλουν ένα ισχυρό μήνυμα σε όλους όσους δημιουργούν ή χρησιμοποιούν την τεχνητή νοημοσύνη. Το μακρύ χέρι του νόμου μπορεί να έρθει να σας πάρει αν δεν αξιοποιείτε με σύνεση την τεχνητή νοημοσύνη. Ο ήχος από τις πόρτες της φυλακής που χτυπούν θα μπορούσε να τραβήξει την έντονη προσοχή.

Ένα μεγάλο πρόβλημα όμως είναι ότι μερικές φορές η πόρτα του αχυρώνα έχει ήδη αφήσει τα άλογα να βγουν και να κυκλοφορούν. Μια τεχνητή νοημοσύνη που θα τεθεί σε εφαρμογή θα παράγει δυνητικά κάθε είδους παράνομες πράξεις και θα συνεχίσει να το κάνει μέχρι όχι απλώς να συλληφθεί, αλλά και όταν κάποια μέτρα επιβολής επιτέλους θα προχωρήσουν για να ανακόψουν τη ροή των παράνομων ενεργειών. Όλα αυτά μπορεί να χρειαστούν χρόνο. Εν τω μεταξύ, οι άνθρωποι βλάπτονται με τον ένα ή τον άλλο τρόπο.

Σε αυτήν την επιδρομή έρχεται ο διπλός έλεγχος AI Legal.

Διαμένοντας σε μια εφαρμογή τεχνητής νοημοσύνης, ο διπλός έλεγχος AI Legal είναι σε θέση να εντοπίσει αμέσως πότε το AI φαίνεται να παραβιάζει το νόμο. Ο διπλός έλεγχος AI Legal ενδέχεται να σταματήσει το AI στα ίχνη του. Ή το εξάρτημα μπορεί να ειδοποιήσει τους ανθρώπους σχετικά με τις διαπιστωθείσες παράνομες δραστηριότητες, κάνοντάς το σε έγκαιρη βάση που θα μπορούσε να παρακινήσει τους επιβλέποντες σε επείγουσες διορθωτικές ενέργειες. Υπάρχει επίσης η θεωρούμενη τυπική καταγραφή που θα μπορούσε να δημιουργήσει το στοιχείο, παρέχοντας μια απτή εμφάνιση μιας διαδρομής ελέγχου για σκοπούς κωδικοποίησης των δυσμενών ενεργειών του AI.

Οι νόμοι μας λέγεται ότι είναι μια μορφή πολυπαραγοντικής συσσώρευσης, έτσι ώστε οι νόμοι είναι αναπόφευκτα ένα μείγμα από αυτό που η κοινωνία επιδίωξε να φέρει ως ισορροπία μεταξύ πιθανών αντικρουόμενων απόψεων για σωστές και ακατάλληλες κοινωνικές συμπεριφορές. Ένας νομικός έλεγχος AI Legal που βασίζεται στους νόμους μας επομένως ενσωματώνει αυτό το μείγμα.

Σημειωτέον, αυτό δεν είναι απλώς ο προγραμματισμός μιας λίστας οριστικών νομικών κανόνων. Οι νόμοι τείνουν να είναι πιο εύπλαστοι και να αγωνίζονται προς γενικά πρότυπα, αντί να προσδιορίζουν τους πιο μικροσκοπικούς κανόνες. Οι πολυπλοκότητες είναι πολλές.

Επιστρέφοντας στο προηγουμένως σημειωμένο ερευνητικό έγγραφο, ορίστε πώς μπορούν επίσης να ληφθούν υπόψη αυτές οι σκέψεις σχετικά με την επιδίωξη του AI Alignment: «Ο νόμος, η εφαρμοσμένη φιλοσοφία της ευθυγράμμισης πολλαπλών πρακτόρων, πληροί μοναδικά αυτά τα κριτήρια. Η ευθυγράμμιση είναι πρόβλημα γιατί δεν μπορούμε εκ των προτέρων καθορίζει κανόνες που κατευθύνουν πλήρως και αποδεδειγμένα την καλή συμπεριφορά AI. Ομοίως, τα μέρη σε μια νομική σύμβαση δεν μπορούν να προβλέψουν κάθε ενδεχόμενο της σχέσης τους και οι νομοθέτες δεν μπορούν να προβλέψουν τις συγκεκριμένες συνθήκες υπό τις οποίες θα εφαρμοστούν οι νόμοι τους. Γι' αυτό μεγάλο μέρος του δικαίου είναι ένας αστερισμός προτύπων» (ibid).

Η ενσωμάτωση του νόμου σε έναν διπλό έλεγχο νομικής τεχνητής νοημοσύνης είναι πολύ πιο δύσκολη από ό,τι θα μπορούσατε να υποθέσετε αρχικά.

Καθώς η τεχνητή νοημοσύνη προχωρά, θα χρειαστεί να αξιοποιήσουμε αυτές τις προόδους ανάλογα. Αποδεικνύεται ότι ό,τι είναι καλό για τη χήνα είναι καλό και για τον λάτρη. Όσοι από εμάς σημειώνουμε πρόοδο στην τεχνητή νοημοσύνη, όπως εφαρμόζεται στη νομοθεσία, πιέζουμε το φάκελο για την τεχνητή νοημοσύνη και αναμφίβολα σφυρηλατούμε νέες προόδους που μπορούν τελικά να τροφοδοτήσουν την πρόοδο της τεχνητής νοημοσύνης συνολικά.

  • Η πιο επεκτατική τεχνητή νοημοσύνη θα απαιτήσει αντίστοιχα πιο ισχυρούς διπλούς ελέγχους AI Legal

Ένα παιχνίδι γάτας και ποντικιού αντιμετωπίζει αυτό το θέμα.

Οι πιθανότητες είναι ότι καθώς η τεχνητή νοημοσύνη προχωρά περαιτέρω, οποιοδήποτε στοιχείο διπλού ελέγχου AI Legal θα βρίσκει τα πράγματα όλο και πιο δύσκολο να αντιμετωπίσει. Για παράδειγμα, μια εφαρμογή τεχνητής νοημοσύνης που ελέγχεται μπορεί να έχει πρόσφατα επινοήσει εξαιρετικά ύπουλους τρόπους για να κρύψει τις παράνομες ενέργειες που κάνει η τεχνητή νοημοσύνη. Ακόμα κι αν η τεχνητή νοημοσύνη δεν ακολουθεί μια λανθασμένη διαδρομή, η συνολική πολυπλοκότητα της τεχνητής νοημοσύνης θα μπορούσε από μόνη της να είναι ένα τρομακτικό εμπόδιο για την αναζήτηση του διπλού ελέγχου του AI Legal.

Να πώς αυτό γίνεται ιδιαίτερα σημαντικό.

Ας υποθέσουμε ότι ένας προγραμματιστής τεχνητής νοημοσύνης ή κάποια εταιρεία που χρησιμοποιεί τεχνητή νοημοσύνη διακηρύσσει ότι υπάρχει ένας νομικός διπλός έλεγχος τεχνητής νοημοσύνης που έχει ενσωματωθεί στην εφαρμογή που βασίζεται σε τεχνητή νοημοσύνη. Voila, φαίνεται να έχουν πλέον πλύνει τα χέρια τους για τυχόν περαιτέρω ανησυχίες. Ο διπλός έλεγχος AI Legal θα φροντίσει για τα πάντα.

Οχι τόσο.

Ο διπλός έλεγχος AI Legal ενδέχεται να είναι ανεπαρκής για τη φύση της εφαρμογής AI που εμπλέκεται. Υπάρχει επίσης η πιθανότητα ο διπλός έλεγχος AI Legal να είναι ξεπερασμένος, ίσως να μην ενημερώνεται με τους πιο πρόσφατους νόμους που σχετίζονται με την εφαρμογή AI. Μπορούν να προβλεφθούν πολλοί λόγοι για τους οποίους η απλή παρουσία ενός διπλού ελέγχου AI Legal δεν θα είναι μια ασημένια σφαίρα.

Λάβετε υπόψη αυτές τις πληροφορίες από την έρευνα που αναφέρθηκε προηγουμένως: «Καθώς προχωρά η τελευταία λέξη της τεχνολογίας για την τεχνητή νοημοσύνη, μπορούμε να θέσουμε επαναληπτικά υψηλότερα όρια αποδεδειγμένων ικανοτήτων νομικής κατανόησης. Εάν ένας προγραμματιστής ισχυρίζεται ότι το σύστημά του έχει προηγμένες δυνατότητες σε εργασίες, θα πρέπει να επιδεικνύει αντίστοιχα προηγμένη νομική κατανόηση και νομικές, συλλογιστικές ικανότητες του AI, οι οποίες πρακτικά δεν έχουν κανένα ανώτατο όριο δυσκολίας όταν εξετάζουν το βούρκο των νόμων και των κανονισμών σε βάθος χρόνου, προηγουμένου και δικαιοδοσίας » (ibid).

  • Οι νομικοί διπλοί έλεγχοι της AI θεσπίζουν το νόμο και κυρίως δεν θεσπίζουν νόμο (πιθανώς)

Είμαι βέβαιος ότι κάποιοι από εσάς αισθάνεστε έκπληκτοι με την ιδέα να έχετε αυτούς τους διπλούς ελέγχους AI Legal.

Μια ανησυχία που εκφράζεται συχνά είναι ότι προφανώς θα επιτρέψουμε στην τεχνητή νοημοσύνη να αποφασίζει τους νόμους μας για εμάς. Θεέ μου, μπορεί να σκέφτεσαι, κάποιο κομμάτι αυτοματισμού θα ξεπεράσει την ανθρωπότητα. Αυτοί οι καταραμένοι ενσωματωμένοι AI Legal θα γίνουν οι προεπιλεγμένοι βασιλιάδες των νόμων μας. Ό,τι και να κάνουν θα είναι αυτό που φαίνεται να είναι ο νόμος.

Οι άνθρωποι θα κυβερνώνται από AI.

Και αυτοί οι διπλοί έλεγχοι AI Legal είναι η ολισθηρή κλίση που μας οδηγεί εκεί.

Ένα αντεπιχείρημα είναι ότι τέτοιες συζητήσεις είναι το υλικό των θεωριών συνωμοσίας. Υποθέτετε τρελά και βυθίζετε τον εαυτό σας σε τσίλι. Η πραγματικότητα είναι ότι αυτοί οι διπλοί έλεγχοι της AI Legal δεν είναι ευαισθητοποιημένοι, δεν πρόκειται να κατακτήσουν τον πλανήτη και οι διαφημίσεις για τον υπαρξιακό τους κίνδυνο είναι ξεκάθαρα παράλογο και υπερβολικά υπερεκτιμημένο.

Συνολικά, παραμένοντας με μια ήρεμη και λογική στάση, πρέπει να έχουμε κατά νου ότι οι διπλοί έλεγχοι της AI Legal χρησιμεύουν για να αντικατοπτρίζουν κατάλληλα το νόμο και όχι από σχέδιο και ούτε τυχαία να προχωρήσουμε παραπέρα με κάποιο τρόπο στην προεπιλογή στο σεβαστό βασίλειο της νόμος. Παραμερίζοντας τις παρεκβολές συναισθημάτων, μπορούμε βεβαίως να συμφωνήσουμε ότι υπάρχει μια πραγματική και πιεστική ανησυχία ότι το AI Legal double checker μπορεί να καταλήξει να παραποιεί την αληθινή φύση ενός δεδομένου νόμου.

Με τη σειρά σας, θα μπορούσατε να ισχυριστείτε ότι, επομένως, αυτός ο συγκεκριμένος «παραποιημένος» νόμος ουσιαστικά επαναλαμβάνεται, αφού δεν υποδηλώνει πλέον εύστοχα αυτό που προοριζόταν από τον πραγματικό νόμο. Πιστεύω ότι ειλικρινά μπορείτε να δείτε πώς αυτή είναι μια λεπτή αλλά αφηγηματική σκέψη. Οποιαδήποτε χρονική στιγμή, ο διπλός έλεγχος της τεχνητής νοημοσύνης θα μπορούσε σε εικονική βάση θεσπίζοντας ή ας πούμε "παραισθήσεις" νέους νόμους απλώς με τον τρόπο με τον οποίο το στοιχείο AI ερμηνεύει τον νόμο όπως είχε αρχικά αναφερθεί ή ενσωματωθεί στο AI (για την κάλυψή μου του AI λεγόμενο ψευδαισθήσεις, Δείτε ο σύνδεσμος εδώ).

Πρέπει να δοθεί ιδιαίτερη προσοχή σε αυτό.

Σε αυτό το θέμα, η προαναφερθείσα ερευνητική μελέτη προτείνει αυτήν την παράλληλη σκέψη όσον αφορά την προσπάθεια αποτροπής της υπέρβασης αυτής της ιερής γραμμής: «Δεν επιδιώκουμε η τεχνητή νοημοσύνη να έχει τη νομιμότητα να θεσπίζει νόμο, να δημιουργεί νομικό προηγούμενο ή να επιβάλλει νόμο. Στην πραγματικότητα, αυτό θα υπονόμευε την προσέγγισή μας (και θα πρέπει να καταβάλουμε σημαντική προσπάθεια για να το αποτρέψουμε). Αντίθετα, ο πιο φιλόδοξος στόχος του Κώδικα Πληροφόρησης Νόμου είναι να κωδικοποιήσει υπολογιστικά και να ενσωματώσει τη δυνατότητα γενίκευσης των υπαρχόντων νομικών εννοιών και προτύπων σε επικυρωμένη απόδοση τεχνητής νοημοσύνης» (ibid).

  • Λεπτή ισορροπία μεταξύ AI Νομική ενσωμάτωση του νόμου ως κανόνες έναντι προτύπων

Οι νόμοι είναι ακατάστατοι.

Για σχεδόν οποιονδήποτε νόμο για τα βιβλία, υπάρχει πιθανότατα πολλές ερμηνείες σχετικά με το τι ορίζει ο νόμος στην πράξη. Στη γλώσσα του τομέα της τεχνητής νοημοσύνης, αναφερόμαστε στους νόμους ως σημασιολογικά ασαφείς. Αυτό είναι που κάνει την ανάπτυξη της τεχνητής νοημοσύνης όπως εφαρμόζεται στη νομοθεσία μια τόσο συναρπαστική και ταυτόχρονα ενοχλητική πρόκληση. Σε αντίθεση με τον ακριβή αριθμό που μπορεί να δεις για εφαρμογές τεχνητής νοημοσύνης με χρηματοοικονομικό προσανατολισμό, η επιθυμία να ενσωματώσουμε τους νόμους μας στην τεχνητή νοημοσύνη συνεπάγεται την αντιμετώπιση ενός τσουνάμι σημασιολογικών ασαφειών.

Στο βιβλίο του ιδρύματός μου σχετικά με τις βασικές αρχές του AI Legal Reasoning (AILR), συζητώ πώς οι προηγούμενες προσπάθειες κωδικοποίησης νόμων σε ένα σύνολο περιορισμένων κανόνων δεν μας οδήγησαν στο βαθμό που θα θέλαμε να πάμε στον νομικό τομέα (βλ. ο σύνδεσμος εδώ). Το σημερινό AILR πρέπει να περιλαμβάνει μια ολοκλήρωση μεταξύ της χρήσης κανόνων και αυτών που θα μπορούσαν να ονομαστούν γενικά πρότυπα που αντιπροσωπεύει ο νόμος.

Αυτή η σημαντική ισορροπία μπορεί να εκφραστεί με αυτόν τον τρόπο: «Στην πράξη, οι περισσότερες νομικές διατάξεις προσγειώνονται κάπου σε ένα φάσμα μεταξύ καθαρού κανόνα και καθαρού προτύπου, και η νομική θεωρία μπορεί να βοηθήσει στην εκτίμηση του σωστού συνδυασμού «κανόνας» και «πρότυπος» κατά τον καθορισμό των στόχων των συστημάτων AI» (ibid).

  • Απαιτείται απόδειξη της πουτίγκας όταν πρόκειται για τεχνητή νοημοσύνη που τηρεί τη νομοθεσία

Το να θέλεις κάτι είναι διαφορετικό από το να έχεις κάτι.

Αυτό το ίχνος σοφίας προκύπτει όταν προτείνουμε ότι, αν και μπορεί να θέλουμε να έχουμε διπλούς ελέγχους AI Legal, πρέπει να διαβεβαιώσουμε ότι λειτουργούν και λειτουργούν σωστά. Σημειώστε ότι αυτό παρουσιάζει ένα άλλο σκληρό και εξαντλητικό εμπόδιο. Έχω καλύψει στο παρελθόν τις πιο πρόσφατες εξελίξεις και προκλήσεις στην επαλήθευση και την επικύρωση της τεχνητής νοημοσύνης, βλ ο σύνδεσμος εδώ.

Όπως σημειώνεται στην ερευνητική εργασία: «Για να αντιμετωπιστεί το κενό, προτού αναπτυχθούν μοντέλα τεχνητής νοημοσύνης σε ολοένα και πιο λειτουργικές ικανότητες, π.χ. πλήρως αυτόνομα οχήματα σε μεγάλους δρόμους, το μέρος που αναπτύσσει θα πρέπει να δείξει ότι το σύστημα κατανοεί τους ανθρώπινους στόχους, τις πολιτικές και τα νομικά πρότυπα. Μια διαδικασία επικύρωσης θα μπορούσε να απεικονίσει την «κατανόηση» του «νοήματος» των νομικών εννοιών» (ibid).

Συμπέρασμα

Σας παροτρύνω να εξετάσετε το ενδεχόμενο να συμμετάσχετε μαζί μου σε αυτήν την ευγενή αποστολή για τη δημιουργία και την τοποθέτηση διπλών ελεγκτών AI Legal. Χρειαζόμαστε περισσότερη προσοχή και πόρους αφιερωμένους σε αυτήν την ενάρετη επιδίωξη.

Αυτό παρέχει επίσης διπλό καθήκον, όπως αναφέρθηκε προηγουμένως, για την επίτευξη Νομικού Συλλογισμού AI (AILR) που μπορεί να χρησιμοποιηθεί για την παροχή βοήθειας σε δικηγόρους και ενδεχομένως να χρησιμοποιηθεί απευθείας από το ευρύ κοινό. Πράγματι, ορισμένοι υποστηρίζουν σθεναρά ότι το μόνο βιώσιμο μέσο για την επίτευξη πληρέστερης αίσθησης πρόσβασης στη δικαιοσύνη (A2J) θα είναι μέσω της δημιουργίας τεχνητής νοημοσύνης που ενσωματώνει νομικές ικανότητες και θα είναι προσβάσιμο από όλους.

Ένα γρήγορο τελευταίο σημείο προς το παρόν.

Η συζήτηση μέχρι στιγμής έχει τονίσει ότι το AI Legal double-checker θα ενσωματωθεί ή θα εμφυτευθεί σε AI. Αυτό είναι πράγματι ο πρωταρχικός στόχος όσων ερευνούν και αναλαμβάνουν αυτό το αναδυόμενο βασίλειο.

Εδώ είναι μια ερώτηση που αξίζει να σκεφτείτε.

Φορέστε το σκουφάκι της σκέψης σας.

Γιατί να μην κάνετε χρήση των διπλών ελεγκτών AI Legal σε όλο το λογισμικό;

Η ουσία είναι ότι αντί να χρησιμοποιούμε αποκλειστικά τους διπλούς ελέγχους AI Legal στο AI, ίσως θα πρέπει να διευρύνουμε την άποψή μας. Όλα τα είδη λογισμικού μπορούν να παραστρατηθούν νομικά. Η τεχνητή νοημοσύνη έχει ομολογουμένως τραβήξει τη μερίδα του λέοντος της προσοχής λόγω των τρόπων με τους οποίους η τεχνητή νοημοσύνη χρησιμοποιείται συνήθως, όπως η απόδοση απογοητευτικών αποφάσεων που επηρεάζουν τους ανθρώπους στην καθημερινή τους ζωή. Θα μπορούσατε ωστόσο να υποστηρίξετε εύκολα ότι υπάρχουν πολλά συστήματα που δεν είναι AI που κάνουν το ίδιο.

Ουσιαστικά, δεν πρέπει να επιτρέψουμε σε κανένα λογισμικό να αποφύγει ή να αποτρέψει το νόμο.

Θυμηθείτε νωρίτερα επίσης ότι ανέφερα τις δύο κατηγορίες συνδυασμού AI και νόμου. Στο παρόν έχουμε επικεντρωθεί στη χρήση της τεχνητής νοημοσύνης όπως εφαρμόζεται στη νομοθεσία. Στην άλλη όψη του νομίσματος είναι η εφαρμογή του νόμου στο AI. Ας υποθέσουμε ότι θεσπίζουμε νόμους που απαιτούν τη χρήση διπλού ελέγχου AI Legal.

Αυτό θα μπορούσε αρχικά να περιοριστεί σε συστήματα τεχνητής νοημοσύνης, ειδικά σε αυτά που χαρακτηρίζονται ως ιδιαίτερα υψηλού κινδύνου. Σταδιακά, η ίδια απαίτηση διπλού ελέγχου AI Legal θα μπορούσε να επεκταθεί και σε λογισμικό που δεν είναι AI. Και πάλι, δεν υπάρχουν δωρεάν βόλτες.

Ενώ εσείς ασχολείστε με αυτό το παραπάνω σκεπτικό, θα χαρίσω τα πράγματα ως ένα teaser κλεισίματος. Εάν πρόκειται να προσπαθήσουμε να απαιτήσουμε διπλό έλεγχο AI Legal, μπορεί επίσης να κάνουμε το ίδιο και με τους διπλούς ελέγχους AI Ethics. Η χρήση ενός διπλού ελέγχου AI Legal είναι μόνο η μισή ιστορία και δεν μπορούμε να παραμελήσουμε ή να ξεχάσουμε τις ανησυχίες για την ηθική της AI.

Θα τελειώσω αυτή τη χαριτωμένη ομιλία με ένα από τα αγαπημένα μου αποσπάσματα. Σύμφωνα με τα σοφά λόγια του Earl Warren, του διάσημου νομικού που υπηρέτησε ως Ανώτατος Δικαστής των Ηνωμένων Πολιτειών: «Στην πολιτισμένη ζωή, ο νόμος επιπλέει σε μια θάλασσα ηθικής».

Ίσως είναι καλύτερο να βάλουμε με έντονο τρόπο αυτά τα εκκολαπτόμενα και φουσκωμένα AI Legal double-checkers και AI Ethics double-checkers, αν θέλουμε να κρατήσουμε το κεφάλι μας πάνω από την πιθανή βαριά θάλασσα από ξινή τεχνητή νοημοσύνη και σκληρά συστήματα μη AI που θέτουν σε κίνδυνο την ασφάλειά μας .

Ίσως είναι το σωσίβιο της ανθρωπότητας.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- και-ai- law/