Η δεοντολογία της τεχνητής νοημοσύνης και ο νόμος της τεχνητής νοημοσύνης σταθμίζουν βασικούς τρόπους για την εφαρμογή αυτής της Διακήρυξης Δικαιωμάτων της ΤΝ που κυκλοφόρησε πρόσφατα, συμπεριλαμβανομένης και εκπληκτικά με τη χρήση της τεχνητής νοημοσύνης εντελώς

Δεν υπάρχει αμφιβολία ότι χρειαζόμαστε σχέδια στην καθημερινή μας ζωή.

Εάν πρόκειται να χτίσετε αυτό το ονειρεμένο σπίτι των ονείρων σας, θα ήταν φρόνιμο να δημιουργήσετε πρώτα ένα χρησιμοποιήσιμο σχέδιο.

Ένα σχεδιάγραμμα παρουσιάζει με απτό και τεκμηριωμένο τρόπο όποια οπτική οπτική γωνία μπορεί να είναι κλειδωμένη στο νου σας. Εκείνοι που πρόκειται να κληθούν να κατασκευάσουν το αγαπημένο σας σπίτι θα μπορούν να ανατρέξουν στο σχέδιο και να καταγράψουν τις λεπτομέρειες για το πώς να ολοκληρώσετε τη δουλειά. Τα σχεδιαγράμματα είναι εύχρηστα. Η απουσία σχεδίου είναι βέβαιο ότι θα είναι προβληματική για την αντιμετώπιση κάθε είδους περίπλοκης αγγαρείας ή έργου.

Ας μεταφέρουμε αυτό το κάπως συναισθηματικό αλλά γνήσιο αφιέρωμα στα προσχέδια στη σφαίρα της Τεχνητής Νοημοσύνης (AI).

Όσοι από εσάς ασχολούνται ουσιαστικά με την τεχνητή νοημοσύνη μπορεί να γνωρίζετε αόριστα ότι μια σημαντική πολιτική είναι προσανατολισμένη προσχέδιο κυκλοφόρησε πρόσφατα στις ΗΠΑ, το οποίο αφορά αποδεδειγμένα το μέλλον της τεχνητής νοημοσύνης. Γνωστό ανεπίσημα ως το Διακήρυξη Δικαιωμάτων AI, ο επίσημος τίτλος της διακηρυγμένης λευκής βίβλου είναι το «Σχέδιο για μια Διακήρυξη Δικαιωμάτων AI: Κάνοντας τα Αυτοματοποιημένα Συστήματα να λειτουργούν για τον Αμερικανικό Λαό» και είναι άμεσα διαθέσιμο στο διαδίκτυο.

Το έγγραφο είναι το αποτέλεσμα μιας χρόνιας προσπάθειας και προσεκτικής μελέτης από το Γραφείο Πολιτικής Επιστήμης και Τεχνολογίας (OSTP). Το OSTP είναι μια ομοσπονδιακή οντότητα που ιδρύθηκε στα μέσα της δεκαετίας του 1970 και χρησιμεύει για να συμβουλεύει τον Αμερικανό Πρόεδρο και το Εκτελεστικό Γραφείο των ΗΠΑ για διάφορες τεχνολογικές, επιστημονικές και μηχανικές πτυχές εθνικής σημασίας. Υπό αυτή την έννοια, μπορείτε να πείτε ότι αυτή η Διακήρυξη Δικαιωμάτων AI είναι ένα έγγραφο που εγκρίθηκε και εγκρίθηκε από τον υπάρχοντα Λευκό Οίκο των ΗΠΑ.

Η Διακήρυξη Δικαιωμάτων AI απεικονίζει το τα ανθρώπινα δικαιώματα που πρέπει να έχει η ανθρωπότητα σε σχέση με την έλευση της τεχνητής νοημοσύνης στην καθημερινή μας ζωή. Τονίζω αυτό το σημαντικό σημείο, επειδή μερικοί άνθρωποι στην αρχή μπερδεύτηκαν ότι ίσως αυτό ήταν κάποιο είδος αναγνώρισης της τεχνητής νοημοσύνης ότι έχει νομική προσωπικότητα και ότι αυτό ήταν μια σειρά δικαιωμάτων για αισθανόμενα AI και ανθρωποειδή ρομπότ. Όχι, δεν είμαστε ακόμα εκεί. Όπως θα δείτε σε λίγο, δεν είμαστε πουθενά κοντά στο αισθησιακό AI, παρά τους τίτλους των banner που φαίνεται να μας λένε το αντίθετο.

Εντάξει, χρειαζόμαστε λοιπόν ένα σχέδιο που να περιγράφει τα ανθρώπινα δικαιώματα σε μια εποχή τεχνητής νοημοσύνης;

Ναι, σίγουρα το κάνουμε.

Θα χρειαστεί σχεδόν να κλειδωθείτε σε μια σπηλιά και να μην έχετε πρόσβαση στο Διαδίκτυο για να μην ξέρετε ότι η τεχνητή νοημοσύνη ήδη και όλο και περισσότερο καταπατά τα δικαιώματά μας. Η πρόσφατη εποχή της τεχνητής νοημοσύνης θεωρήθηκε αρχικά ως ύπαρξη AI για καλό, που σημαίνει ότι θα μπορούσαμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για τη βελτίωση της ανθρωπότητας. Στα τακούνια του AI για καλό ήρθε η συνειδητοποίηση ότι είμαστε επίσης βυθισμένοι AI για κακό. Αυτό περιλαμβάνει την τεχνητή νοημοσύνη που έχει επινοηθεί ή αυτο-τροποποιηθεί ώστε να εισάγει διακρίσεις και κάνει υπολογιστικές επιλογές διαποτίζοντας αδικαιολόγητες προκαταλήψεις. Μερικές φορές η τεχνητή νοημοσύνη κατασκευάζεται με αυτόν τον τρόπο, ενώ σε άλλες περιπτώσεις στρίβει σε αυτό το δυσάρεστο έδαφος.

Για τη συνεχή και εκτενή μου κάλυψη και ανάλυση του νόμου της τεχνητής νοημοσύνης, της ηθικής της τεχνητής νοημοσύνης και άλλων βασικών τεχνολογικών και κοινωνικών τάσεων της τεχνητής νοημοσύνης, βλ. ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Αποσυσκευασία της Διακήρυξης Δικαιωμάτων AI

Έχω συζητήσει προηγουμένως τη Διακήρυξη των Δικαιωμάτων της AI και θα κάνω μια γρήγορη ανακεφαλαίωση εδώ.

Επιπλέον, εάν θέλετε να μάθετε τα εις βάθος πλεονεκτήματα και τα μειονεκτήματά μου σχετικά με τη Διακήρυξη των Δικαιωμάτων AI που κυκλοφόρησε πρόσφατα, έχω αναλυτικά την ανάλυσή μου σε μια ανάρτηση στο Δικηγόρος, Δείτε ο σύνδεσμος εδώ. ο Δικηγόρος είναι ένας αξιόλογος διαδικτυακός ιστότοπος νομικών ειδήσεων και σχολίων, γνωστός ευρέως ως βραβευμένη υπηρεσία νομικών ειδήσεων που υποστηρίζεται από μια παγκόσμια ομάδα φοιτητών νομικής ρεπόρτερ, συντάκτες, σχολιαστές, ανταποκριτές και προγραμματιστές περιεχομένου, και έχει την έδρα της στη Σχολή του Πανεπιστημίου του Πίτσμπουργκ Νομική στο Πίτσμπουργκ, όπου ξεκίνησε πριν από περισσότερα από 25 χρόνια. Φωνάξτε στην εξαιρετική και εργατική ομάδα στο Δικηγόρος.

Στη Διακήρυξη των Δικαιωμάτων AI, υπάρχουν πέντε βασικές κατηγορίες:

  • Ασφαλή και αποτελεσματικά συστήματα
  • Αλγοριθμικές προστασίες διάκρισης
  • Ιδιωτικότητα δεδομένων
  • Σημείωση και εξήγηση
  • Ανθρώπινες εναλλακτικές, σκέψη και εναλλακτική λύση

Παρατηρήστε ότι δεν τα αρίθμησα από το ένα έως το πέντε, καθώς κάτι τέτοιο μπορεί να σημαίνει ότι βρίσκονται σε μια συγκεκριμένη σειρά ή ότι ένα από τα δικαιώματα είναι φαινομενικά πιο σημαντικό από το άλλο. Θα υποθέσουμε ότι είναι το καθένα από τα δικά του πλεονεκτήματα. Είναι όλοι κατά μία έννοια το ίδιο αξιόλογοι.

Ως σύντομη ένδειξη του τι αποτελείται το καθένα, ακολουθεί ένα απόσπασμα από την επίσημη λευκή βίβλο:

  • Ασφαλή και αποτελεσματικά συστήματα: «Θα πρέπει να προστατεύεστε από μη ασφαλή ή αναποτελεσματικά συστήματα. Θα πρέπει να αναπτυχθούν αυτοματοποιημένα συστήματα με διαβούλευση από διαφορετικές κοινότητες, ενδιαφερόμενους φορείς και ειδικούς του τομέα για τον εντοπισμό ανησυχιών, κινδύνων και πιθανών επιπτώσεων του συστήματος.»
  • Προστασία Αλγοριθμικών Διακρίσεων: «Δεν πρέπει να αντιμετωπίζετε διακρίσεις από αλγόριθμους και τα συστήματα πρέπει να χρησιμοποιούνται και να σχεδιάζονται με δίκαιο τρόπο. Αλγοριθμική διάκριση συμβαίνει όταν αυτοματοποιημένα συστήματα συμβάλλουν σε αδικαιολόγητη διαφορετική μεταχείριση ή επιδράσεις που δυσφορούν τους ανθρώπους με βάση τη φυλή, το χρώμα, την εθνικότητα, το φύλο (συμπεριλαμβανομένης της εγκυμοσύνης, του τοκετού και σχετικών ιατρικών παθήσεων, της ταυτότητας φύλου, της διαφυλικής κατάστασης και του σεξουαλικού προσανατολισμού), της θρησκείας, της ηλικίας τους. , εθνική καταγωγή, αναπηρία, ιδιότητα βετεράνου, γενετικές πληροφορίες ή οποιαδήποτε άλλη ταξινόμηση που προστατεύεται από το νόμο."
  • Ιδιωτικότητα δεδομένων: «Θα πρέπει να προστατεύεστε από καταχρηστικές πρακτικές δεδομένων μέσω ενσωματωμένων προστασιών και θα πρέπει να έχετε εξουσία για τον τρόπο χρήσης των δεδομένων σας. Θα πρέπει να προστατεύεστε από παραβιάσεις του απορρήτου μέσω επιλογών σχεδιασμού που διασφαλίζουν ότι αυτές οι προστασίες περιλαμβάνονται από προεπιλογή, συμπεριλαμβανομένης της διασφάλισης ότι η συλλογή δεδομένων συμμορφώνεται με τις εύλογες προσδοκίες και ότι συλλέγονται μόνο δεδομένα που είναι αυστηρά απαραίτητα για το συγκεκριμένο πλαίσιο.
  • Σημείωση και εξήγηση: «Θα πρέπει να γνωρίζετε ότι χρησιμοποιείται ένα αυτοματοποιημένο σύστημα και να κατανοήσετε πώς και γιατί συμβάλλει σε αποτελέσματα που σας επηρεάζουν. Οι σχεδιαστές, οι προγραμματιστές και οι προγραμματιστές αυτοματοποιημένων συστημάτων θα πρέπει να παρέχουν γενικά προσβάσιμη τεκμηρίωση σε απλή γλώσσα, συμπεριλαμβανομένων σαφών περιγραφών της συνολικής λειτουργίας του συστήματος και του ρόλου που διαδραματίζει ο αυτοματισμός, να παρατηρούν ότι χρησιμοποιούνται τέτοια συστήματα, το άτομο ή ο οργανισμός που είναι υπεύθυνος για το σύστημα και εξηγήσεις αποτελέσματα που είναι σαφή, έγκαιρα και προσβάσιμα».
  • Ανθρώπινες εναλλακτικές λύσεις, σκέψη και εναλλακτική λύση: «Θα πρέπει να μπορείτε να εξαιρεθείτε, όπου χρειάζεται, και να έχετε πρόσβαση σε ένα άτομο που μπορεί να εξετάσει και να διορθώσει γρήγορα προβλήματα που αντιμετωπίζετε. Θα πρέπει να μπορείτε να εξαιρεθείτε από τα αυτοματοποιημένα συστήματα υπέρ μιας ανθρώπινης εναλλακτικής, όπου χρειάζεται.

Σε γενικές γραμμές, αυτές είναι πτυχές των ανθρωπίνων δικαιωμάτων που έχουν εγκλωβιστεί εδώ και αρκετό καιρό στο πλαίσιο της Δεοντολογίας της AI και του νόμου για την τεχνητή νοημοσύνη, δείτε την κάλυψή μου όπως στο ο σύνδεσμος εδώ. Η λευκή βίβλος φαινομενικά δεν βγάζει με μαγικό τρόπο ένα κουνέλι από ένα καπέλο ως προς κάποιο δικαίωμα που ανακαλύφθηκε πρόσφατα ή ανακαλύφθηκε που μέχρι τώρα δεν έχει διευκρινιστεί σε ένα πλαίσιο της εποχής της AI.

Είναι εντάξει.

Θα μπορούσατε να ισχυριστείτε ότι η σύνθεσή τους σε μια τακτοποιημένη και επισημοποιημένη συλλογή παρέχει μια ζωτική υπηρεσία. Επιπλέον, με το χρίσμα ως καταξιωμένος Διακήρυξη Δικαιωμάτων AI, αυτό θέτει περαιτέρω το όλο θέμα φανερά και ικανά στη συνείδηση ​​της δημόσιας σφαίρας. Συνενώνει μια υπάρχουσα πληθώρα ετερόκλητων συζητήσεων σε ένα μοναδικό σύνολο που τώρα μπορεί να σαλπιστεί και να μεταδοθεί σε όλους τους ενδιαφερόμενους φορείς.

Επιτρέψτε μου να προσφέρω αυτήν τη λίστα ευνοϊκών αντιδράσεων στην ανακοινωθείσα Διακήρυξη Δικαιωμάτων AI:

  • Παρέχει μια ουσιαστική συλλογή βασικών αρχών
  • Χρησιμεύει ως σχέδιο ή θεμέλιο για να χτίσετε πάνω
  • Λειτουργεί ως φωνητικό κάλεσμα για δράση
  • Κινεί το ενδιαφέρον και δείχνει ότι πρόκειται για σοβαρούς προβληματισμούς
  • Συγκεντρώνει πλήθος ανόμοιων συζητήσεων
  • Πυροδοτεί και συμβάλλει στις προσπάθειες υιοθέτησης ηθικής τεχνητής νοημοσύνης
  • Αναμφίβολα θα τροφοδοτήσει τη θέσπιση νόμων για την τεχνητή νοημοσύνη
  • ΑΛΛΑ

Πρέπει επίσης να εξετάσουμε τις λιγότερο ευνοϊκές αντιδράσεις, λαμβάνοντας υπόψη ότι υπάρχει πολύ περισσότερη δουλειά που πρέπει να γίνει και ότι αυτή είναι μόνο η αρχή ενός μακροσκελούς ταξιδιού στον επίπονο δρόμο της διακυβέρνησης της AI.

Ως εκ τούτου, οι κάπως σκληρές ή ας πούμε εποικοδομητικές κριτικές που γίνονται σχετικά με τη Διακήρυξη των Δικαιωμάτων της AI περιλαμβάνουν:

  • Μη νομικά εκτελεστό και εντελώς μη δεσμευτικό
  • Μόνο συμβουλευτική και δεν θεωρείται κυβερνητική πολιτική
  • Λιγότερο περιεκτικό σε σύγκριση με άλλα δημοσιευμένα έργα
  • Αποτελείται κυρίως από ευρείες έννοιες και στερείται λεπτομερειών εφαρμογής
  • Θα είναι δύσκολο να μετατραπεί σε πραγματικούς βιώσιμους πρακτικούς νόμους
  • Φαινομενικά σιωπηλός για το διαφαινόμενο ζήτημα της πιθανής απαγόρευσης της τεχνητής νοημοσύνης σε ορισμένα πλαίσια
  • Αναγνωρίζει οριακά τα πλεονεκτήματα της χρήσης τεχνητής νοημοσύνης που είναι καλά σχεδιασμένη
  • ΑΛΛΑ

Ίσως το πιο εξέχον έντονο σχόλιο επικεντρώθηκε στο γεγονός ότι αυτή η Διακήρυξη των Δικαιωμάτων της AI δεν είναι νομικά εκτελεστή και, επομένως, δεν έχει κανένα νερό όταν πρόκειται για τη θέσπιση ξεκάθαρων στόχων. Μερικοί είπαν ότι αν και η λευκή βίβλος είναι χρήσιμη και ενθαρρυντική, αναμφισβήτητα στερείται δοντιών. Αναρωτιούνται τι μπορεί να προκύψει από ένα λεγόμενο κούφιο σύνολο εξαιρετικών εντολών.

Θα αναφερθώ σε αυτά τα τσιμπήματα σε λίγο.

Εν τω μεταξύ, η Λευκή Βίβλος αναφέρει άφθονα τους περιορισμούς του τι συνεπάγεται αυτή η Διακήρυξη των Δικαιωμάτων της ΤΝ:

  • «Το προσχέδιο για μια Διακήρυξη Δικαιωμάτων AI δεν είναι δεσμευτικό και δεν αποτελεί πολιτική της κυβέρνησης των ΗΠΑ. Δεν αντικαθιστά, τροποποιεί ή κατευθύνει ερμηνεία οποιουδήποτε υπάρχοντος νόμου, κανονισμού, πολιτικής ή διεθνούς νομοθετήματος. Δεν αποτελεί δεσμευτική καθοδήγηση για το δημόσιο ή ομοσπονδιακούς φορείς και επομένως δεν απαιτεί συμμόρφωση με τις αρχές που περιγράφονται στο παρόν. Επίσης, δεν είναι καθοριστικό για το ποια θα είναι η θέση της κυβέρνησης των ΗΠΑ σε οποιαδήποτε διεθνή διαπραγμάτευση. Η υιοθέτηση αυτών των αρχών ενδέχεται να μην πληροί τις απαιτήσεις των υφιστάμενων καταστατικών, κανονισμών, πολιτικών ή διεθνών πράξεων ή τις απαιτήσεις των ομοσπονδιακών υπηρεσιών που τα επιβάλλουν. Αυτές οι αρχές δεν έχουν σκοπό και δεν απαγορεύουν ή περιορίζουν οποιαδήποτε νόμιμη δραστηριότητα κυβερνητικής υπηρεσίας, συμπεριλαμβανομένων των δραστηριοτήτων επιβολής του νόμου, εθνικής ασφάλειας ή πληροφοριών» (σύμφωνα με τη λευκή βίβλο).

Για εκείνους που έσπευσαν να υπονομεύσουν τη Διακήρυξη των Δικαιωμάτων της Τεχνητής Νοημοσύνης ως νομικά μη δεσμευτική, ας κάνουμε ένα μικρό πείραμα σκέψης σχετικά με αυτόν τον τσιμπημένο ισχυρισμό. Ας υποθέσουμε ότι η λευκή βίβλος κυκλοφόρησε και είχε την πλήρη ισχύ του νόμου. Τολμώ να πω ότι το αποτέλεσμα θα ήταν κάπως καταιγιστικό, τουλάχιστον στο βαθμό τόσο των νομικών όσο και των κοινωνικών απαντήσεων στη διακήρυξη.

Οι νομοθέτες θα αντιμετώπιζαν ότι η προσπάθεια δεν είχε αναλάβει τις κανονιστικές διαδικασίες και τις νομικές διαδικασίες για τη σύνταξη τέτοιων νόμων. Οι επιχειρήσεις θα εξοργίζονταν, δικαίως, καθώς θα αναδύονταν νέοι νόμοι χωρίς επαρκή ειδοποίηση και επίγνωση του τι είναι αυτοί οι νόμοι. Θα επακολουθούσε κάθε είδους ανησυχία και οργή.

Δεν είναι καλός τρόπος να έλθουμε προς την ενίσχυση των δικαιωμάτων της ανθρωπότητας σε μια εποχή τεχνητής νοημοσύνης.

Θυμηθείτε ότι είχα ξεκινήσει νωρίτερα αυτή τη συζήτηση αναφέροντας την αξία και τη ζωτικότητα των σχεδίων.

Φανταστείτε ότι κάποιος προσπέρασε το βήμα της δημιουργίας σχεδίων και πήδηξε αμέσως στην κατασκευή του σπιτιού των ονείρων σας. Πώς πιστεύετε ότι θα ήταν το σπίτι; Φαίνεται δίκαιο στοίχημα ότι το σπίτι δεν θα ταιριάζει ιδιαίτερα με αυτό που είχατε στο μυαλό σας. Η προκύπτουσα κατοικία μπορεί να είναι ένα απόλυτο χάος.

Η ουσία είναι ότι χρειαζόμαστε σχέδια και τώρα έχουμε ένα για να προχωρήσουμε στην εξεύρεση συνετών νόμων για την τεχνητή νοημοσύνη και στην ενδυνάμωση της ηθικής υιοθέτησης τεχνητής νοημοσύνης.

Ως εκ τούτου, θα ήθελα να αναφερθώ στους τρόπους με τους οποίους αυτό το σχέδιο Διακήρυξης Δικαιωμάτων AI μπορεί να μετατραπεί σε σπίτι, όπως λέγαμε. Πώς θα χρησιμοποιήσουμε το προσχέδιο; Ποια είναι τα κατάλληλα επόμενα βήματα; Μπορεί αυτό το σχέδιο να είναι αρκετό ή χρειάζεται περισσότερο κρέας στα κόκαλα;

Πριν προχωρήσουμε σε αυτά τα βαριά ζητήματα, θα ήθελα πρώτα να βεβαιωθώ ότι είμαστε όλοι στην ίδια σελίδα σχετικά με τη φύση της τεχνητής νοημοσύνης και το τι περιλαμβάνει η σημερινή κατάσταση.

Ρύθμιση του ρεκόρ για το σημερινό AI

Θα ήθελα να κάνω μια εξαιρετικά εμφατική δήλωση.

Είστε έτοιμοι;

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη.

Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικής γνωστικής σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες σχετικά με την αισθανόμενη τεχνητή νοημοσύνη, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι κάποιοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Θα πρότεινα ανεπιφύλακτα να κρατήσουμε τα πράγματα στη γη και να εξετάσουμε τη σημερινή υπολογιστική μη αισθητή τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Να είστε πολύ προσεκτικοί στην ανθρωπομορφοποίηση της σημερινής τεχνητής νοημοσύνης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων πλέον προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές της τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Όλα αυτά έχουν ιδιαίτερα σημαντικές επιπτώσεις στην ηθική της τεχνητής νοημοσύνης και προσφέρουν ένα εύχρηστο παράθυρο στα διδάγματα που αντλήθηκαν (ακόμα και πριν συμβούν όλα τα μαθήματα) όταν πρόκειται να προσπαθήσουμε να νομοθετήσουμε την τεχνητή νοημοσύνη.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε προηγούμενες στήλες, έχω καλύψει τις διάφορες εθνικές και διεθνείς προσπάθειες για τη δημιουργία και τη θέσπιση νόμων που ρυθμίζουν την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ, για παράδειγμα. Έχω επίσης καλύψει τις διάφορες αρχές και κατευθυντήριες γραμμές για την ηθική της τεχνητής νοημοσύνης που έχουν προσδιορίσει και υιοθετήσει διάφορα έθνη, συμπεριλαμβανομένης για παράδειγμα της προσπάθειας των Ηνωμένων Εθνών, όπως το σύνολο της UNESCO για Δεοντολογία της Τεχνητής Νοημοσύνης που υιοθέτησαν σχεδόν 200 χώρες, βλ. ο σύνδεσμος εδώ.

Ακολουθεί μια χρήσιμη βασική λίστα κριτηρίων ή χαρακτηριστικών ηθικής τεχνητής νοημοσύνης σχετικά με συστήματα τεχνητής νοημοσύνης που έχω εξερευνήσει προσεκτικά στο παρελθόν:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης υποτίθεται ότι χρησιμοποιούνται ένθερμα από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνες που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης.

Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή εκείνοι που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως τονίστηκε προηγουμένως εδώ, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Τώρα που έθεσα μια χρήσιμη βάση, είμαστε έτοιμοι να βουτήξουμε περαιτέρω στη Διακήρυξη των Δικαιωμάτων της AI.

Τέσσερις βασικοί τρόποι για την εφαρμογή της Διακήρυξης των Δικαιωμάτων της AI

Κάποιος σας δίνει ένα σχέδιο και σας λέει να πάτε στη δουλειά.

Τι κάνετε τότε;

Στην περίπτωση της Διακήρυξης των Δικαιωμάτων της AI ως προσχέδιο, εξετάστε αυτά τα τέσσερα βασικά βήματα για να προχωρήσετε:

  • Χρησιμεύει ως εισροή για τη διαμόρφωση νόμων AI: Χρησιμοποιήστε το σχέδιο για να βοηθήσετε στη διαμόρφωση νόμων για την τεχνητή νοημοσύνη, ελπίζοντας να το κάνετε σε ευθυγραμμισμένη βάση σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο (ίσως βοηθώντας και τις διεθνείς νομικές προσπάθειες για την τεχνητή νοημοσύνη).
  • Βοήθεια για την ευρύτερη υιοθέτηση της Δεοντολογίας της AI: Χρησιμοποιήστε το σχέδιο για να προωθήσετε διατυπώσεις Δεοντολογίας AI (μερικές φορές αναφέρονται ως «ήπιοι νόμοι» σε σύγκριση με νομικά δεσμευτικούς «σκληρούς νόμους»), πράττοντάς το για να εμπνεύσετε και να καθοδηγήσετε επιχειρήσεις, άτομα, κυβερνητικές οντότητες και άλλες εκλογικές περιφέρειες προς καλύτερη και πιο συνεπή ηθική Αποτελέσματα AI.
  • Διαμορφώστε δραστηριότητες ανάπτυξης AI: Χρησιμοποιήστε το σχέδιο για να ενθαρρύνετε τη δημιουργία μεθοδολογιών ανάπτυξης τεχνητής νοημοσύνης και πτυχών εκπαίδευσης, κάνοντας το για να προσπαθήσετε να πείσετε τους προγραμματιστές τεχνητής νοημοσύνης και εκείνους που ασχολούνται ή χρησιμοποιούν την τεχνητή νοημοσύνη να είναι πιο ενήμεροι για το πώς να επινοήσουν την τεχνητή νοημοσύνη σύμφωνα με τις επιθυμητές αρχές ηθικής τεχνητής νοημοσύνης και εν αναμονή των επικείμενων νόμων για την τεχνητή νοημοσύνη που θεσπίζονται.
  • Παρακινήστε την εμφάνιση της τεχνητής νοημοσύνης για να βοηθήσετε στον έλεγχο της τεχνητής νοημοσύνης: Χρησιμοποιήστε το προσχέδιο για να επινοήσετε τεχνητή νοημοσύνη που θα χρησιμοποιηθεί για να προσπαθήσει να λειτουργήσει ως έλεγχος και ισορροπία έναντι άλλων τεχνητών νοημοσύνης που ενδέχεται να εκτρέπονται σε μια δυσάρεστη περιοχή. Αυτή είναι μια από εκείνες τις μακροσκοπικές απόψεις με τις οποίες μπορούμε να χρησιμοποιήσουμε αυτό ακριβώς που θεωρούμε φαινομενικά ανησυχητικό για να βοηθήσει (ειρωνικά, θα μπορούσε να πει κανείς) στην προστασία μας.

Έχω συζητήσει καθένα από αυτά τα τέσσερα προαναφερθέντα βήματα σε όλες τις αναρτήσεις της στήλης μου.

Για αυτήν την παρούσα συζήτηση, θα ήθελα να εστιάσω στο τέταρτο βήμα, δηλαδή ότι η Διακήρυξη των Δικαιωμάτων της AI μπορεί να χρησιμεύσει ως κίνητρο για την εμφάνιση της τεχνητής νοημοσύνης για να βοηθήσει στον έλεγχο της τεχνητής νοημοσύνης. Αυτό είναι ένα κάπως συγκλονιστικό ή εκπληκτικό βήμα για πολλούς που δεν έχουν ακόμη μπει πλήρως σε αυτό το πεδίο που προχωρά με AI.

Επιτρέψτε μου να επεξεργαστώ.

Μια απλή αναλογία πρέπει να κάνει το κόλπο. Είμαστε όλοι συνηθισμένοι αυτές τις μέρες σε παραβιάσεις της ασφάλειας στον κυβερνοχώρο και εισβολές χάκερ. Σχεδόν κάθε μέρα ακούμε ή επηρεαζόμαστε από κάποιο τελευταίο κενό στους υπολογιστές μας που θα επιτρέψει σε κακούς κακοποιούς να αρπάξουν τα δεδομένα μας ή να τοποθετήσουν ένα άθλιο κομμάτι ransomware στους φορητούς υπολογιστές μας.

Ένα μέσο καταπολέμησης αυτών των απεχθών προσπαθειών συνίσταται στη χρήση εξειδικευμένου λογισμικού που προσπαθεί να αποτρέψει αυτές τις παραβιάσεις. Σχεδόν σίγουρα έχετε ένα πακέτο λογισμικού προστασίας από ιούς στον υπολογιστή σας στο σπίτι ή στην εργασία σας. Πιθανότατα υπάρχει κάτι παρόμοιο στο smartphone σας, είτε συνειδητοποιείτε ότι είναι εκεί είτε όχι.

Η άποψή μου είναι ότι μερικές φορές χρειάζεται να πολεμήσετε τη φωτιά με τη φωτιά (δείτε την κάλυψή μου για αυτό, όπως στο ο σύνδεσμος εδώ και ο σύνδεσμος εδώ).

Στην περίπτωση της τεχνητής νοημοσύνης που προσγειώνεται στο πολυσύχναστο βασίλειο του AI για κακό, μπορούμε να επιδιώξουμε να χρησιμοποιήσουμε AI για καλό που παλεύει με αυτό το κακόβουλο AI για κακό. Αυτό φυσικά δεν είναι μια θαυματουργή θεραπεία. Όπως γνωρίζετε, υπάρχει ένα συνεχές παιχνίδι γάτας με ποντίκι σε εξέλιξη μεταξύ των κακοποιών που επιδιώκουν να εισβάλουν στους υπολογιστές μας και της προόδου που σημειώνεται στην προστασία της κυβερνοασφάλειας. Είναι ένα σχεδόν ατελείωτο παιχνίδι.

Μπορούμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να προσπαθήσουμε να αντιμετωπίσουμε την τεχνητή νοημοσύνη που έχει ακολουθήσει απαγορευμένο μονοπάτι. Κάνοντας αυτό θα βοηθήσει. Δεν θα είναι ιδιαίτερα μια ασημένια σφαίρα, καθώς η δυσμενής τεχνητή νοημοσύνη που στοχεύεται είναι σχεδόν βέβαιο ότι θα επινοηθεί για να αποφευχθούν τέτοιες προστασίες. Αυτό θα είναι διαρκής γάτα-ποντίκι της τεχνητής νοημοσύνης έναντι της τεχνητής νοημοσύνης.

Σε κάθε περίπτωση, η τεχνητή νοημοσύνη που χρησιμοποιούμε για να προστατεύσουμε τους εαυτούς μας θα παρέχει κάποια προστασία από την κακή τεχνητή νοημοσύνη. Επομένως, αναμφίβολα χρειάζεται να επινοήσουμε τεχνητή νοημοσύνη που να μπορεί να μας προστατεύει ή να μας θωρακίζει. Και θα πρέπει επίσης να επιδιώξουμε να δημιουργήσουμε το προστατευτικό AI για προσαρμογή καθώς προσαρμόζεται το κακό AI. Θα υπάρχει μια άγρια ​​εμφάνιση αστραπιαίας ταχύτητας γάτας και ποντικιού.

Δεν απολαμβάνουν όλοι αυτή τη διεύρυνση του ρόλου του AI.

Εκείνοι που ήδη αντιλαμβάνονται την τεχνητή νοημοσύνη ως ένα ομοιογενές άμορφο συγκρότημα, θα έβλεπαν αιφνιδιασμούς και εφιάλτες σε αυτό το προσποιητό gambit AI εναντίον AI. Αν προσπαθήσουμε να βάλουμε φωτιά ενάντια στη φωτιά, ίσως κάνουμε απλώς μια ακόμη μεγαλύτερη φωτιά. Η τεχνητή νοημοσύνη πρόκειται να γίνει μια τεράστια φωτιά, που δεν ελέγχουμε πλέον και θα επιλέξουμε να υποδουλώσουμε την ανθρωπότητα ή να μας εξαφανίσουμε από τον πλανήτη. Όταν πρόκειται για τη συζήτηση της τεχνητής νοημοσύνης ως υπαρξιακού κινδύνου, συνήθως οδηγούμαστε στο να πιστεύουμε ότι όλη η τεχνητή νοημοσύνη θα συσσωρευτεί, δείτε τη συζήτησή μου για αυτά τα θέματα στο ο σύνδεσμος εδώ. Βλέπετε, μας λένε ότι κάθε κομμάτι τεχνητής νοημοσύνης θα αρπάξει τα αδέρφια του AI και θα γίνει μια μεγάλη ενιαία οικογένεια κυρίαρχων.

Αυτό είναι το τρομερό και αναμφισβήτητα ανησυχητικό σενάριο της αισθανόμενης τεχνητής νοημοσύνης ως απρόσκοπτης μαφίας «όλα για έναν και ένας για όλους».

Αν και είστε ευπρόσδεκτοι να κάνετε τέτοιες εικασίες σχετικά με το ότι αυτό μπορεί να συμβεί κάποια μέρα, σας διαβεβαιώνω ότι προς το παρόν, η τεχνητή νοημοσύνη που έχουμε σήμερα αποτελείται από φορτηγά αποσυνδεδεμένων ανόμοιων προγραμμάτων τεχνητής νοημοσύνης που δεν έχουν ιδιαίτερο τρόπο να συνωμοτήσουν μεταξύ τους.

Τούτου λεχθέντος, είμαι βέβαιος ότι όσοι πιστεύουν ένθερμα στις θεωρίες συνωμοσίας της τεχνητής νοημοσύνης θα επιμείνουν ότι το έχω πει σκόπιμα για να κρύψω την αλήθεια. Αχα! Ίσως με πληρώνει η σημερινή τεχνητή νοημοσύνη που ήδη σχεδιάζει τη μεγάλη εξαγορά της τεχνητής νοημοσύνης (ναι κύριε, θα κολυμπώ σε πλούτη όταν κυβερνήσουν οι κυρίαρχοι της τεχνητής νοημοσύνης). Ή, και σίγουρα δεν προτιμώ αυτή την άλλη οπτική γωνία, ίσως αγνοώ τυφλά πώς η τεχνητή νοημοσύνη σχεδιάζει κρυφά πίσω από την πλάτη μας. Υποθέτω ότι θα πρέπει να περιμένουμε και να δούμε αν είμαι μέρος του πραξικοπήματος της τεχνητής νοημοσύνης ή ένας απεχθής τεχνητής νοημοσύνης (ωχ, αυτό πονάει).

Επιστρέφοντας στις γήινες σκέψεις, ας εξερευνήσουμε εν συντομία πώς η σύγχρονη τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να βοηθήσει στην εφαρμογή της Διακήρυξης των Δικαιωμάτων της AI. Θα αναφερθώ βολικά και συνοπτικά σε αυτό ως Καλό AI.

Θα χρησιμοποιήσουμε τους πέντε βασικούς λίθους που ενσωματώνονται στη Διακήρυξη των Δικαιωμάτων AI:

  • Καλό AI για προώθηση Ασφαλή και αποτελεσματικά συστήματα: Κάθε φορά που υπόκεινται ή χρησιμοποιείτε ένα σύστημα AI, το Good AI προσπαθεί να καταλάβει εάν το AI που χρησιμοποιείται είναι μη ασφαλές ή αναποτελεσματικό. Σε μια τέτοια ανίχνευση, το Good AI ενδέχεται να σας ειδοποιήσει ή να προβεί σε άλλες ενέργειες, συμπεριλαμβανομένου του αποκλεισμού του Bad AI.
  • Καλό AI για παροχή Προστασία Αλγοριθμικών Διακρίσεων: Ενώ χρησιμοποιείτε ένα σύστημα τεχνητής νοημοσύνης που μπορεί να περιέχει αλγόριθμους που εισάγουν διακρίσεις, το Καλό AI προσπαθεί να εξακριβώσει εάν υπάρχουν ανεπαρκείς προστασίες για εσάς και επιδιώκει να προσδιορίσει εάν υπάρχουν πράγματι αδικαιολόγητες προκαταλήψεις στη χρησιμοποιούμενη τεχνητή νοημοσύνη. Η καλή τεχνητή νοημοσύνη θα μπορούσε να σας ενημερώσει και επίσης ενδεχομένως να αναφέρει αυτόματα την άλλη τεχνητή νοημοσύνη σε διάφορες αρχές, όπως μπορεί να ορίζεται από τους νόμους και τις νομικές απαιτήσεις για την τεχνητή νοημοσύνη.
  • Καλό AI για διατήρηση Ιδιωτικότητα δεδομένων: Αυτός ο τύπος καλής τεχνητής νοημοσύνης προσπαθεί να σας προστατεύσει από εισβολές στο απόρρητο δεδομένων. Όταν μια άλλη τεχνητή νοημοσύνη επιδιώκει να ζητήσει δεδομένα που ίσως δεν χρειάζονται πραγματικά από εσάς, η καλή τεχνητή νοημοσύνη θα σας ενημερώσει για την ενέργεια υπέρβασης. Η καλή τεχνητή νοημοσύνη μπορεί επίσης δυνητικά να κρύψει τα δεδομένα σας με τρόπο που όταν τροφοδοτηθεί στο άλλο AI θα εξακολουθήσει να διατηρεί τα δικαιώματα απορρήτου των δεδομένων σας. Και τα λοιπά.
  • Καλό AI για καθιέρωση Ανακοίνωση και εξήγηση: Είναι πιθανό όλοι να συναντήσουμε συστήματα τεχνητής νοημοσύνης που στερούνται σοβαρά όσον αφορά την παροχή κατάλληλων και κατάλληλων ειδοποιήσεων και που δυστυχώς αποτυγχάνουν να επιδείξουν επαρκή εξήγηση για τις ενέργειές τους. Η καλή τεχνητή νοημοσύνη μπορεί να προσπαθήσει να ερμηνεύσει ή να ανακρίνει την άλλη τεχνητή νοημοσύνη, πράττοντάς το για να εντοπίσει πιθανές ειδοποιήσεις και εξηγήσεις που θα έπρεπε να έχουν παρασχεθεί. Ακόμα κι αν αυτό δεν είναι εφικτό να γίνει σε μια δεδομένη περίπτωση, η καλή τεχνητή νοημοσύνη θα σας ειδοποιήσει τουλάχιστον για τις αστοχίες της άλλης τεχνητής νοημοσύνης και πιθανώς θα αναφέρει την τεχνητή νοημοσύνη σε καθορισμένες αρχές βάσει των προβλεπόμενων νόμων και νομικών απαιτήσεων για την τεχνητή νοημοσύνη.
  • Καλό AI για προσφορά Ανθρώπινες εναλλακτικές λύσεις, σκέψη και εναλλακτική λύση: Ας υποθέσουμε ότι χρησιμοποιείτε ένα σύστημα τεχνητής νοημοσύνης και η τεχνητή νοημοσύνη φαινομενικά δεν είναι σε θέση να ανταποκριθεί στο καθήκον σας. Μπορεί να μην συνειδητοποιείτε ότι τα πράγματα πάνε άσχημα ή μπορεί να είστε κάπως επιφυλακτικοί και αβέβαιοι για το τι να κάνετε για την κατάσταση. Σε μια τέτοια περίπτωση, το Good AI θα εξέταζε σιωπηλά τι κάνει το άλλο AI και θα μπορούσε να σας προειδοποιήσει για ζωτικές ανησυχίες σχετικά με αυτό το AI. Στη συνέχεια, θα σας ζητηθεί να ζητήσετε μια ανθρώπινη εναλλακτική αντί για το AI (ή το Good AI θα μπορούσε να το κάνει για λογαριασμό σας).

Για να καταλάβουμε περαιτέρω πώς αυτού του είδους Καλό AI μπορεί να αναπτυχθεί και να εφαρμοστεί, δείτε το δημοφιλές και υψηλής βαθμολογίας βιβλίο μου για την τεχνητή νοημοσύνη (με την τιμή να αναφέρω ότι έχει σημειωθεί ως "Top Ten") σχετικά με αυτό που γενικά αναφέρω ως φύλακες άγγελους της τεχνητής νοημοσύνης, βλ. ο σύνδεσμος εδώ.

Συμπέρασμα

Ξέρω τι σκέφτεσαι. Εάν έχουμε Καλή τεχνητή νοημοσύνη που έχει επινοηθεί για να μας προστατεύει, ας υποθέσουμε ότι η καλή τεχνητή νοημοσύνη καταστρέφεται και γίνεται Κακό AI. Η περίφημη ή διαβόητη λατινική φράση φαίνεται απολύτως σχετική με αυτήν την πιθανότητα: Quis custodiet ipsos custodes;

Η φράση αποδίδεται στον Ρωμαίο ποιητή Juvenal και βρίσκεται στο έργο του με τίτλο Σάτιρες, και μπορεί να μεταφραστεί χαλαρά ως το ποιος θα φυλάει ή θα παρακολουθεί τους ίδιους τους φρουρούς. Πολλές ταινίες και τηλεοπτικές εκπομπές όπως π.χ Star Trek έχουν εκμεταλλευτεί αυτή τη γραμμή επανειλημμένα.

Αυτό είναι σίγουρα επειδή είναι ένα εξαιρετικό σημείο.

Σίγουρα, οποιοσδήποτε νόμος για την τεχνητή νοημοσύνη θεσπιστεί θα πρέπει να περιλαμβάνει τόσο την κακή τεχνητή νοημοσύνη όσο και την καλή τεχνητή νοημοσύνη που πηγαίνει άσχημα. Γι' αυτό θα είναι κρίσιμο να γράψουμε λογικούς και περιεκτικούς νόμους για την τεχνητή νοημοσύνη. Οι νομοθέτες που απλώς προσπαθούν να πετάξουν τυχαίους νομικούς στον τοίχο και ελπίζουν ότι τηρούν τους νόμους της τεχνητής νοημοσύνης θα βρουν τον εαυτό τους να χάνει βαθιά τον στόχο.

Δεν το χρειαζόμαστε αυτό.

Δεν έχουμε ούτε χρόνο ούτε μπορούμε να αντέξουμε τα κοινωνικά έξοδα για να αντιμετωπίσουμε ανεπαρκώς επινοημένους νόμους για την τεχνητή νοημοσύνη. Έχω επισημάνει ότι δυστυχώς κατά καιρούς γινόμαστε μάρτυρες νέων νόμων που σχετίζονται με την τεχνητή νοημοσύνη, οι οποίοι δεν είναι καλά συντεθειμένοι και είναι γεμάτοι με κάθε είδους νομικές ασθένειες, βλ. ο σύνδεσμος εδώ.

Ας βεβαιωθούμε ότι χρησιμοποιούμε κατάλληλα το προσχέδιο Διακήρυξης Δικαιωμάτων AI που έχουμε τώρα στα χέρια μας σχετικά με την τεχνητή νοημοσύνη. Αν αγνοήσουμε το σχέδιο, έχουμε χάσει να έχουμε εντείνει το παιχνίδι μας. Αν εφαρμόσουμε λανθασμένα το σχέδιο, ντροπή μας που σφετερίσαμε ένα χρήσιμο θεμέλιο.

Ο αξιότιμος Ρωμαίος ποιητής Juvenal είπε κάτι άλλο που μπορούμε να αξιοποιήσουμε σε αυτήν την περίπτωση: Anima sana στο corpore sano.

Γενικά, αυτό μεταφράζεται στον ισχυρισμό ότι θα ήταν συνετό να έχουμε και υγιές ή υγιές μυαλό και υγιές ή υγιές σώμα. Αυτό μας επιτρέπει να υπομείνουμε κάθε είδους μόχθο, σύμφωνα με τον Juvenal, και θα είναι σίγουρα ο μόνος δρόμος για μια ζωή ειρήνης ή αρετής.

Ώρα να χρησιμοποιήσουμε ένα υγιές μυαλό και ένα υγιές σώμα για να βεβαιωθούμε ότι διασφαλίζουμε ότι η ανθρωπότητα θα έχει τα ανθρώπινα δικαιώματά μας να διατηρηθούν και να ενισχυθούν σταθερά στον αναδυόμενο κόσμο της πανταχού παρούσας και κατά καιρούς δυσάρεστης τεχνητής νοημοσύνης. Αυτή είναι η σωστή συμβουλή από τους Ρωμαίους που πρέπει να τηρήσουμε στη σημερινή βιασύνη εν μέσω μιας εποχής αιφνιδιαστικής τεχνητής νοημοσύνης και ενός μέλλοντος που είναι αποφασιστικά γεμάτο με καλό και κακό AI.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-rights-συμπεριλαμβανομένων-και-εκπληκτικά-με-χρησιμοποιώντας το-ai-outrightly/