Η υπεύθυνη τεχνητή νοημοσύνη απολαμβάνει εξαιρετική ώθηση μέσω της Διακήρυξης Δεοντολογίας AI από την κορυφαία επαγγελματική κοινωνία Η ACM

Είδατε ή ακούσατε τα νέα;

Ένα άλλο σύνολο κανόνων ηθικής τεχνητής νοημοσύνης ανακοινώθηκε πρόσφατα.

Ζοφερό χειροκρότημα, αν θέλετε.

Μετά πάλι, ίσως δεν το έχουν προσέξει λόγω του γεγονότος ότι τόσα άλλα διατάγματα ηθικής τεχνητής νοημοσύνης κυκλοφορούν εδώ και λίγο καιρό. Κάποιοι λένε ότι η φαινομενικά αδιάκοπη διήθηση των διακηρύξεων ηθικής τεχνητής νοημοσύνης γίνεται λίγο μουδιασμένη. Πόσους χρειαζόμαστε; Μπορεί κανείς να τα παρακολουθήσει όλα; Ποιο ειναι καλυτερο? Μήπως υπερβαίνουμε τις αρχές της ηθικής της τεχνητής νοημοσύνης; Και ούτω καθεξής.

Λοιπόν, στη συγκεκριμένη περίπτωση, λέω ότι πρέπει να χαιρετίσουμε ιδιαίτερα αυτήν την τελευταία προσθήκη στον σύλλογο.

Θα εξηγήσω το γιατί σε λίγο.

Πρώτον, ως διευκρίνιση, αναφέρομαι στο σύνολο αρχών ηθικής τεχνητής νοημοσύνης που είναι πλέον γνωστό επίσημα ως «Δήλωση σχετικά με τις αρχές για υπεύθυνα αλγοριθμικά συστήματα» που δημοσιεύτηκε πρόσφατα από το Συμβούλιο Πολιτικής Τεχνολογίας της ACM στις 26 Οκτωβρίου 2022. Συγχαρητήρια στις ομάδες εμπειρογνωμόνων που συνέταξαν αυτό το βραβευμένο έγγραφο, συμπεριλαμβανομένων των συνοδηγών συγγραφέων Jeanna Matthews (Πανεπιστήμιο Clarkson) και Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Όσοι από εσάς γνωρίζουν μπορεί μετά από προσεκτική επιθεώρηση να συνειδητοποιήσουν ότι αυτό το έγγραφο φαίνεται αμυδρά οικείο.

Καλό μάτι!

Αυτή η τελευταία ενσάρκωση είναι ουσιαστικά μια ενημερωμένη και διευρυμένη παραλλαγή της προηγούμενης κοινής "Δήλωση για την Αλγοριθμική Διαφάνεια και Λογοδοσία" που δημοσιεύθηκε από την Επιτροπή Τεχνολογικής Πολιτικής των ΗΠΑ και την Επιτροπή Τεχνολογικής Πολιτικής της ACM Ευρώπης το 2017. Οι πιστοί αναγνώστες των στηλών μου μπορεί να θυμούνται ότι Κατά καιρούς έχω αναφέρει το διάταγμα του 2017 στην κάλυψη της στήλης μου με βασικές πτυχές που διέπουν την ηθική της τεχνητής νοημοσύνης και το δίκαιο της τεχνητής νοημοσύνης.

Για την εκτενή και συνεχή αξιολόγησή μου και τις τάσεις αναλύσεις της Δεοντολογίας της ΤΝ και του νόμου της ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Αυτή η τελευταία δήλωση της ACM είναι ιδιαίτερα σημαντική για πολλούς ζωτικούς λόγους.

Εδώ γιατί.

Το ACM, το οποίο είναι ένα εύχρηστο αρκτικόλεξο για το Σύλλογος για την Πληροφορική Μηχανήματα, θεωρείται ο μεγαλύτερος σύλλογος που εστιάζει στους υπολογιστές στον κόσμο. Αποτελώντας περίπου 110,000 περίπου μέλη, η ACM είναι μια μακροχρόνια πρωτοπόρος στον τομέα των υπολογιστών. Το ACM παράγει μερικές από τις κορυφαίες επιστημονικές έρευνες στον τομέα των υπολογιστών, και παρομοίως παρέχει επαγγελματική δικτύωση και απευθύνει έκκληση και στους επαγγελματίες της πληροφορικής. Ως εκ τούτου, η ACM είναι μια σημαντική φωνή που αντιπροσωπεύει γενικά αυτούς που είναι υψηλής τεχνολογίας και έχει προσπαθήσει διαρκώς να προωθήσει τον τομέα των υπολογιστών (η ACM ιδρύθηκε το 1947).

Θα μπορούσα να προσθέσω και μια προσωπική σημείωση για αυτό. Όταν άρχισα να ασχολούμαι με τους υπολογιστές στο γυμνάσιο, μπήκα στο ACM και συμμετείχα στα εκπαιδευτικά τους προγράμματα, ειδικά τη συναρπαστική ευκαιρία να διαγωνιστώ στον ετήσιο διαγωνισμό προγραμματισμού υπολογιστών (τέτοιοι διαγωνισμοί είναι ευρέως συνηθισμένοι στις μέρες μας και χαρακτηρίζονται συνήθως ως hackathons). Παραμένω εμπλεκόμενος στο ACM ενώ ήμουν στο κολέγιο μέσω του τοπικού μου τμήματος του πανεπιστημίου και είχα την ευκαιρία να μάθω για την ηγεσία με το να γίνω υπεύθυνος κεφαλαίου φοιτητών. Με την είσοδό μου στον κλάδο, μπήκα σε ένα επαγγελματικό κεφάλαιο και ανέλαβα για άλλη μια φορά ηγετικό ρόλο. Αργότερα μετά από αυτό, όταν έγινα καθηγητής, υπηρέτησα σε επιτροπές και συντακτικές επιτροπές ACM, μαζί με τη χορηγία του κεφαλαίου των φοιτητών της πανεπιστημιούπολης. Ακόμη και σήμερα, δραστηριοποιούμαι στην ACM, συμπεριλαμβανομένης της θητείας μου στην Επιτροπή Τεχνολογικής Πολιτικής της ACM των ΗΠΑ.

Απολαμβάνω το ελκυστικό και διαρκές όραμα της ACM για δια βίου μάθηση και εξέλιξη σταδιοδρομίας.

Σε κάθε περίπτωση, όσον αφορά την τελευταία δήλωση AI Ethics, το γεγονός ότι έχει εκδοθεί από την ACM έχει μεγάλο βάρος σε αυτό. Θα μπορούσατε εύλογα να ισχυριστείτε ότι οι ηθικές αρχές τεχνητής νοημοσύνης είναι η ολότητα ή η συλλογική φωνή μιας παγκόσμιας ομάδας επαγγελματιών υπολογιστών. Κάτι λέει εκεί.

Υπάρχει επίσης η πτυχή ότι άλλοι στον τομέα των υπολογιστών θα εμπνευστούν για να ενθουσιαστούν και να ακούσουν με την έννοια του να δώσουν τη δέουσα προσοχή σε αυτό που δηλώνει η δήλωση από τους συναδέλφους τους στους υπολογιστές. Έτσι, ακόμη και για εκείνους που δεν συμμετέχουν στο ACM ή δεν γνωρίζουν τίποτα για το σεβαστό γκρουπ, ελπίζουμε ότι θα υπάρχει έντονο ενδιαφέρον να ανακαλύψουν τι αφορά η δήλωση.

Εν τω μεταξύ, αυτά που είναι εκτός του τομέα των υπολογιστών μπορεί να προσελκύεται από τη δήλωση ως ένα είδος εσωτερικής ματιάς στα παρασκήνια του τι λένε οι χρήστες των υπολογιστών για την ηθική τεχνητή νοημοσύνη. Θέλω ωστόσο να τονίσω ότι η δήλωση προορίζεται για όλους, όχι μόνο για όσους ανήκουν στην κοινότητα των υπολογιστών, και, ως εκ τούτου, να έχετε κατά νου ότι οι αρχές ηθικής τεχνητής νοημοσύνης είναι παντού, όπως λέγαμε.

Τέλος, υπάρχει μια πρόσθετη ανατροπή που λίγοι θα εξέταζαν.

Μερικές φορές, οι ξένοι αντιλαμβάνονται τις συσχετίσεις υπολογιστών ως τεχνολογίες μέχρι το γόνατο και ότι δεν γνωρίζουν ιδιαίτερα τις κοινωνικές επιπτώσεις των υπολογιστών και της τεχνητής νοημοσύνης. Μπορεί να μπείτε στον πειρασμό να υποθέσετε ότι τέτοιες επαγγελματικές οντότητες ενδιαφέρονται μόνο για τις πιο πρόσφατες και πιο καυτές ανακαλύψεις στο υλικό ή το λογισμικό. Γίνονται αντιληπτοί από το κοινό, με έναν απλά δηλωμένο χοντροκομμένο τρόπο, ως techie nerds.

Για να ξεκαθαρίσω τα πράγματα, έχω βυθιστεί στις κοινωνικές επιπτώσεις της πληροφορικής από τότε που άρχισα να ασχολούμαι με τους υπολογιστές και, ομοίως, η ACM ασχολήθηκε επίσης βαθιά με τέτοια θέματα.

Για όποιον εκπλήσσεται που αυτή η δήλωση σχετικά με τις αρχές ηθικής τεχνητής νοημοσύνης συντάχθηκε και κυκλοφόρησε από την ACM, δεν δίνει προσοχή στη μακροχρόνια έρευνα και εργασία που πραγματοποιείται σε αυτά τα θέματα. Θα ήθελα επίσης να προτρέψω τους ενδιαφερόμενους να ρίξουν μια καλή ματιά στο ACM Κώδικας ηθικής, ένας αυστηρός κώδικας επαγγελματικής δεοντολογίας που έχει εξελιχθεί με τα χρόνια και τονίζει ότι οι προγραμματιστές συστημάτων πρέπει να γνωρίζουν, να τηρούν και να επαγρυπνούν σχετικά με τις ηθικές συνέπειες των προσπαθειών και των προϊόντων τους.

Η τεχνητή νοημοσύνη πυροδοτεί τις πυρκαγιές όταν ενημερώνεται για την ηθική των υπολογιστών.

Η ορατότητα των ηθικών και νομικών εκτιμήσεων στον τομέα των υπολογιστών έχει αυξηθεί πάρα πολύ με την εμφάνιση της σημερινής τεχνητής νοημοσύνης. Όσοι ανήκουν στο επάγγελμα ενημερώνονται και κατά καιρούς διατυμπανίζονται για να δώσουν τη δέουσα προσοχή σε θέματα Ηθικής AI και Νόμου AI. Οι νομοθέτες συνειδητοποιούν ολοένα και περισσότερο τις πτυχές της ηθικής της τεχνητής νοημοσύνης και των νόμων για την τεχνητή νοημοσύνη. Οι εταιρείες συνειδητοποιούν ότι η τεχνητή νοημοσύνη που επινοούν ή χρησιμοποιούν είναι και συμφέρουσα και ωστόσο μερικές φορές ενέχει τεράστιους κινδύνους και πιθανά μειονεκτήματα.

Ας αποσυσκευάσουμε ό,τι συνέβη τα τελευταία χρόνια, ώστε να μπορέσει να δημιουργηθεί ένα κατάλληλο πλαίσιο προτού προχωρήσουμε σε αυτό το πιο πρόσφατο σύνολο αρχών ηθικής τεχνητής νοημοσύνης.

Η αυξανόμενη συνειδητοποίηση της ηθικής τεχνητής νοημοσύνης

Η πρόσφατη εποχή της τεχνητής νοημοσύνης θεωρήθηκε αρχικά ως ύπαρξη AI για καλό, που σημαίνει ότι θα μπορούσαμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για τη βελτίωση της ανθρωπότητας. Στα τακούνια του AI για καλό ήρθε η συνειδητοποίηση ότι είμαστε επίσης βυθισμένοι AI για κακό. Αυτό περιλαμβάνει την τεχνητή νοημοσύνη που έχει επινοηθεί ή αυτο-τροποποιηθεί ώστε να εισάγει διακρίσεις και κάνει υπολογιστικές επιλογές διαποτίζοντας αδικαιολόγητες προκαταλήψεις. Μερικές φορές η τεχνητή νοημοσύνη κατασκευάζεται με αυτόν τον τρόπο, ενώ σε άλλες περιπτώσεις στρίβει σε αυτό το δυσάρεστο έδαφος.

Θέλω να βεβαιωθώ ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες σχετικά με την αισθανόμενη τεχνητή νοημοσύνη, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι κάποιοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Θα πρότεινα ανεπιφύλακτα να κρατήσουμε τα πράγματα στη γη και να εξετάσουμε τη σημερινή υπολογιστική μη αισθητή τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Να είστε πολύ προσεκτικοί στην ανθρωπομορφοποίηση της σημερινής τεχνητής νοημοσύνης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων πλέον προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές της τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Όλα αυτά έχουν ιδιαίτερα σημαντικές επιπτώσεις στην ηθική της τεχνητής νοημοσύνης και προσφέρουν ένα εύχρηστο παράθυρο στα διδάγματα που αντλήθηκαν (ακόμα και πριν συμβούν όλα τα μαθήματα) όταν πρόκειται να προσπαθήσουμε να νομοθετήσουμε την τεχνητή νοημοσύνη.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Σε προηγούμενες στήλες, έχω καλύψει τις διάφορες εθνικές και διεθνείς προσπάθειες για τη δημιουργία και τη θέσπιση νόμων που ρυθμίζουν την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ, για παράδειγμα. Έχω επίσης καλύψει τις διάφορες αρχές και κατευθυντήριες γραμμές για την ηθική της τεχνητής νοημοσύνης που έχουν προσδιορίσει και υιοθετήσει διάφορα έθνη, συμπεριλαμβανομένης για παράδειγμα της προσπάθειας των Ηνωμένων Εθνών, όπως το σύνολο της UNESCO για Δεοντολογία της Τεχνητής Νοημοσύνης που υιοθέτησαν σχεδόν 200 χώρες, βλ. ο σύνδεσμος εδώ.

Ακολουθεί μια χρήσιμη βασική λίστα κριτηρίων ή χαρακτηριστικών ηθικής τεχνητής νοημοσύνης σχετικά με συστήματα τεχνητής νοημοσύνης που έχω εξερευνήσει προσεκτικά στο παρελθόν:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης υποτίθεται ότι χρησιμοποιούνται ένθερμα από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνες που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης.

Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της Ηθικής ΤΝ. Αυτό είναι ένα σημαντικό σημείο αναφοράς, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της ηθικής της τεχνητής νοημοσύνης. Όπως τονίστηκε προηγουμένως εδώ, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τους κανόνες Ηθικής AI.

Πρόσφατα εξέτασα επίσης το Διακήρυξη Δικαιωμάτων AI που είναι ο επίσημος τίτλος του επίσημου εγγράφου της κυβέρνησης των ΗΠΑ με τίτλο «Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People» που ήταν το αποτέλεσμα μιας προσπάθειας ενός έτους από το Γραφείο Πολιτικής Επιστήμης και Τεχνολογίας (OSTP ). Το OSTP είναι μια ομοσπονδιακή οντότητα που συμβουλεύει τον Αμερικανό Πρόεδρο και το Εκτελεστικό Γραφείο των ΗΠΑ για διάφορες τεχνολογικές, επιστημονικές και μηχανικές πτυχές εθνικής σημασίας. Υπό αυτή την έννοια, μπορείτε να πείτε ότι αυτή η Διακήρυξη Δικαιωμάτων AI είναι ένα έγγραφο που εγκρίθηκε και εγκρίθηκε από τον υπάρχοντα Λευκό Οίκο των ΗΠΑ.

Στη Διακήρυξη των Δικαιωμάτων AI, υπάρχουν πέντε βασικές κατηγορίες:

  • Ασφαλή και αποτελεσματικά συστήματα
  • Αλγοριθμικές προστασίες διάκρισης
  • Ιδιωτικότητα δεδομένων
  • Σημείωση και εξήγηση
  • Ανθρώπινες εναλλακτικές, σκέψη και εναλλακτική λύση

Εξέτασα προσεκτικά αυτές τις αρχές, βλ ο σύνδεσμος εδώ.

Τώρα που έθεσα χρήσιμα θεμέλια σε αυτά τα σχετικά θέματα AI Ethics και AI Law, είμαστε έτοιμοι να μεταβούμε στο ACM που κυκλοφόρησε πρόσφατα "Δήλωση σχετικά με τις αρχές για υπεύθυνα αλγοριθμικά συστήματα" (παρεμπιπτόντως, καθώς ο τίτλος του εγγράφου αναφέρεται σε υπεύθυνος αλγοριθμικά συστήματα, ίσως θέλετε να ρίξετε μια ματιά στην εκτίμησή μου για το τι σημαίνει να μιλάμε Αξιόπιστη τεχνητή νοημοσύνη, Δείτε ο σύνδεσμος εδώ).

Ετοιμαστείτε για ένα ταξίδι σε αυτό το τελευταίο σύνολο αρχών ηθικής τεχνητής νοημοσύνης.

Σκάβοντας με προσήλωση στις ACM Δηλωμένες Αρχές Δεοντολογίας AI

Η δήλωση ACM σχετικά με την ηθική τεχνητή νοημοσύνη αποτελείται από αυτούς τους εννέα βασικούς λίθους:

  • Νομιμότητα και ικανότητα
  • Ελαχιστοποίηση της βλάβης
  • Ασφάλεια και ιδιωτικό απόρρητο
  • Διαφάνεια
  • Ερμηνευσιμότητα και επεξήγηση
  • Συντήρηση
  • Δυνατότητα αμφισβήτησης και δυνατότητα ελέγχου
  • Υπευθυνότητα και υπευθυνότητα
  • Περιορισμός των περιβαλλοντικών επιπτώσεων

Εάν συγκρίνετε αυτό το πιο πρόσφατο σετ με άλλα σημαντικά διαθέσιμα σύνολα, υπάρχει μεγάλη ομοιότητα ή παρόμοια αντιστοιχία μεταξύ τους.

Από τη μία πλευρά, μπορείτε να το εκλάβετε αυτό ως καλό σημάδι.

Θα μπορούσαμε γενικά να ελπίζουμε ότι το πλήθος των αρχών δεοντολογίας της τεχνητής νοημοσύνης που αιωρούνται γύρω-γύρω συνενώνονται προς την ίδια συνολική κάλυψη. Βλέποντας ότι ένα σετ είναι κάπως συγκρίσιμο με ένα άλλο σετ, σας δίνει μια φαινομενική σιγουριά ότι αυτά τα σετ βρίσκονται στο ίδιο γήπεδο και όχι κατά κάποιον τρόπο έξω σε ένα αινιγματικό αριστερό πεδίο.

Ένα πιθανό παράπονο από ορισμένους είναι ότι αυτά τα διάφορα σύνολα φαίνονται να είναι περίπου τα ίδια, γεγονός που στη συνέχεια δημιουργεί πιθανώς σύγχυση ή τουλάχιστον σύγχυση λόγω της ανησυχίας ότι δεν θα έπρεπε να έχουμε πολλές φαινομενικά διπλές λίστες. Δεν μπορεί να υπάρχει μόνο μία λίστα; Το πρόβλημα φυσικά είναι ότι δεν υπάρχει απλός τρόπος να γίνουν όλες αυτές οι λίστες ομοιόμορφα ακριβώς ίδιες. Διαφορετικές ομάδες και διαφορετικές οντότητες το έχουν προσεγγίσει με διαφορετικούς τρόπους. Τα καλά νέα είναι ότι σχεδόν όλοι έχουν καταλήξει στο ίδιο γενικό συμπέρασμα. Μπορούμε να ανακουφιστούμε που τα σετ δεν έχουν τεράστιες διαφορές, κάτι που ίσως θα μας δυσκόλευε αν δεν υπήρχε μια συνολική συναίνεση.

Ένας αντίθετος θα μπορούσε να προτρέψει ότι η κοινότητα αυτών των λιστών είναι ανησυχητική, υποστηρίζοντας ότι ίσως υπάρχει μια ομαδική σκέψη σε εξέλιξη. Ίσως όλες αυτές οι διαφορετικές ομάδες να σκέφτονται με τον ίδιο τρόπο και να μην μπορούν να κοιτάξουν πέρα ​​από τον κανόνα. Όλοι μας πέφτουμε σε μια πανομοιότυπη παγίδα. Οι λίστες φαινομενικά αγκυροβολούν τη σκέψη μας και δεν μπορούμε να δούμε πέρα ​​από τη μύτη μας.

Το να κοιτάξουμε πέρα ​​από τη μύτη μας είναι αναμφίβολα μια αξιόλογη αιτία.

Σίγουρα είμαι ανοιχτός να ακούσω τι έχουν να πουν οι αντίθετοι. Μερικές φορές πιάνουν αέρα από κάτι που έχει το Τιτανικός κατευθύνεται προς ένα γιγάντιο παγόβουνο. Θα μπορούσαμε να χρησιμοποιήσουμε μερικά βλέμματα αετών. Ωστόσο, όσον αφορά αυτές τις αρχές ηθικής τεχνητής νοημοσύνης, δεν έχει διατυπωθεί κάτι οριστικά από τους αντιθετικούς που να φαίνεται να υπονομεύει προφανώς ή να προκαλεί ανησυχίες για μια αδικαιολόγητη κοινότητα που συμβαίνει. Νομίζω ότι πάμε καλά.

Σε αυτό το σετ ACM, υπάρχουν μερικά ιδιαίτερα αξιοσημείωτα ή αξιοσημείωτα σημεία που νομίζω ότι αξίζουν ιδιαίτερης προσοχής.

Πρώτον, μου αρέσει η φράση ανώτατου επιπέδου που είναι κάπως διαφορετική από τον κανόνα.

Για παράδειγμα, αναφερόμενος σε νομιμότητα και ικανότητα (το πρώτο στοιχείο με κουκκίδες) προκαλεί μια φαινομενική σημασία της σημασίας των ικανοτήτων σχεδιαστή και διαχείρισης που σχετίζονται με την τεχνητή νοημοσύνη. Επιπλέον, το νομιμότητα Η συναρπαστική φράση καταλήγει να μας οδηγεί στην ηθική της τεχνητής νοημοσύνης και Το βασίλειο του νόμου AI. Το λέω αυτό επειδή πολλές από τις αρχές της ηθικής της τεχνητής νοημοσύνης επικεντρώνονται σχεδόν αποκλειστικά στις ηθικές συνέπειες, αλλά φαίνεται να παραλείπουν ή να διστάζουν να σημειώσουν και τις νομικές προεκτάσεις. Στο νομικό πεδίο, οι ηθικοί λόγοι συχνά διαφημίζονται ως «ήπιοι νόμοι» ενώ οι νόμοι για τα βιβλία ερμηνεύονται ως «σκληροί νόμοι» (που σημαίνει ότι φέρουν το βάρος των νομικών δικαστηρίων).

Ένα από τα αγαπημένα μου ρητά όλων των εποχών ειπώθηκε από τον διάσημο νομικό Earl Warren: «Στην πολιτισμένη ζωή, ο νόμος επιπλέει σε μια θάλασσα ηθικής».

Πρέπει να βεβαιωθούμε ότι οι αρχές ηθικής τεχνητής νοημοσύνης περιλαμβάνουν επίσης και τονίζουν τη σκληρή νομική πλευρά των πραγμάτων, όπως στη σύνταξη, τη θέσπιση και την επιβολή των νόμων για την τεχνητή νοημοσύνη.

Δεύτερον, εκτιμώ ότι η λίστα περιλαμβάνει δυνατότητα αμφισβήτησης και ελέγχου.

Έχω γράψει επανειλημμένα για την αξία του να μπορείς να διαγωνίζεσαι ή να σηκώνεις κόκκινη σημαία όταν υπόκεινται σε σύστημα τεχνητής νοημοσύνης, βλ. ο σύνδεσμος εδώ. Επιπλέον, θα βλέπουμε όλο και περισσότερο νέους νόμους που αναγκάζουν τα συστήματα τεχνητής νοημοσύνης να ελέγχονται, τους οποίους έχω συζητήσει εκτενώς σχετικά με τον νόμο της Νέας Υόρκης (NYC) σχετικά με τον έλεγχο μεροληψίας συστημάτων τεχνητής νοημοσύνης που χρησιμοποιούνται για προσλήψεις και προαγωγές εργαζομένων, βλ. ο σύνδεσμος εδώ. Δυστυχώς, και σύμφωνα με την ανοιχτή κριτική μου στον νέο νόμο της Νέας Υόρκης, εάν αυτοί οι νόμοι περί ελέγχου είναι ελαττωματικοί, πιθανότατα θα δημιουργήσουν περισσότερα προβλήματα από όσα λύνουν.

Τρίτον, υπάρχει μια σταδιακή αφύπνιση ότι η τεχνητή νοημοσύνη μπορεί να εμποτίσει ζητήματα βιωσιμότητας και χαίρομαι που βλέπω ότι η περιβάλλοντος Το θέμα έλαβε μια τιμολόγηση ανώτατου επιπέδου σε αυτές τις αρχές Δεοντολογίας AI (δείτε την τελευταία κουκκίδα της λίστας).

Η πράξη της δημιουργίας ενός συστήματος AI μπορεί από μόνη της να καταναλώσει πολλούς υπολογιστικούς πόρους. Αυτοί οι υπολογιστικοί πόροι μπορούν άμεσα ή έμμεσα να είναι σφετεριστές της βιωσιμότητας. Υπάρχει μια αντιστάθμιση που πρέπει να ληφθεί υπόψη ως προς τα οφέλη που παρέχει ένα AI έναντι του κόστους που συνοδεύει το AI. Το τελευταίο από τα στοιχεία με κουκκίδες ACM σημειώνει τα ζητήματα βιωσιμότητας και περιβάλλοντος που προκύπτουν με την τεχνητή νοημοσύνη. Για την κάλυψή μου για ζητήματα αποτυπώματος άνθρακα που σχετίζονται με την τεχνητή νοημοσύνη, βλ ο σύνδεσμος εδώ.

Τώρα που κοιτάξαμε στα ύψη τη λίστα ACM με τις αρχές ηθικής τεχνητής νοημοσύνης, στη συνέχεια βάζουμε τα δάχτυλα των ποδιών μας πιο βαθιά στα νερά.

Ακολουθούν οι επίσημες περιγραφές για καθεμία από τις υψηλού επιπέδου αρχές δεοντολογίας της τεχνητής νοημοσύνης (παρατίθενται από την επίσημη δήλωση):

1. "Νομιμότητα και ικανότητα: Οι σχεδιαστές αλγοριθμικών συστημάτων θα πρέπει να έχουν την ικανότητα διαχείρισης και τη ρητή εξουσιοδότηση για την κατασκευή και την ανάπτυξη τέτοιων συστημάτων. Πρέπει επίσης να διαθέτουν τεχνογνωσία στον τομέα των εφαρμογών, μια επιστημονική βάση για τη χρήση για την οποία προορίζονται τα συστήματα και να θεωρούνται ευρέως ως κοινωνικά θεμιτά από τους ενδιαφερόμενους φορείς που επηρεάζονται από το σύστημα. Πρέπει να διεξαχθούν νομικές και ηθικές αξιολογήσεις για να επιβεβαιωθεί ότι τυχόν κίνδυνοι που εισάγονται από τα συστήματα θα είναι ανάλογοι με τα προβλήματα που αντιμετωπίζονται και ότι τυχόν συμβιβασμούς οφέλους-βλάβης γίνονται κατανοητοί από όλους τους σχετικούς ενδιαφερόμενους.»

2. "Ελαχιστοποίηση της βλάβης: Οι διαχειριστές, οι σχεδιαστές, οι προγραμματιστές, οι χρήστες και άλλοι ενδιαφερόμενοι φορείς αλγοριθμικών συστημάτων θα πρέπει να γνωρίζουν τα πιθανά σφάλματα και προκαταλήψεις που εμπλέκονται στο σχεδιασμό, την εφαρμογή και τη χρήση τους, καθώς και την πιθανή βλάβη που μπορεί να προκαλέσει ένα σύστημα σε άτομα και κοινωνία. Οι οργανισμοί θα πρέπει να εκτελούν τακτικά αξιολογήσεις επιπτώσεων στα συστήματα που χρησιμοποιούν για να προσδιορίσουν εάν το σύστημα θα μπορούσε να προκαλέσει βλάβη, ιδίως ζημιά που προκαλεί διακρίσεις, και να εφαρμόσουν τους κατάλληλους μετριασμούς. Όποτε είναι δυνατόν, θα πρέπει να διδάσκονται από τα μέτρα της πραγματικής απόδοσης, όχι μόνο από μοτίβα προηγούμενων αποφάσεων που μπορεί οι ίδιες να ήταν μεροληπτικές».

3. "Ασφάλεια και απόρρητο: Ο κίνδυνος από κακόβουλα μέρη μπορεί να μετριαστεί με την εισαγωγή βέλτιστων πρακτικών ασφάλειας και απορρήτου σε κάθε φάση του κύκλου ζωής των συστημάτων, συμπεριλαμβανομένων ισχυρών ελέγχων για τον μετριασμό νέων τρωτών σημείων που προκύπτουν στο πλαίσιο των αλγοριθμικών συστημάτων».

4. "Διαφάνεια: Οι προγραμματιστές συστημάτων ενθαρρύνονται να τεκμηριώνουν με σαφήνεια τον τρόπο με τον οποίο επιλέχθηκαν συγκεκριμένα σύνολα δεδομένων, μεταβλητές και μοντέλα για ανάπτυξη, εκπαίδευση, επικύρωση και δοκιμή, καθώς και τα συγκεκριμένα μέτρα που χρησιμοποιήθηκαν για την εγγύηση της ποιότητας των δεδομένων και των αποτελεσμάτων. Τα συστήματα πρέπει να υποδεικνύουν το επίπεδο εμπιστοσύνης τους σε κάθε έξοδο και οι άνθρωποι πρέπει να παρεμβαίνουν όταν η εμπιστοσύνη είναι χαμηλή. Οι προγραμματιστές θα πρέπει επίσης να τεκμηριώσουν τις προσεγγίσεις που χρησιμοποιήθηκαν για να διερευνήσουν πιθανές προκαταλήψεις. Για συστήματα με κρίσιμο αντίκτυπο στη ζωή και την ευημερία, θα πρέπει να απαιτούνται ανεξάρτητες διαδικασίες επαλήθευσης και επικύρωσης. Ο δημόσιος έλεγχος των δεδομένων και των μοντέλων παρέχει τη μέγιστη ευκαιρία για διόρθωση. Επομένως, οι προγραμματιστές θα πρέπει να διευκολύνουν τις δοκιμές τρίτων προς το δημόσιο συμφέρον.»

5. "Ερμηνευσιμότητα και επεξήγηση: Οι διαχειριστές αλγοριθμικών συστημάτων ενθαρρύνονται να παράγουν πληροφορίες τόσο για τις διαδικασίες που ακολουθούν οι χρησιμοποιούμενοι αλγόριθμοι (ερμηνευσιμότητα) όσο και για τις συγκεκριμένες αποφάσεις που λαμβάνουν (επεξηγησιμότητα). Η επεξήγηση μπορεί να είναι εξίσου σημαντική με την ακρίβεια, ειδικά σε πλαίσια δημόσιας πολιτικής ή σε οποιοδήποτε περιβάλλον στο οποίο υπάρχουν ανησυχίες σχετικά με το πώς οι αλγόριθμοι θα μπορούσαν να παραμορφωθούν προς όφελος μιας ομάδας έναντι μιας άλλης χωρίς επιβεβαίωση. Είναι σημαντικό να γίνει διάκριση μεταξύ των επεξηγήσεων και των εκ των υστέρων εξορθολογισμών που δεν αντικατοπτρίζουν τα στοιχεία ή τη διαδικασία λήψης αποφάσεων που χρησιμοποιήθηκαν για να καταλήξουμε στο συμπέρασμα που εξηγείται».

6. "Συντηρησιμότητα: Θα πρέπει να συλλέγονται στοιχεία για την ορθότητα όλων των αλγοριθμικών συστημάτων καθ' όλη τη διάρκεια του κύκλου ζωής τους, συμπεριλαμβανομένης της τεκμηρίωσης των απαιτήσεων του συστήματος, του σχεδιασμού ή της υλοποίησης αλλαγών, των περιπτώσεων δοκιμής και των αποτελεσμάτων, καθώς και ενός αρχείου καταγραφής σφαλμάτων που βρέθηκαν και διορθώθηκαν. Η σωστή συντήρηση μπορεί να απαιτεί συστήματα επανεκπαίδευσης με νέα δεδομένα εκπαίδευσης ή/και αντικατάσταση των μοντέλων που χρησιμοποιούνται».

7. "Δυνατότητα αμφισβήτησης και δυνατότητα ελέγχου: Οι ρυθμιστικές αρχές θα πρέπει να ενθαρρύνουν την υιοθέτηση μηχανισμών που επιτρέπουν σε άτομα και ομάδες να αμφισβητούν τα αποτελέσματα και να επιδιώκουν επανόρθωση για αρνητικές επιπτώσεις που προκύπτουν από αλγοριθμικά τεκμηριωμένες αποφάσεις. Οι διευθυντές θα πρέπει να διασφαλίζουν ότι τα δεδομένα, τα μοντέλα, οι αλγόριθμοι και οι αποφάσεις καταγράφονται έτσι ώστε να μπορούν να ελεγχθούν και να αναπαραχθούν τα αποτελέσματα σε περιπτώσεις όπου υπάρχει υπόνοια ή ισχυρισμός για βλάβη. Οι στρατηγικές ελέγχου θα πρέπει να δημοσιοποιούνται για να μπορούν τα άτομα, οι οργανισμοί δημοσίου συμφέροντος και οι ερευνητές να επανεξετάζουν και να προτείνουν βελτιώσεις.»

8. "Υπευθυνότητα και υπευθυνότητα: Οι δημόσιοι και ιδιωτικοί φορείς θα πρέπει να θεωρούνται υπεύθυνοι για αποφάσεις που λαμβάνονται από αλγόριθμους που χρησιμοποιούν, ακόμη και αν δεν είναι εφικτό να εξηγηθεί λεπτομερώς πώς αυτοί οι αλγόριθμοι παρήγαγαν τα αποτελέσματά τους. Αυτοί οι φορείς θα πρέπει να είναι υπεύθυνοι για ολόκληρα συστήματα όπως αναπτύσσονται στα συγκεκριμένα τους πλαίσια, όχι μόνο για τα μεμονωμένα μέρη που συνθέτουν ένα δεδομένο σύστημα. Όταν εντοπίζονται προβλήματα σε αυτοματοποιημένα συστήματα, οι οργανισμοί που είναι υπεύθυνοι για την ανάπτυξη αυτών των συστημάτων θα πρέπει να τεκμηριώνουν τις συγκεκριμένες ενέργειες που θα λάβουν για την αποκατάσταση του προβλήματος και υπό ποιες συνθήκες θα πρέπει να ανασταλεί ή να τερματιστεί η χρήση τέτοιων τεχνολογιών».

9. "Περιορισμός περιβαλλοντικών επιπτώσεων: Τα αλγοριθμικά συστήματα θα πρέπει να σχεδιαστούν για να αναφέρουν εκτιμήσεις των περιβαλλοντικών επιπτώσεων, συμπεριλαμβανομένων των εκπομπών άνθρακα τόσο από την εκπαίδευση όσο και από τους λειτουργικούς υπολογισμούς. Τα συστήματα τεχνητής νοημοσύνης θα πρέπει να σχεδιάζονται έτσι ώστε να διασφαλίζουν ότι οι εκπομπές άνθρακα τους είναι λογικές, δεδομένου του βαθμού ακρίβειας που απαιτείται από το πλαίσιο στο οποίο αναπτύσσονται».

Πιστεύω ότι θα δώσετε σε καθεμία από αυτές τις κρίσιμες αρχές ηθικής τεχνητής νοημοσύνης μια προσεκτική και παλιά ανάγνωση. Παρακαλώ, πάρτε τους στην καρδιά.

Συμπέρασμα

Υπάρχει ένα λεπτό αλλά εξίσου κρίσιμο μέρος της δήλωσης της ACM που πιστεύω ότι πολλοί μπορεί να παραβλέψουν ακούσια. Επιτρέψτε μου να φροντίσω να το φέρω υπόψη σας.

Αναφέρομαι σε ένα τμήμα που συζητά το οδυνηρό αίνιγμα της στάθμισης των ανταλλαγών που σχετίζονται με τις αρχές της ηθικής της τεχνητής νοημοσύνης. Βλέπετε, οι περισσότεροι άνθρωποι συχνά κάνουν πολλά αλόγιστα νεύματα όταν διαβάζουν τις αρχές ηθικής τεχνητής νοημοσύνης και υποθέτουν ότι όλες οι αρχές είναι ίσες σε βάρος και ότι όλες οι αρχές θα έχουν πάντα την ίδια βέλτιστη ομοιότητα σεβασμού και αξίας.

Όχι στον πραγματικό κόσμο.

Μόλις το λάστιχο συναντήσει το δρόμο, κάθε είδος τεχνητής νοημοσύνης που έχει έστω και μια μικρή πολυπλοκότητα θα δοκιμάσει άσχημα τις αρχές της ηθικής της τεχνητής νοημοσύνης ως προς το ότι ορισμένα από τα στοιχεία είναι επαρκώς επιτεύξιμα σε σχέση με ορισμένες από τις άλλες αρχές. Αντιλαμβάνομαι ότι μπορεί να αναφωνείτε δυνατά ότι όλη η τεχνητή νοημοσύνη πρέπει να μεγιστοποιήσει όλες τις αρχές της ηθικής της τεχνητής νοημοσύνης, αλλά αυτό δεν είναι ιδιαίτερα ρεαλιστικό. Εάν αυτή είναι η στάση που θέλετε να τηρήσετε, τολμώ να πω ότι πιθανότατα θα χρειαστεί να πείτε στους περισσότερους ή σχεδόν σε όλους τους κατασκευαστές και χρήστες τεχνητής νοημοσύνης να κλείσουν το κατάστημα και να καταργήσουν την τεχνητή νοημοσύνη εντελώς.

Πρέπει να γίνουν συμβιβασμοί για να βγει η τεχνητή νοημοσύνη από την πόρτα. Τούτου λεχθέντος, δεν υποστηρίζω τη μείωση των γωνιών που παραβιάζουν τους κανόνες δεοντολογίας της τεχνητής νοημοσύνης, ούτε υπονοώ ότι πρέπει να παραβιάζουν τους νόμους της τεχνητής νοημοσύνης. Πρέπει να τηρηθεί ένα συγκεκριμένο ελάχιστο, και πάνω από το οποίο ο στόχος είναι να επιδιώξουμε περισσότερο. Στο τέλος, μια ισορροπία πρέπει να κριθεί προσεκτικά. Αυτή η πράξη εξισορρόπησης πρέπει να γίνει συνειδητά, ρητά, νόμιμα και με την ηθική της τεχνητής νοημοσύνης ως μια καλόπιστη και ειλικρινή πεποίθηση (ίσως θέλετε να δείτε πώς οι εταιρείες χρησιμοποιούν τα Συμβούλια Δεοντολογίας AI για να προσπαθήσουν να συγκεντρώσουν αυτήν την επίσημη προσέγγιση, βλ. ο σύνδεσμος εδώ).

Ακολουθούν ορισμένα σημεία με κουκκίδες που αναφέρει η δήλωση ACM σχετικά με την πολυπλοκότητα των ανταλλαγών (παρατίθενται από το επίσημο έγγραφο):

  • «Οι λύσεις θα πρέπει να είναι ανάλογες με το πρόβλημα που επιλύεται, ακόμη κι αν αυτό επηρεάζει την πολυπλοκότητα ή το κόστος (π.χ. απόρριψη της χρήσης δημόσιας παρακολούθησης βίντεο για μια απλή εργασία πρόβλεψης).»
  • «Θα πρέπει να λαμβάνεται υπόψη μια μεγάλη ποικιλία μετρήσεων απόδοσης και μπορεί να σταθμίζονται διαφορετικά με βάση τον τομέα της εφαρμογής. Για παράδειγμα, σε ορισμένες εφαρμογές υγειονομικής περίθαλψης τα αποτελέσματα των ψευδώς αρνητικών μπορεί να είναι πολύ χειρότερα από τα ψευδώς θετικά, ενώ στην ποινική δικαιοσύνη οι συνέπειες των ψευδώς θετικών (π.χ. φυλάκιση ενός αθώου ατόμου) μπορεί να είναι πολύ χειρότερες από τα ψευδώς αρνητικά. Η πιο επιθυμητή ρύθμιση του λειτουργικού συστήματος είναι σπάνια αυτή με τη μέγιστη ακρίβεια.»
  • «Ανησυχίες σχετικά με το απόρρητο, την προστασία εμπορικών μυστικών ή την αποκάλυψη αναλυτικών στοιχείων που θα μπορούσαν να επιτρέψουν σε κακόβουλους παράγοντες να παίξουν το σύστημα μπορεί να δικαιολογήσουν τον περιορισμό της πρόσβασης σε ειδικευμένα άτομα, αλλά δεν θα πρέπει να χρησιμοποιούνται για να δικαιολογήσουν τον περιορισμό του ελέγχου τρίτων ή για να απαλλάξουν τους προγραμματιστές από την υποχρέωση να αναγνωρίζει και να επιδιορθώνει τα λάθη».
  • «Η διαφάνεια πρέπει να συνδυαστεί με διαδικασίες λογοδοσίας που επιτρέπουν στα ενδιαφερόμενα μέρη που επηρεάζονται από ένα αλγοριθμικό σύστημα να αναζητούν ουσιαστική αποκατάσταση για τις ζημίες που έχουν προκληθεί. Η διαφάνεια δεν πρέπει να χρησιμοποιείται για να νομιμοποιήσει ένα σύστημα ή για να μεταβιβάσει την ευθύνη σε άλλα μέρη».
  • «Όταν ο αντίκτυπος ενός συστήματος είναι υψηλός, ένα πιο εξηγήσιμο σύστημα μπορεί να είναι προτιμότερο. Σε πολλές περιπτώσεις, δεν υπάρχει αντιστάθμιση μεταξύ επεξήγησης και ακρίβειας. Σε ορισμένα πλαίσια, ωστόσο, οι λανθασμένες εξηγήσεις μπορεί να είναι ακόμη χειρότερες από τη μη εξήγηση (π.χ., στα συστήματα υγείας, ένα σύμπτωμα μπορεί να αντιστοιχεί σε πολλές πιθανές ασθένειες, όχι μόνο σε μία).

Εκείνοι που αναπτύσσουν ή χρησιμοποιούν τεχνητή νοημοσύνη μπορεί να μην συνειδητοποιήσουν φανερά τις ανταλλαγές που αντιμετωπίζουν. Οι κορυφαίοι ηγέτες μιας εταιρείας θα μπορούσαν αφελώς να υποθέσουν ότι η τεχνητή νοημοσύνη πληροί τα μέγιστα σε όλες τις αρχές της ηθικής της τεχνητής νοημοσύνης. Είτε το πιστεύουν αυτό επειδή δεν έχουν ιδέα για το AI, είτε θέλουν να το πιστέψουν και ίσως κάνουν ένα κλείσιμο του ματιού για να υιοθετήσουν εύκολα την τεχνητή νοημοσύνη.

Οι πιθανότητες είναι ότι η αποτυχία ουσιαστικής και ανοιχτής αντιμετώπισης των συμβιβάσεων θα καταλήξει σε μια τεχνητή νοημοσύνη που θα προκαλέσει βλάβη. Αυτές οι ζημίες με τη σειρά τους πιθανότατα θα ανοίξουν μια επιχείρηση σε δυνητικά μεγάλης κλίμακας υποχρεώσεις. Επιπλέον, οι συμβατικοί νόμοι μπορούν να ισχύουν για πιθανές εγκληματικές πράξεις που σχετίζονται με την τεχνητή νοημοσύνη, μαζί με τους νεότερους νόμους που επικεντρώνονται στην τεχνητή νοημοσύνη που επικεντρώνονται σε αυτό επίσης. Ένας τόνος τούβλων περιμένει πάνω από τα κεφάλια εκείνων που πιστεύουν ότι μπορούν να ξεφύγουν από τις συμβιβασμούς ή που αγνοούν βαθιά ότι οι συμβιβασμούς υπάρχουν (μια συντριπτική συνειδητοποίηση αναπόφευκτα θα πέσει πάνω τους).

Θα δώσω την τελευταία λέξη προς το παρόν σχετικά με αυτό το θέμα στην τελική πτυχή της δήλωσης της ACM, καθώς νομίζω ότι κάνει μια ισχυρή δουλειά στο να εξηγεί τι μακροσκοπικά στοχεύουν αυτές οι ηθικές αρχές AI:

  • «Οι προηγούμενες συστάσεις επικεντρώνονται στον υπεύθυνο σχεδιασμό, ανάπτυξη και χρήση αλγοριθμικών συστημάτων. η ευθύνη πρέπει να καθορίζεται από το νόμο και τη δημόσια τάξη. Η αυξανόμενη ισχύς των αλγοριθμικών συστημάτων και η χρήση τους σε κρίσιμες για τη ζωή και συνακόλουθες εφαρμογές σημαίνει ότι πρέπει να δοθεί μεγάλη προσοχή στη χρήση τους. Αυτές οι εννέα βασικές αρχές προορίζονται να αποτελέσουν πηγή έμπνευσης για την έναρξη συζητήσεων, την έναρξη έρευνας και την ανάπτυξη μεθόδων διακυβέρνησης που θα αποφέρουν οφέλη σε ένα ευρύ φάσμα χρηστών, ενώ προάγουν την αξιοπιστία, την ασφάλεια και την υπευθυνότητα. Τελικά, είναι το συγκεκριμένο πλαίσιο που ορίζει τον σωστό σχεδιασμό και τη χρήση ενός αλγοριθμικού συστήματος σε συνεργασία με εκπροσώπους όλων των επηρεαζόμενων ενδιαφερόμενων μερών» (παρατίθεται από το επίσημο έγγραφο).

Όπως μας λένε έξυπνα λόγια σοφίας, ένα ταξίδι χιλίων μιλίων ξεκινά με ένα πρώτο βήμα.

Σας ικετεύω να εξοικειωθείτε με την ηθική της τεχνητής νοημοσύνης και το δίκαιο της τεχνητής νοημοσύνης, κάνοντας οποιοδήποτε πρώτο βήμα που θα σας βοηθήσει να προχωρήσετε και στη συνέχεια να βοηθήσετε στη συνέχιση αυτών των ζωτικών προσπαθειών. Η ομορφιά είναι ότι βρισκόμαστε ακόμη στα σπάργανα του πώς να διαχειριζόμαστε και να αντιμετωπίζουμε κοινωνικά την τεχνητή νοημοσύνη, επομένως, μπαίνεις στο ισόγειο και οι προσπάθειές σου μπορούν αποδεδειγμένα να διαμορφώσουν το μέλλον σου και το μέλλον όλων μας.

Το ταξίδι της τεχνητής νοημοσύνης μόλις ξεκίνησε και τα ζωτικά πρώτα βήματα είναι ακόμα σε εξέλιξη.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- επάγγελμα-σύλλογος-the-acm/