Δεοντολογία AI Επιφυλακτική σχετικά με την επιδείνωση της ασυμμετρίας της τεχνητής νοημοσύνης, καθώς οι άνθρωποι έχουν το μικρό άκρο του ραβδιού

Μερικές φορές βρίσκεστε στη λάθος άκρη του ραβδιού.

Αυτή η καθομιλουμένη μπορεί να εφαρμοστεί στην έννοια της ασυμμετρίας.

Ναι, θα μιλήσω για ασυμμετρία. Όπως πιθανότατα έχετε συναντήσει σε αυτόν τον ταραχώδη κόσμο στον οποίο ζούμε, υπάρχουν περιπτώσεις που μπορεί να βρεθείτε να έχετε λιγότερες γνώσεις για ένα θέμα που είναι σχετικά σημαντικό για εσάς. Αυτό αναφέρεται επίσημα ως Ασυμμετρία πληροφοριών.

Το κλειδί είναι ότι έχετε λιγότερες γνώσεις ή πληροφορίες από ό,τι θα θέλατε να είχατε, συν ότι έχετε σίγουρα λιγότερες από το άλλο μέρος που εμπλέκεται στο θέμα. Είστε σε σαφώς μειονεκτική θέση σε σύγκριση με το άλλο μέρος. Ξέρουν κάτι που εσύ δεν ξέρεις. Μπορούν να αξιοποιήσουν ό,τι γνωρίζουν, ειδικά σε ό,τι αφορά αυτά που δεν γνωρίζετε, και να έχουν το πάνω χέρι σε οποιεσδήποτε πρόχειρες συζητήσεις ή διαπραγματεύσεις μαζί σας.

Λοιπόν, υπάρχει ένα νέο παιδί στην πόλη, γνωστό ως Ασυμμετρία AI.

Αυτή η τελευταία φράση αναφέρεται στην πιθανότητα να πάτε ενάντια σε κάποιον που είναι οπλισμένος με AI, ενώ δεν είστε τόσο οπλισμένοι.

Έχουν τεχνητή νοημοσύνη στο πλευρό τους, ενώ εσείς έχετε, λοιπόν, μόνο εσάς. Τα πράγματα είναι μπερδεμένα. Είστε σε μια υποτιθέμενη μειονεκτική θέση. Η άλλη πλευρά θα μπορεί να κάνει κύκλους γύρω σας λόγω της επαύξησής της από AI. Αυτό μπορεί να είναι μέσα στο διάσημο ρητό ότι όλα είναι δίκαια στον έρωτα και στον πόλεμο (μια μακροχρόνια παροιμία που επινοήθηκε Euphues από τον John Lyly, 1578), αν και η δυναμική και οι κίνδυνοι της Ασυμμετρίας AI εγείρουν προκλητικά ζητήματα ηθικής τεχνητής νοημοσύνης. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Προτού μεταβούμε στο βασίλειο της τεχνητής νοημοσύνης και τις άφθονες πολυπλοκότητες του σχετικά με την Ασυμμετρία AI, ας εξερευνήσουμε πρώτα την καθημερινή κανονική έκδοση της απλής παλιάς Ασυμμετρίας πληροφοριών. Αυτό θα δημιουργήσει τη βάση για να μπείτε στο παροιμιώδες νέο παιδί της τεχνητής νοημοσύνης στο μπλοκ.

Μια σύντομη και σκόπιμα διαφωτιστική ιστορία μπορεί να σας ανοίξει την όρεξη.

Τις προάλλες είχα σκάσει ένα λάστιχο ενώ βρισκόμουν στο δρόμο και έψαχνα γρήγορα να βρω έναν κατάλληλο αντικαταστάτη που θα μπορούσε να τοποθετηθεί άμεσα αμέσως. Χρησιμοποιώντας το smartphone μου, κοίταξα στο Διαδίκτυο σε κοντινά καταστήματα ελαστικών για να καταλάβω την απόσταση που έπρεπε να διανύσω με το run-flat ελαστικό μου και εάν κάποια καταστήματα ήταν ανοιχτά. Επιπλέον, έκανα μια γρήγορη αξιολόγηση των κριτικών πελατών τους στο διαδίκτυο και προσπάθησα να συγκεντρώσω οτιδήποτε χρήσιμο σχετικά με το πόσο καιρό ήταν στην επιχείρηση και άλλους παράγοντες που θα μπορούσαν να αναδείξουν την αξία τους.

Όταν τηλεφώνησε σε ένα από τα καταστήματα ελαστικών, ο υπάλληλος μου έδωσε μια ευχάριστη προσφορά για το κόστος του ελαστικού και την τοποθέτησή του. Το ελαστικό δεν ήταν ακριβώς αυτό που είχα στο μυαλό μου, αλλά ο υπάλληλος με διαβεβαίωσε ότι θα ήταν το μόνο κατάστημα στην περιοχή που θα μπορούσε να κάνει τη δουλειά αμέσως. Σύμφωνα με τον υπάλληλο, κανένα από τα άλλα κοντινά καταστήματα ελαστικών δεν θα είχε τέτοια ελαστικά σε απόθεμα και θα χρειαζόταν τουλάχιστον μία ημέρα για να αποκτήσουν αυτοί οι ανταγωνιστές ένα κατάλληλο ελαστικό από κάποια ημιμακρινή αποθήκη.

Ήμουν στη μέση μιας ασυμμετρίας πληροφοριών.

Ο υπάλληλος δήλωσε ότι ήξερε περισσότερα για την τοπική κατάσταση των καταστημάτων ελαστικών και συγκεκριμένα τον τύπο ελαστικού που χρειαζόμουν. Ήμουν σε μια περιοχή που μόνο περνούσα και δεν είχα καμία γνώση από πρώτο χέρι για τα καταστήματα ελαστικών στη συγκεκριμένη γεωγραφική περιοχή. Παρ' όλα αυτά που ήξερα, ο υπάλληλος ήταν επί τόπου και μου έδινε την αβέβαιη αλήθεια.

Αλλά το έκανε ο υπάλληλος;

Ισως ναι ίσως όχι.

Θα μπορούσε ο υπάλληλος να πίστευε ειλικρινά όλα όσα μου μεταφέρονταν. Για τον υπάλληλο, αυτή ήταν η αλήθεια. Ή ίσως ο υπάλληλος έλεγε κάπως την αλήθεια. Ήταν πιθανό αυτό που ειπώθηκε να ήταν αληθινό, αν και ο τρόπος με τον οποίο απεικονιζόταν υπονοούσε ότι ήταν η απόλυτη και αδιαμφισβήτητη αλήθεια. Φυσικά, θα μπορούσε επίσης να ήταν εντελώς κουρελιασμένος και ο υπάλληλος απλώς έβαζε σελίνι για το κατάστημα ελαστικών για να συγκεντρώσει την επιχείρησή μου. Θα μπορούσε μια ζουμερή προμήθεια να ήταν στη γραμμή;

Τολμώ να πω ότι σε κανέναν δεν αρέσει να βρίσκεται σε τόσο αουτσάιντερ.

Το διακύβευμα της κατάστασης είναι ζωτικός παράγοντας για το πόσο σημαντική είναι η ασυμμετρία πληροφοριών. Εάν η ερώτηση που εξετάζετε είναι θέμα ζωής ή θανάτου, το να βρίσκεστε στο σκυλόσπιτο και να βασίζεστε στο άλλο μέρος για αυτά που γνωρίζουν ή ισχυρίζονται ότι γνωρίζουν είναι μια πρόχειρη και εξαιρετικά ανεπιθύμητη στάση. Όταν τα διακυβεύματα είναι χαμηλά , όπως να παραγγείλετε το δείπνο σας σε ένα εστιατόριο και ο διακομιστής σας λέει ότι το πιάτο με ψάρι είναι παραδεισένιο, αλλά δεν έχετε φάει ποτέ ξανά εκεί και δεν είστε ενημερωμένοι, μπορείτε να ακολουθήσετε αυτήν την ελάχιστη ασυμμετρία πληροφοριών χωρίς πολύ άγχος (I Ας υποθέσουμε επίσης ότι στοιχηματίζετε επίσης ότι ο διακομιστής δεν θα διακινδύνευε να δώσει κακές συμβουλές και να χάσει την ευκαιρία να πάρει ένα αξιοπρεπές φιλοδώρημα).

Επιστρέφοντας στην ιστορία του φθαρμένου ελαστικού (λογοπαίγνιο!), δεν θα είχα κανέναν τρόπο να καταλάβω αμέσως αν ο υπάλληλος μου έδινε αξιόπιστες και κατατοπιστικές πληροφορίες. Ίσως αναρωτιέστε τι συνέβη. Αποφάσισα να τηλεφωνήσω σε πολλά από τα άλλα κοντινά καταστήματα ελαστικών.

Είστε έτοιμοι για αυτό που ανακάλυψα;

Όλα τα άλλα καταστήματα ελαστικών είχαν το επιθυμητό ελαστικό σε απόθεμα και δεν επρόκειτο να προσπαθήσουν να κλείσω το μάτι και να με πείσουν να πάρω ένα διαφορετικό ελαστικό (όπως προσπάθησε να κάνει ο πρώτος υπάλληλος). Θα μπορούσαν επίσης να κάνουν τη δουλειά στο ίδιο χρονικό πλαίσιο με το πρώτο κατάστημα ελαστικών που κάλεσα μάλλον. Στην ίδια περίπου τιμή.

Ένας ευπρόσδεκτος αναστεναγμός ανακούφισης προέκυψε από την πλευρά μου, σας διαβεβαιώνω.

Κατά ειρωνικό τρόπο, στον νόμο του Μέρφι της κακής τύχης, το πρώτο μέρος με το οποίο επικοινώνησα ήταν το μόνο που φαινόταν να είναι έξω για μεσημεριανό γεύμα. Χαίρομαι που αναζήτησα περισσότερες πληροφορίες. Αυτό μείωσε το χάσμα ασυμμετρίας πληροφοριών. Χειροκρότησα τον εαυτό μου που κόλλησα στα όπλα μου και δεν μπήκα στο πρώτο μέρος που κάλεσα.

Τούτου λεχθέντος, υπήρχε ένα συγκεκριμένο κόστος για τη λήψη πρόσθετων πληροφοριών. Έκανα περίπου τέσσερις κλήσεις που η καθεμία χρειάστηκε περίπου δεκαπέντε με είκοσι λεπτά για να πραγματοποιηθεί πλήρως. Υπό αυτή την έννοια, εξάντλησα περίπου μιάμιση ώρα ενώ έβρισκα πού να πάρω το αυτοκίνητό μου. Αν είχα πάρει αμέσως το αυτοκίνητό μου σε εκείνη την πρώτη θέση, το καινούργιο ελαστικό θα ήταν σχεδόν στο αυτοκίνητό μου εκείνη τη στιγμή. Από την άλλη πλευρά, είναι σχεδόν βέβαιο ότι, αργότερα, θα είχα μετανιώσει για τη γρήγορη απόφαση που πήρα ενώ βρισκόμουν σε έναν άθλιο δεσμό Ασυμμετρίας Πληροφοριών.

Μερικές φορές πρέπει να σφίξετε τα δόντια σας και να λάβετε τη φοβερή Ασυμμετρία Πληροφοριών όπως έρχεται. Απλώς ελπίζεις ότι όποια απόφαση κι αν πάρεις, θα είναι αρκετά καλή. Μπορεί να μην είναι μια «τέλεια» απόφαση και αργότερα μπορεί να μετανιώσετε για την επιλογή που κάνατε. Η άλλη οπτική γωνία είναι ότι θα μπορούσατε να προσπαθήσετε να ενισχύσετε τη δική σας πλευρά της εξίσωσης πληροφοριών, αν και αυτό δεν είναι απαραιτήτως χωρίς κόστος και μπορεί επίσης να μασήσει πολύτιμο χρόνο, ανάλογα με το αν ο αγαπημένος χρόνος είναι ουσιαστικός.

Τώρα που αναμφίβολα αισθάνεστε παρηγοριά που ξέρετε ότι το αυτοκίνητό μου λειτουργεί καλά με το ολοκαίνουργιο και σωστό ελαστικό του, μπορώ να περάσω στην εμφάνιση της AI Asymmetry.

Σκεφτείτε μια ιστορία θλίψης με AI.

Ψάχνετε να πάρετε στεγαστικό δάνειο. Υπάρχει ένας διαδικτυακός αναλυτής αιτημάτων στεγαστικών δανείων που χρησιμοποιεί μια συγκεκριμένη τράπεζα. Το διαδικτυακό σύστημα κάνει χρήση των σημερινών προηγμένων δυνατοτήτων AI. Δεν χρειάζεται να μιλήσετε με έναν πράκτορα χορήγησης ανθρώπινου δανείου. Το AI τα κάνει όλα.

Το σύστημα AI σάς καθοδηγεί μέσω μιας σειράς προτροπών. Συμπληρώνετε με υπευθυνότητα τις φόρμες και απαντάτε στο σύστημα AI. Αυτό το AI είναι πολύ φλύαρο. Ενώ στο παρελθόν μπορεί να χρησιμοποιούσατε ένα συμβατικό σύστημα φορμών που βασίζεται σε υπολογιστή, αυτή η παραλλαγή AI μοιάζει περισσότερο με την αλληλεπίδραση με έναν ανθρώπινο παράγοντα. Όχι αρκετά, αλλά αρκετά που θα μπορούσατε σχεδόν να αρχίσετε να πιστεύετε ότι ένας άνθρωπος βρισκόταν στην άλλη πλευρά αυτής της δραστηριότητας.

Αφού καταβάλετε κάθε δυνατή προσπάθεια για να «συζητήσετε» το αίτημά σας με αυτό το AI, στο τέλος, σας ενημερώνει ότι δυστυχώς το αίτημα δανείου δεν εγκρίνεται. Καταλαβαίνεις ότι η τεχνητή νοημοσύνη φαίνεται να ζητά συγγνώμη, λες και η τεχνητή νοημοσύνη ήθελε να εγκρίνει το δάνειο, αλλά αυτοί οι κακοπροαίρετοι άνθρωποι που επιβλέπουν την τράπεζα δεν θα αφήσουν την τεχνητή νοημοσύνη να το κάνει. Για την κάλυψή μου σχετικά με το πόσο παραπλανητικές είναι αυτού του είδους οι υποτιθέμενες συγγνώμες για τεχνητή νοημοσύνη, βλ ο σύνδεσμος εδώ.

Δεν ξέρεις γιατί σε απέρριψαν. Το AI δεν προσφέρει καμία εξήγηση. Ίσως το AI να έκανε λάθος ή να μπέρδεψε τους υπολογισμούς του. Ακόμη χειρότερα, ας υποθέσουμε ότι η τεχνητή νοημοσύνη χρησιμοποίησε ορισμένες πολύ αμφισβητήσιμες εκτιμήσεις, όπως τη φυλή ή το φύλο σας όταν αποφάσισε για το δάνειο. Το μόνο που ξέρετε είναι ότι φαίνεστε να χάσατε τον χρόνο σας και εν τω μεταξύ παραδώσατε έναν τόνο προσωπικών δεδομένων στην τεχνητή νοημοσύνη και την τράπεζα. Το AI τους σε έχει κερδίσει.

Αυτό θα χαρακτηριστεί ως παράδειγμα Ασυμμετρίας AI.

Ήσουν εσύ εναντίον της τράπεζας. Η τράπεζα ήταν οπλισμένη με AI. Δεν ήσασταν εξίσου οπλισμένοι. Είχες την εξυπνάδα σου και τη σοφία σου για τα σκληρά χτυπήματα, αλλά δεν υπήρχε τεχνητή νοημοσύνη στην πίσω τσέπη σου. Νους ενάντια σε μηχανή. Δυστυχώς, το μηχάνημα κέρδισε σε αυτή την περίπτωση.

Τι να κάνεις;

Πρώτον, πρέπει σε κοινωνική βάση να συνειδητοποιήσουμε ότι αυτή η Ασυμμετρία AI αυξάνεται και γίνεται σχεδόν πανταχού παρούσα. Οι άνθρωποι αντιμετωπίζουν τεχνητή νοημοσύνη σε όλα τα συστήματα με τα οποία αλληλεπιδρούμε καθημερινά. Μερικές φορές το AI είναι το μόνο στοιχείο με το οποίο αλληλεπιδρούμε, όπως σε αυτό το παράδειγμα σχετικά με το αίτημα δανείου. Σε άλλες περιπτώσεις, ένας άνθρωπος μπορεί να βρίσκεται στο βρόχο που βασίζεται στην τεχνητή νοημοσύνη για να τον βοηθήσει στην εκτέλεση μιας δεδομένης υπηρεσίας. Για το δάνειο, μπορεί η τράπεζα να σας ζητήσει να μιλήσετε με έναν ανθρώπινο πράκτορα αντί για αλληλεπίδραση με τεχνητή νοημοσύνη, αλλά για το οποίο ο ανθρώπινος πράκτορας χρησιμοποιεί ένα σύστημα υπολογιστή για πρόσβαση σε τεχνητή νοημοσύνη που καθοδηγεί τον ανθρώπινο πράκτορα κατά τη διαδικασία αιτήματος δανείου (και, είστε σχεδόν πάντα σίγουροι ότι ο ανθρώπινος πράκτορας ενεργεί σαν να είναι φυλακισμένος, καθώς πρέπει να κάνει αυστηρά ό,τι «τους λέει» η τεχνητή νοημοσύνη).

Είτε έτσι είτε αλλιώς, η τεχνητή νοημοσύνη είναι ακόμα στο μείγμα.

Δεύτερον, πρέπει να προσπαθήσουμε και να διασφαλίσουμε ότι η AI Asymmetry γίνεται τουλάχιστον σε ηθική βάση AI.

Επιτρέψτε μου να εξηγήσω αυτήν την φαινομενικά περίεργη παρατήρηση. Βλέπετε, εάν μπορούμε να είμαστε κάπως βέβαιοι ότι η τεχνητή νοημοσύνη ενεργεί με ηθικά ορθό τρόπο, μπορεί να έχουμε κάποια παρηγοριά για την ασυμμετρία που υπάρχει. Σε μια κάπως ανάλογη αλλά και χαλαρή βάση, θα μπορούσατε να πείτε ότι εάν η αλληλεπίδρασή μου με τον πρώτο υπάλληλο καταστήματος ελαστικών είχε θεσπίσει και επιβληθεί ορισμένες αυστηρές ηθικές οδηγίες, ίσως δεν θα μου είχαν πει την ιστορία που μου είπαν, ή τουλάχιστον εγώ μπορεί να μην χρειαζόταν αμέσως να ψάξω να ανακαλύψω αν μου δινόταν μια μεγάλη ιστορία.

Θα εξηγήσω περισσότερα για την ηθική της AI σε λίγο.

Τρίτον, θα πρέπει να αναζητήσουμε τρόπους μείωσης της ασυμμετρίας AI. Εάν είχατε τεχνητή νοημοσύνη που ήταν στο πλευρό σας, προσπαθώντας να γίνετε ο προπονητής ή ο προστάτης σας, ίσως μπορέσετε να χρησιμοποιήσετε αυτήν την τεχνητή νοημοσύνη για να κάνετε αντεπιθέσεις με την άλλη τεχνητή νοημοσύνη με την οποία θα έρθετε αντιμέτωποι. Όπως λένε, μερικές φορές είναι πολύ λογικό να πολεμάς τη φωτιά με τη φωτιά.

Πριν ασχοληθούμε με μερικά ακόμη κρέατα και πατάτες σχετικά με τις άγριες και μάλλινες εκτιμήσεις που κρύβουν την ασυμμετρία τεχνητής νοημοσύνης, ας δημιουργήσουμε ορισμένες πρόσθετες βασικές αρχές σε βαθιά βασικά θέματα. Πρέπει να κάνουμε μια σύντομη βουτιά στην ηθική της τεχνητής νοημοσύνης και ιδιαίτερα στην εμφάνιση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL).

Μπορεί να γνωρίζετε αόριστα ότι μια από τις πιο δυνατές φωνές αυτές τις μέρες στον τομέα της τεχνητής νοημοσύνης και ακόμη και εκτός του πεδίου της τεχνητής νοημοσύνης αποτελείται από φωνές για μια μεγαλύτερη ομοιότητα ηθικής τεχνητής νοημοσύνης. Ας ρίξουμε μια ματιά στο τι σημαίνει να αναφερόμαστε στο AI Ethics και στο Ethical AI. Επιπλέον, θα διερευνήσουμε τι εννοώ όταν μιλάω για Μηχανική Μάθηση και Βαθιά Μάθηση.

Ένα συγκεκριμένο τμήμα ή τμήμα της ηθικής τεχνητής νοημοσύνης που έχει τραβήξει πολύ την προσοχή των μέσων ενημέρωσης αποτελείται από την τεχνητή νοημοσύνη που εμφανίζει αβλαβείς προκαταλήψεις και ανισότητες. Ίσως γνωρίζετε ότι όταν ξεκίνησε η τελευταία εποχή της τεχνητής νοημοσύνης υπήρξε μια τεράστια έκρηξη ενθουσιασμού για αυτό που ορισμένοι αποκαλούν τώρα AI για καλό. Δυστυχώς, μετά από αυτόν τον ενθουσιασμό, αρχίσαμε να γινόμαστε μάρτυρες AI για κακό. Για παράδειγμα, διάφορα συστήματα αναγνώρισης προσώπου που βασίζονται σε τεχνητή νοημοσύνη έχουν αποκαλυφθεί ότι περιέχουν φυλετικές προκαταλήψεις και προκαταλήψεις φύλου, τις οποίες έχω συζητήσει στο ο σύνδεσμος εδώ.

Προσπάθειες για αντιπολίτευση AI για κακό βρίσκονται σε εξέλιξη ενεργά. Εκτός από ηχηρή νομικός επιδιώξεις περιορισμού του αδικήματος, υπάρχει επίσης μια ουσιαστική ώθηση προς την αποδοχή της ηθικής της τεχνητής νοημοσύνης για να διορθωθεί η κακία της τεχνητής νοημοσύνης. Η ιδέα είναι ότι πρέπει να υιοθετήσουμε και να εγκρίνουμε βασικές αρχές ηθικής τεχνητής νοημοσύνης για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης, πράττοντας έτσι για να υπονομεύσουμε την AI για κακό και ταυτόχρονα προαναγγέλλοντας και προάγοντας το προτιμότερο AI για καλό.

Σε μια σχετική έννοια, είμαι υπέρμαχος της προσπάθειας χρήσης της τεχνητής νοημοσύνης ως μέρος της λύσης στα δεινά της τεχνητής νοημοσύνης, καταπολεμώντας τη φωτιά με τη φωτιά με αυτόν τον τρόπο σκέψης. Μπορούμε, για παράδειγμα, να ενσωματώσουμε στοιχεία ηθικής τεχνητής νοημοσύνης σε ένα σύστημα τεχνητής νοημοσύνης που θα παρακολουθεί τον τρόπο με τον οποίο το υπόλοιπο της τεχνητής νοημοσύνης κάνει τα πράγματα και, ως εκ τούτου, μπορεί να συλλάβει σε πραγματικό χρόνο τυχόν προσπάθειες που εισάγουν διακρίσεις, δείτε τη συζήτησή μου στο ο σύνδεσμος εδώ. Θα μπορούσαμε επίσης να έχουμε ένα ξεχωριστό σύστημα AI που λειτουργεί ως ένας τύπος οθόνης AI Ethics. Το σύστημα τεχνητής νοημοσύνης χρησιμεύει ως επόπτης για να παρακολουθεί και να ανιχνεύει πότε μια άλλη τεχνητή νοημοσύνη πηγαίνει στην ανήθικη άβυσσο (δείτε την ανάλυσή μου για τέτοιες δυνατότητες στο ο σύνδεσμος εδώ).

Σε λίγο, θα μοιραστώ μαζί σας ορισμένες βασικές αρχές που διέπουν την ηθική της τεχνητής νοημοσύνης. Υπάρχουν πολλές από αυτού του είδους τις λίστες που επιπλέουν εδώ και εκεί. Θα μπορούσατε να πείτε ότι δεν υπάρχει ακόμη μια μοναδική λίστα καθολικής απήχησης και σύμφωνης γνώμης. Αυτά είναι τα δυσάρεστα νέα. Τα καλά νέα είναι ότι τουλάχιστον υπάρχουν άμεσα διαθέσιμες λίστες AI Ethics και τείνουν να είναι αρκετά παρόμοιες. Συνολικά, αυτό υποδηλώνει ότι με μια μορφή αιτιολογημένης σύγκλισης βρίσκουμε τον δρόμο μας προς μια γενική κοινότητα του τι συνίσταται η Ηθική AI.

Αρχικά, ας καλύψουμε εν συντομία μερικές από τις συνολικές αρχές ηθικής τεχνητής νοημοσύνης για να δείξουμε τι θα έπρεπε να είναι ζωτικής σημασίας για οποιονδήποτε κατασκευάζει, ασχολείται με το πεδίο ή χρησιμοποιεί AI.

Για παράδειγμα, όπως αναφέρει το Βατικανό στο Έκκληση της Ρώμης για ηθική τεχνητή νοημοσύνη και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης που έχουν προσδιορίσει:

  • Διαφάνεια: Κατ' αρχήν, τα συστήματα τεχνητής νοημοσύνης πρέπει να είναι εξηγήσιμα
  • Συμπερίληψη: Οι ανάγκες όλων των ανθρώπινων όντων πρέπει να λαμβάνονται υπόψη ώστε όλοι να μπορούν να επωφεληθούν και να προσφερθούν σε όλα τα άτομα οι καλύτερες δυνατές συνθήκες για να εκφραστούν και να αναπτυχθούν
  • Ευθύνη: Όσοι σχεδιάζουν και αναπτύσσουν τη χρήση της τεχνητής νοημοσύνης πρέπει να προχωρήσουν με υπευθυνότητα και διαφάνεια
  • Αμεροληψία: Μην δημιουργείτε ή ενεργείτε σύμφωνα με προκαταλήψεις, διασφαλίζοντας έτσι τη δικαιοσύνη και την ανθρώπινη αξιοπρέπεια
  • Αξιοπιστία: Τα συστήματα AI πρέπει να μπορούν να λειτουργούν αξιόπιστα
  • Ασφάλεια και απόρρητο: Τα συστήματα AI πρέπει να λειτουργούν με ασφάλεια και να σέβονται το απόρρητο των χρηστών.

Όπως αναφέρεται από το Υπουργείο Άμυνας των ΗΠΑ (DoD) σε τους Ηθικές αρχές για τη χρήση της τεχνητής νοημοσύνης και όπως έχω καλύψει σε βάθος στο ο σύνδεσμος εδώ, αυτές είναι οι έξι βασικές αρχές ηθικής της τεχνητής νοημοσύνης:

  • Υπεύθυνος: Το προσωπικό του Υπουργείου Άμυνας θα ασκεί τα κατάλληλα επίπεδα κρίσης και φροντίδας, ενώ θα παραμένει υπεύθυνο για την ανάπτυξη, την ανάπτυξη και τη χρήση των δυνατοτήτων AI.
  • Δίκαιος: Το Τμήμα θα λάβει σκόπιμα μέτρα για να ελαχιστοποιήσει την ακούσια μεροληψία στις δυνατότητες τεχνητής νοημοσύνης.
  • Ανιχνεύσιμος: Οι ικανότητες τεχνητής νοημοσύνης του Τμήματος θα αναπτυχθούν και θα αναπτυχθούν έτσι ώστε το σχετικό προσωπικό να έχει κατάλληλη κατανόηση της τεχνολογίας, των διαδικασιών ανάπτυξης και των λειτουργικών μεθόδων που ισχύουν για τις δυνατότητες τεχνητής νοημοσύνης, συμπεριλαμβανομένων διαφανών και ελεγχόμενων μεθοδολογιών, πηγών δεδομένων και διαδικασίας σχεδιασμού και τεκμηρίωσης.
  • Αξιόπιστος: Οι δυνατότητες τεχνητής νοημοσύνης του Τμήματος θα έχουν σαφείς, καλά καθορισμένες χρήσεις και η ασφάλεια, η ασφάλεια και η αποτελεσματικότητα αυτών των δυνατοτήτων θα υπόκεινται σε δοκιμές και διασφάλιση εντός αυτών των καθορισμένων χρήσεων σε ολόκληρο τον κύκλο ζωής τους.
  • Ρυθμιστός: Το Τμήμα θα σχεδιάσει και θα κατασκευάσει τις ικανότητες τεχνητής νοημοσύνης για να εκπληρώσει τις επιδιωκόμενες λειτουργίες τους, ενώ θα έχει την ικανότητα να ανιχνεύει και να αποφεύγει ακούσιες συνέπειες, καθώς και την ικανότητα να αποδεσμεύει ή να απενεργοποιεί αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά.

Έχω επίσης συζητήσει διάφορες συλλογικές αναλύσεις των αρχών δεοντολογίας της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της κάλυψης ενός συνόλου που επινοήθηκε από ερευνητές που εξέτασαν και συμπύκνωσαν την ουσία πολλών εθνικών και διεθνών αρχών ηθικής τεχνητής νοημοσύνης σε μια εργασία με τίτλο «The Global Landscape Of AI Ethics Guidelines» (δημοσιευμένο σε Φύση), και ότι η κάλυψή μου διερευνά σε ο σύνδεσμος εδώ, που οδήγησε σε αυτήν τη βασική λίστα:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Όπως μπορείτε να μαντέψετε ευθέως, η προσπάθεια να εντοπίσετε τις λεπτομέρειες στις οποίες βασίζονται αυτές οι αρχές μπορεί να είναι εξαιρετικά δύσκολο να γίνει. Ακόμη περισσότερο, η προσπάθεια να μετατραπούν αυτές οι γενικές αρχές σε κάτι εντελώς απτό και αρκετά λεπτομερές για να χρησιμοποιηθεί κατά τη δημιουργία συστημάτων τεχνητής νοημοσύνης είναι επίσης ένα δύσκολο καρύδι. Γενικά, είναι εύκολο να κάνουμε λίγο χειραψία σχετικά με το τι είναι οι αρχές ηθικής τεχνητής νοημοσύνης και πώς θα πρέπει να τηρούνται γενικά, ενώ είναι μια πολύ πιο περίπλοκη κατάσταση στην κωδικοποίηση AI που πρέπει να είναι το πραγματικό λάστιχο που συναντά το δρόμο.

Οι αρχές της δεοντολογίας της τεχνητής νοημοσύνης πρέπει να χρησιμοποιούνται από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνους που τελικά τοποθετούν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι καθ' όλη τη διάρκεια του κύκλου ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο αναφοράς, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή αυτοί που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως αναφέρθηκε προηγουμένως, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας βεβαιωθούμε επίσης ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Ας επιστρέψουμε στην εστίασή μας στην Ασυμμετρία AI.

Μια γρήγορη ανακεφαλαίωση σχετικά με τις προαναφερθείσες τρεις συστάσεις μου είναι η εξής:

1) Γνωρίστε ότι η AI Asymmetry υπάρχει και αυξάνεται

2) Επιδιώξτε να διασφαλίσετε ότι η Ασυμμετρία AI περιορίζεται από την ηθική της AI

3) Προσπαθήστε να αντιμετωπίσετε την AI Asymmetry με το να οπλιστείτε με AI

Θα ρίξουμε μια πιο προσεκτική ματιά στο τελευταίο σημείο της καταπολέμησης της φωτιάς με τη φωτιά.

Φανταστείτε ότι όταν αναζητούσατε να λάβετε ένα δάνειο, είχατε τεχνητή νοημοσύνη που δούλευε με το μέρος της προσπάθειας σας. Αυτή μπορεί να είναι μια εφαρμογή βασισμένη σε τεχνητή νοημοσύνη στο smartphone σας που επινοήθηκε για τη λήψη δανείων. Δεν είναι μια εφαρμογή από μία από τις τράπεζες και αντ' αυτού έχει σχεδιαστεί ανεξάρτητα για να ενεργεί για λογαριασμό σας. Έχω περιγράψει λεπτομερώς αυτά τα είδη εφαρμογών στο βιβλίο μου για ρομπότ φύλακα αγγέλου που βασίζονται σε τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ.

Μόλις υποβάλετε αίτηση για δάνειο, μπορείτε να ανατρέξετε σε αυτήν την εφαρμογή καθώς προχωράτε στη διαδικασία αίτησης από το άλλο AI. Αυτά τα δύο συστήματα τεχνητής νοημοσύνης είναι ξεχωριστά και εντελώς ξεχωριστά το ένα από το άλλο. Το AI στο smartphone σας έχει «εκπαιδευτεί» ώστε να γνωρίζει όλα τα κόλπα που χρησιμοποιούνται από το άλλο AI. Ως εκ τούτου, οι απαντήσεις που εισάγετε στο AI της τράπεζας θα βασίζονται σε αυτά που σας συμβουλεύει το AI σας.

Μια άλλη παραλλαγή αποτελείται από το AI σας να απαντά στις ερωτήσεις που θέτει το άλλο AI. Από όσο μπορεί να διαπιστώσει η άλλη τεχνητή νοημοσύνη, είστε εσείς που εισάγετε τις απαντήσεις. Αντίθετα, ίσως απλώς παρακολουθείτε καθώς λαμβάνουν χώρα οι αλληλεπιδράσεις μεταξύ των δύο συστημάτων τεχνητής νοημοσύνης που μάχονται. Αυτό σας επιτρέπει να δείτε τι προσφέρει το AI σας. Επιπλέον, μπορείτε ενδεχομένως να προσαρμόσετε το AI σας ανάλογα με το αν είστε ικανοποιημένοι με το τι κάνει η τεχνητή νοημοσύνη σας για λογαριασμό σας.

Έχω προβλέψει ότι όλοι θα οπλιστούμε σταδιακά με AI που θα είναι στο πλευρό μας σε αυτές τις καταστάσεις Ασυμμετρίας AI.

Ας εξετάσουμε πώς θα λειτουργήσει αυτό.

Αυτές είναι οι θεμελιώδεις επιπτώσεις στην συνθήκη Ασυμμετρίας AI που είχα παρουσιάσει:

  • Ισοπεδώνοντας την AI Asymmetry υπέρ σας (σε φέρνει προς τα πάνω, ελπίζοντας να φτάσεις στα ίδια επίπεδα)
  • Υποκινώντας μια Ασυμμετρία AI προς όφελός σας (ανεβάζοντάς σας σε πλεονέκτημα όταν είστε ήδη ίσοι)
  • Ενισχύοντας την ασυμμετρία της τεχνητής νοημοσύνης προς την εξαιρετική σας χάρη (αποκτώντας ένα ευρύτερο πλεονέκτημα όταν ήδη βρίσκεστε σε πλεονέκτημα)
  • Άθελη υποκοπή της Ασυμμετρίας AI προς όφελός σας (όταν είχατε ένα προϋπάρχον πλεονέκτημα και η τεχνητή νοημοσύνη σας τράβηξε κατά λάθος)

Ώρα να κάνετε μια βαθιά βουτιά σε αυτές τις ενδιαφέρουσες δυνατότητες.

Ισοπέδωση της ασυμμετρίας AI προς όφελός σας

Η ισοπέδωση της ασυμμετρίας της τεχνητής νοημοσύνης είναι η πιο προφανής και πιο συχνά συζητούμενη σκέψη, δηλαδή ότι θα οπλίζατε τον εαυτό σας με τεχνητή νοημοσύνη για να προσπαθήσετε να περάσετε από τα δάχτυλα των ποδιών με την τεχνητή νοημοσύνη να χρησιμοποιείται από την άλλη πλευρά στο συγκεκριμένο θέμα. Η ρύθμιση AI Asymmetry ξεκίνησε με εσάς σε ένα αποφασισμένο μειονέκτημα. Δεν είχες AI στη γωνία σου. Ήσουν στη χαμηλή πλευρά των πραγμάτων. Η άλλη πλευρά είχε AI και ήταν στο υψηλότερο έδαφος.

Έτσι, οπλιστήκατε σοφά με τεχνητή νοημοσύνη που θα είχε ως στόχο να βάλει εσάς και το άλλο AI σε ίσους όρους.

Μια σημαντική και ίσως εκπληκτική απόχρωση που πρέπει να θυμάστε είναι ότι δεν θα συμβαίνει πάντα ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται θα ισορροπούν ομοιόμορφα μεταξύ τους. Μπορεί να οπλιστείτε με τεχνητή νοημοσύνη που είναι, ας πούμε, λιγότερο ισχυρή από την τεχνητή νοημοσύνη που χρησιμοποιεί η άλλη πλευρά. Σε αυτήν την περίπτωση, έχετε αυξήσει τη θέση της αρνητικής πλευράς σας, ευτυχώς, αν και δεν είστε πλέον εντελώς ίσοι με την άλλη πλευρά και την τεχνητή νοημοσύνη της.

Γι' αυτό το αναφέρω ως ισοπέδωση της AI Asymmetry. Ίσως μπορέσετε να μειώσετε το χάσμα, αν και να μην το κλείσετε πλήρως. Ο απώτερος στόχος θα ήταν να χρησιμοποιήσετε την τεχνητή νοημοσύνη στο πλευρό σας που θα σας φέρει σε μια εντελώς ίση στάση. Το θέμα είναι ότι αυτό μπορεί να είναι ή όχι εφικτό. Η άλλη πλευρά θα μπορούσε ενδεχομένως να έχει κάποια πολύ ακριβή τεχνητή νοημοσύνη και προσπαθείτε να ανταγωνιστείτε τη μαμά και ποπ φθηνή mart έκδοση του AI.

Δεν είναι όλα τα AI ίδια.

Προκαλώντας μια ασυμμετρία AI προς όφελός σας

Αυτή η περίσταση δεν είναι κάτι που συζητείται πολύ σήμερα, εν μέρει επειδή είναι σπάνιο αυτή τη στιγμή. Κάποτε, αυτό θα είναι συνηθισμένο. Η ιδέα είναι ότι ας υποθέσουμε ότι είστε χωρίς AI και παρόλα αυτά σε ίσο έδαφος με την πλευρά που έχει AI.

Μπράβο σου.

Οι άνθρωποι έχουν το μυαλό τους για αυτούς.

Αλλά μπορεί να θέλετε να κερδίσετε ένα πλεονέκτημα έναντι της άλλης πλευράς. Οπλίζοντας τον εαυτό σας με AI σας οδηγεί στο υψηλότερο έδαφος. Τώρα έχετε τα πνεύματά σας και την έμπιστη τεχνητή νοημοσύνη σας στα χέρια. Έχετε αποκτήσει ένα πλεονέκτημα που πιθανώς θα υπερισχύσει έναντι της τεχνητής νοημοσύνης της άλλης πλευράς.

Ενισχύοντας μια ασυμμετρία AI προς την εξαιρετική σας εύνοια

Χρησιμοποιώντας παρόμοια λογική με την πτυχή της ώθησης μιας Ασυμμετρίας AI για λογαριασμό σας, ας υποθέσουμε ότι είστε ήδη πάνω από τις δυνατότητες της άλλης πλευράς που χρησιμοποιεί AI. Άρα, δεν ξεκινάς σε ίση στάση. Ευτυχώς είστε ήδη στην κορυφή.

Ίσως θέλετε να εξασφαλίσετε ούτως ή άλλως ένα ακόμη μεγαλύτερο πλεονέκτημα. Επομένως, οπλίζετε τον εαυτό σας με AI. Αυτό παίρνει το κεφάλι και τους ώμους σας πάνω από την άλλη πλευρά.

Άθελη υποκοπή της ασυμμετρίας AI προς δυσμένειά σας

Αμφιβάλλω αν θέλετε να ακούσετε για αυτήν την πιθανότητα. Παρακαλώ συνειδητοποιήστε ότι η ενασχόληση με την τεχνητή νοημοσύνη δεν είναι μόνο τριαντάφυλλα και κέικ παγωτού.

Θα μπορούσε να είναι ότι όταν οπλίζεστε με AI, στην πραγματικότητα υποτιμάτε τον εαυτό σας. Εάν ήσουν ήδη λιγότερο από το AI της άλλης πλευράς, τώρα βρίσκεσαι σε μια πιο βαθιά τρύπα. Αν ήσασταν επί ίσοις όροις, τώρα βρίσκεστε σε μειονεκτική θέση. Αν ήσουν πάνω από την άλλη πλευρά, τώρα είσαι ίσος ή κάτω από αυτήν.

Πώς θα μπορούσε να συμβεί αυτό;

Μπορεί να σοκαριστείτε όταν αναλογιστείτε ότι η τεχνητή νοημοσύνη που υιοθετείτε θα σας παρασύρει. Αυτό θα μπορούσε εύκολα να συμβεί. Ακριβώς επειδή έχετε AI στη γωνία σας δεν σημαίνει ότι είναι χρήσιμο. Μπορεί να χρησιμοποιείτε το AI και παρέχει συμβουλές που δεν θεωρείτε απαραίτητα κατάλληλες, αλλά αποφασίζετε να το ακολουθήσετε ούτως ή άλλως. Η λογική σας εκείνη την εποχή ήταν ότι από τη στιγμή που μπήκατε στον κόπο να αποκτήσετε την τεχνητή νοημοσύνη, ίσως εξαρτηθείτε από αυτήν.

Το AI που χρησιμοποιείτε μπορεί να είναι ελαττωματικό. Ή μπορεί να είναι κακώς σχεδιασμένο. Υπάρχουν αρκετοί λόγοι για τους οποίους η τεχνητή νοημοσύνη μπορεί να σας δίνει τρανταχτές συμβουλές. Όσοι δέχονται τυφλά ό,τι λέει η τεχνητή νοημοσύνη να κάνουν είναι βέβαιο ότι θα βρεθούν σε έναν κόσμο πληγωμένου. Έχω καλύψει τέτοια προβλήματα στη στήλη μου, όπως π.χ ο σύνδεσμος εδώ.

Η ουσία είναι ότι δεν υπάρχει καμία απολύτως εγγύηση ότι μόνο και μόνο επειδή οπλίζεστε με AI θα κερδίσετε στο παιχνίδι AI Asymmetry.

Μπορεί να φτάσετε σε ίσους όρους ανταγωνισμού. Μπορεί να αποκτήσετε ένα πλεονέκτημα. Και, δυστυχώς, πρέπει να είστε προσεκτικοί, καθώς μπορεί να βυθιστείτε σε κατώτερα επίπεδα όταν οπλιστείτε με AI.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα. Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχετε μια νοοτροπία ηθικής τεχνητής νοημοσύνης και να το κάνετε αναπόσπαστα με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή της κατάλληλης τεχνητής νοημοσύνης.

Εκτός από τη χρήση της ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα. Δείτε για παράδειγμα την κάλυψή μου στο ο σύνδεσμος εδώ και ο σύνδεσμος εδώ.

Σε αυτή τη συγκυρία αυτής της βαριάς συζήτησης, θα στοιχηματίζω ότι επιθυμείτε μερικά ενδεικτικά παραδείγματα που θα μπορούσαν να παρουσιάσουν αυτό το θέμα. Υπάρχει ένα ιδιαίτερο και σίγουρα δημοφιλές σύνολο παραδειγμάτων που είναι κοντά στην καρδιά μου. Βλέπετε, με την ιδιότητά μου ως εμπειρογνώμονα σε θέματα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των ηθικών και νομικών προεκτάσεων, μου ζητείται συχνά να εντοπίσω ρεαλιστικά παραδείγματα που παρουσιάζουν διλήμματα Ηθικής AI, έτσι ώστε η κάπως θεωρητική φύση του θέματος να γίνει πιο εύκολα κατανοητή. Ένας από τους πιο υποβλητικούς τομείς που παρουσιάζει έντονα αυτό το ηθικό δίλημμα της τεχνητής νοημοσύνης είναι η εμφάνιση αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη. Αυτό θα χρησιμεύσει ως εύχρηστη περίπτωση χρήσης ή υπόδειγμα για άφθονη συζήτηση σχετικά με το θέμα.

Ακολουθεί μια αξιοσημείωτη ερώτηση που αξίζει να σκεφτούμε: Η έλευση των αληθινών αυτοοδηγούμενων αυτοκινήτων που βασίζονται σε τεχνητή νοημοσύνη φωτίζει κάτι σχετικά με την AI Asymmetry, και αν ναι, τι δείχνει αυτό;

Επιτρέψτε μου μια στιγμή να ξεκαθαρίσω την ερώτηση.

Πρώτον, σημειώστε ότι δεν υπάρχει άνθρωπος οδηγός που να εμπλέκεται σε ένα αληθινό αυτό-οδηγούμενο αυτοκίνητο. Λάβετε υπόψη ότι τα πραγματικά αυτοοδηγούμενα αυτοκίνητα οδηγούνται μέσω συστήματος οδήγησης AI. Δεν υπάρχει ανάγκη για ανθρώπινο οδηγό στο τιμόνι, ούτε προβλέπεται να οδηγεί το όχημα από άνθρωπο. Για την εκτενή και συνεχή κάλυψη των Αυτόνομων Οχημάτων (AV) και ιδιαίτερα των αυτοοδηγούμενων αυτοκινήτων, βλ. ο σύνδεσμος εδώ.

Θα ήθελα να διευκρινίσω περαιτέρω τι εννοεί όταν αναφέρομαι σε αληθινά αυτοκίνητα αυτο-οδήγησης.

Κατανόηση των επιπέδων Αυτοκινήτων Αυτοκινήτων

Ως διευκρίνιση, τα αληθινά αυτοκινούμενα αυτοκίνητα είναι εκείνα όπου το AI οδηγεί το αυτοκίνητο εξ ολοκλήρου μόνο του και δεν υπάρχει ανθρώπινη βοήθεια κατά τη διάρκεια της οδήγησης.

Αυτά τα οχήματα χωρίς οδηγό θεωρούνται Επίπεδο 4 και Επίπεδο 5 (δείτε την εξήγησή μου στο αυτό το σύνδεσμο εδώ), ενώ ένα αυτοκίνητο που απαιτεί από έναν άνθρωπο οδηγό να συμμεριστεί την προσπάθεια οδήγησης θεωρείται συνήθως στο Επίπεδο 2 ή στο Επίπεδο 3. Τα αυτοκίνητα που μοιράζονται από κοινού την οδήγηση περιγράφονται ως ημιαυτόνομα και συνήθως περιέχουν μια ποικιλία αυτοματοποιημένα πρόσθετα που αναφέρονται ως ADAS (Advanced Driver-Assistance Systems).

Δεν υπάρχει ακόμα ένα αληθινό αυτόνομο αυτοκίνητο στο Επίπεδο 5 και δεν γνωρίζουμε ακόμη αν αυτό θα είναι δυνατό να επιτευχθεί, ούτε πόσος χρόνος θα χρειαστεί για να φτάσουμε εκεί.

Εν τω μεταξύ, οι προσπάθειες του Επιπέδου 4 προσπαθούν σταδιακά να αποκτήσουν κάποια έλξη υποβάλλοντας σε πολύ στενές και επιλεκτικές δοκιμές σε δημόσιους δρόμους, αν και υπάρχει διαμάχη σχετικά με το εάν αυτή η δοκιμή πρέπει να επιτρέπεται αυτή καθαυτή (είμαστε όλοι πειραματόζωα ζωής ή θανάτου σε ένα πείραμα που λαμβάνουν χώρα στους αυτοκινητόδρομους και στις παρακάμψεις μας, κάποιοι ισχυρίζονται, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ).

Δεδομένου ότι τα ημι-αυτόνομα αυτοκίνητα απαιτούν ανθρώπινο οδηγό, η υιοθέτηση αυτών των τύπων αυτοκινήτων δεν θα είναι σημαντικά διαφορετική από την οδήγηση συμβατικών οχημάτων, οπότε δεν υπάρχουν πολλά νέα για να καλύψουν σχετικά με αυτό το θέμα (ωστόσο, όπως θα δείτε σε λίγο, τα επόμενα σημεία είναι γενικά εφαρμόσιμα).

Για τα ημι-αυτόνομα αυτοκίνητα, είναι σημαντικό το κοινό να προειδοποιείται για μια ενοχλητική πτυχή που έχει προκύψει πρόσφατα, συγκεκριμένα ότι παρά τους ανθρώπους που συνεχίζουν να δημοσιεύουν βίντεο που κοιμούνται στο τιμόνι ενός αυτοκινήτου Level 2 ή Level 3 , όλοι πρέπει να αποφύγουμε να παραπλανηθούμε στο να πιστεύουμε ότι ο οδηγός μπορεί να αφαιρέσει την προσοχή του από το καθήκον οδήγησης κατά την οδήγηση ενός ημι-αυτόνομου αυτοκινήτου.

Είστε ο υπεύθυνος για τις ενέργειες οδήγησης του οχήματος, ανεξάρτητα από το πόσο αυτοματοποίηση μπορεί να πεταχτεί σε Επίπεδο 2 ή Επίπεδο 3.

Αυτοοδηγούμενα αυτοκίνητα και Ασυμμετρία AI

Για τα πραγματικά οχήματα επιπέδου 4 και επιπέδου 5, δεν θα υπάρχει ανθρώπινος οδηγός που θα εμπλέκεται στο καθήκον οδήγησης.

Όλοι οι επιβάτες θα είναι επιβάτες.

Το AI κάνει την οδήγηση.

Μία πτυχή για άμεση συζήτηση συνεπάγεται το γεγονός ότι η AI που εμπλέκεται στα σημερινά συστήματα οδήγησης AI δεν είναι αισιόδοξη. Με άλλα λόγια, η τεχνητή νοημοσύνη είναι συνολικά μια ομάδα προγραμματισμού και αλγορίθμων που βασίζονται σε υπολογιστή και σίγουρα δεν είναι σε θέση να αιτιολογήσει με τον ίδιο τρόπο που οι άνθρωποι μπορούν.

Γιατί αυτή η πρόσθετη έμφαση στο ότι η AI δεν είναι αισθαντική;

Επειδή θέλω να υπογραμμίσω ότι κατά τη συζήτηση του ρόλου του συστήματος οδήγησης AI, δεν αποδίδω ανθρώπινες ιδιότητες στο AI. Λάβετε υπόψη ότι υπάρχει μια συνεχιζόμενη και επικίνδυνη τάση αυτές τις μέρες να ανθρωπομορφώνεται η AI. Ουσιαστικά, οι άνθρωποι αποδίδουν ανθρώπινη αίσθηση στη σημερινή AI, παρά το αναμφισβήτητο και αναμφισβήτητο γεγονός ότι δεν υπάρχει τέτοια AI.

Με αυτήν την αποσαφήνιση, μπορείτε να φανταστείτε ότι το σύστημα οδήγησης AI δεν θα “ξέρει” εγγενώς για τις πτυχές της οδήγησης. Η οδήγηση και όλα όσα συνεπάγεται θα πρέπει να προγραμματιστούν ως μέρος του υλικού και του λογισμικού του αυτοκινούμενου αυτοκινήτου.

Ας ρίξουμε μια ματιά σε πολλές πτυχές που έρχονται να παίξουν σε αυτό το θέμα.

Πρώτον, είναι σημαντικό να συνειδητοποιήσουμε ότι δεν είναι όλα τα αυτοοδηγούμενα αυτοκίνητα AI. Κάθε αυτοκινητοβιομηχανία και εταιρεία τεχνολογίας αυτόνομης οδήγησης υιοθετεί την προσέγγισή της στην επινόηση αυτοκινούμενων αυτοκινήτων. Ως εκ τούτου, είναι δύσκολο να γίνουν σαρωτικές δηλώσεις σχετικά με το τι θα κάνουν ή τι δεν θα κάνουν τα συστήματα οδήγησης τεχνητής νοημοσύνης.

Επιπλέον, όποτε δηλώνεται ότι ένα σύστημα οδήγησης AI δεν κάνει κάτι συγκεκριμένο, αυτό μπορεί, αργότερα, να ξεπεραστεί από προγραμματιστές που στην πραγματικότητα προγραμματίζουν τον υπολογιστή να κάνει ακριβώς αυτό. Βήμα προς βήμα, τα συστήματα οδήγησης AI βελτιώνονται και επεκτείνονται σταδιακά. Ένας υπάρχων περιορισμός σήμερα μπορεί να μην υπάρχει πλέον σε μελλοντική επανάληψη ή έκδοση του συστήματος.

Ελπίζω ότι αυτό παρέχει μια αρκετή λιτανεία προειδοποιήσεων για να υποστηρίξω αυτό που πρόκειται να αναφέρω.

Ας σκιαγραφήσουμε ένα σενάριο που δείχνει την Ασυμμετρία AI.

Σκεφτείτε το φαινομενικά ασήμαντο θέμα του πού θα περιφέρονται τα αυτόνομα αυτοκίνητα για να παραλάβουν επιβάτες. Αυτό φαίνεται σαν ένα άφθονα αβλαβές θέμα.

Αρχικά, υποθέστε ότι τα αυτοοδηγούμενα αυτοκίνητα με τεχνητή νοημοσύνη θα κυκλοφορούν σε ολόκληρες πόλεις. Οποιοσδήποτε θέλει να ζητήσει μια βόλτα με αυτοοδηγούμενο αυτοκίνητο έχει ουσιαστικά ίσες πιθανότητες να το κάνει. Σταδιακά, η τεχνητή νοημοσύνη αρχίζει να διατηρεί κυρίως τα αυτόνομα αυτοκίνητα σε περιαγωγή σε ένα μόνο τμήμα της πόλης. Αυτή η ενότητα είναι πιο κερδοφόρα και η τεχνητή νοημοσύνη έχει προγραμματιστεί να δοκιμάζει και μεγιστοποίηση τα έσοδα ως μέρος της χρήσης στην κοινότητα γενικότερα (αυτό υπογραμμίζει τη νοοτροπία που βασίζεται στη βελτιστοποίηση, δηλαδή την εστίαση σε μια συγκεκριμένη μέτρηση και την παραμέληση άλλων κρίσιμων παραγόντων στη διαδικασία).

Τα μέλη της κοινότητας στα φτωχά μέρη της πόλης αποδεικνύεται ότι είναι λιγότερο πιθανό να μπορούν να πάρουν μια βόλτα από ένα αυτοοδηγούμενο αυτοκίνητο. Αυτό οφείλεται στο γεγονός ότι τα αυτοκινούμενα αυτοκίνητα ήταν πιο μακριά και περιφέρονταν στο υψηλότερο τμήμα της πόλης. Όταν ένα αίτημα έρχεται από ένα μακρινό μέρος της πόλης, οποιοδήποτε άλλο αίτημα από μια πιο κοντινή τοποθεσία θα έχει μεγαλύτερη προτεραιότητα. Τελικά, η διαθεσιμότητα ενός αυτοοδηγούμενου αυτοκινήτου σε οποιοδήποτε μέρος εκτός από το πλουσιότερο μέρος της πόλης είναι σχεδόν αδύνατη, εξοργιστικά για εκείνους που ζούσαν σε εκείνες τις περιοχές που τώρα έχουν λιμοκτονήσει από πόρους.

Φεύγει τα περίφημα όνειρα κινητικότητας που υποτίθεται ότι ζωντανεύουν τα αυτόνομα αυτοκίνητα.

Θα μπορούσατε να ισχυριστείτε ότι η τεχνητή νοημοσύνη συνολικά προσγειώθηκε σε μια μορφή στατιστικής και υπολογιστικής μεροληψίας, παρόμοια με μια μορφή διάκρισης μεσολάβησης (επίσης συχνά αναφέρεται ως έμμεση διάκριση). Συνειδητοποιήστε ότι η τεχνητή νοημοσύνη δεν είχε προγραμματιστεί για να αποφεύγει αυτές τις φτωχότερες γειτονιές. Ας το ξεκαθαρίσουμε σε αυτήν την περίπτωση. Όχι, επινοήθηκε απλώς για τη βελτιστοποίηση των εσόδων, ένας φαινομενικά αποδεκτός στόχος, αλλά αυτό έγινε χωρίς οι προγραμματιστές AI να σκεφτούν άλλες πιθανές επιπτώσεις. Αυτή η βελτιστοποίηση με τη σειρά της άθελά της και αναπόφευκτα οδήγησε σε ένα ανεπιθύμητο αποτέλεσμα.

Αν είχαν συμπεριλάβει ζητήματα ηθικής τεχνητής νοημοσύνης ως μέρος της νοοτροπίας βελτιστοποίησης τους, θα μπορούσαν να είχαν συνειδητοποιήσει εκ των προτέρων ότι αν δεν κατασκεύαζαν την τεχνητή νοημοσύνη για να αντιμετωπίσουν αυτό το είδος υπερμεγέθους μόνο σε μία μέτρηση, θα μπορούσαν να είχαν αποτρέψει τέτοια θλιβερά αποτελέσματα. Για περισσότερα σχετικά με αυτούς τους τύπους ζητημάτων που είναι πιθανό να προκαλέσει η ευρεία υιοθέτηση αυτόνομων οχημάτων και αυτοοδηγούμενων αυτοκινήτων, δείτε την κάλυψή μου στο αυτό το σύνδεσμο εδώ, περιγράφοντας μια μελέτη υπό την ηγεσία του Χάρβαρντ και την οποία συνέταξα για αυτά τα θέματα.

Σε κάθε περίπτωση, υποθέστε ότι το άλογο είναι ήδη έξω από τον αχυρώνα και η κατάσταση δεν επιδέχεται άμεσα γενικές λύσεις.

Τι μπορούν να κάνουν αυτοί που θέλουν να χρησιμοποιήσουν αυτά τα αυτοοδηγούμενα αυτοκίνητα;

Η πιο προφανής προσέγγιση θα ήταν να συνεργαστείτε με τους ηγέτες της κοινότητας για να ζητήσετε από την αυτοκινητοβιομηχανία ή την εταιρεία τεχνολογίας αυτόνομης οδήγησης να επανεξετάσει τον τρόπο με τον οποίο έχουν δημιουργήσει την τεχνητή νοημοσύνη. Ίσως ασκήσει πίεση σε οποιαδήποτε άδεια ή άδεια που έχει χορηγηθεί για την ανάπτυξη αυτών των αυτοοδηγούμενων αυτοκινήτων στη συγκεκριμένη πόλη ή κωμόπολη. Αυτά είναι πιθανότατα βιώσιμα μέσα για την επίτευξη θετικών αλλαγών, αν και θα μπορούσε να χρειαστεί λίγος χρόνος μέχρι να καρποφορήσουν αυτές οι προσπάθειες.

Μια άλλη οπτική γωνία θα ήταν να οπλιστείτε με AI.

Οραματιστείτε ότι κάποιος έχει επινοήσει έξυπνα μια εφαρμογή βασισμένη σε AI που λειτουργεί στο smartphone σας και ασχολείται με την τεχνητή νοημοσύνη της αυτοκινητοβιομηχανίας ή του χειριστή του στόλου που δέχεται αιτήματα για βόλτες. Μπορεί η τεχνητή νοημοσύνη που χρησιμοποιείτε να εκμεταλλεύεται βασικά στοιχεία της άλλης τεχνητής νοημοσύνης, έτσι ώστε να δίνεται μεγαλύτερη προτεραιότητα σε ένα αίτημα για αυτοοδηγούμενο αυτοκίνητο από εσάς. Σημειώστε ότι δεν προτείνω ότι συμβαίνει κάτι παράνομο, αλλά αντίθετα ότι η τεχνητή νοημοσύνη από την πλευρά σας έχει αναπτυχθεί με βάση τα ανακαλυφθέντα «χαρακτηριστικά» ή ακόμα και κενά στην άλλη τεχνητή νοημοσύνη.

Συμπέρασμα

Η ιστορία για την ανάρμοστη ανταπόκριση ενάντια στην τεχνητή νοημοσύνη του χειριστή του στόλου των αυτοοδηγούμενων αυτοκινήτων με το να οπλιστείτε με τεχνητή νοημοσύνη φέρνει πρόσθετες διαμάχες και προβληματισμούς σχετικά με την ηθική της τεχνητής νοημοσύνης.

Για παράδειγμα:

  • Εάν ένα άτομο μπορεί να χρησιμοποιήσει την τεχνητή νοημοσύνη για να του δώσει ένα πλεονέκτημα έναντι μιας τεχνητής νοημοσύνης κάποιου άλλου συστήματος, πόσο μακριά μπορεί να φτάσει αυτό όσον αφορά την πιθανή υπέρβαση των ορίων ηθικής τεχνητής νοημοσύνης (πείθω τα αυτόνομα αυτοκίνητα να έρθουν σε εμένα και τους φίλους μου, προς αποκλεισμό όλων των άλλων);
  • Επίσης, υπάρχει κάποια φαινομενική άποψη για την ηθική της τεχνητής νοημοσύνης ότι εάν κάποιος γνωρίζει ή είναι οπλισμένος με τεχνητή νοημοσύνη για να πολεμήσει με άλλη τεχνητή νοημοσύνη, θα πρέπει τα εναπομείναντα άτομα που δεν έχουν αυτό το εξισορροπητικό AI να ειδοποιηθούν με κάποιο τρόπο για την τεχνητή νοημοσύνη και να μπορέσουν να οπλιστούν ανάλογα επίσης;

Στο τέλος, όλα αυτά μας οδηγούν σε ένα μέλλον που φαίνεται απόκοσμο, που αποτελείται από έναν αγώνα όπλων AI. Ποιος θα έχει την τεχνητή νοημοσύνη που χρειάζεται για να κυκλοφορήσει και να επιβιώσει και ποιος όχι; Θα υπάρχει πάντα ένα ακόμη AI που θα έρχεται και θα πυροδοτεί την ανάγκη για ένα αντισταθμιστικό AI;

Ο Καρλ Σάγκαν, ο σεβαστός επιστήμονας, έδωσε αυτή τη σοφή σοφία σχετικά με τους ιδιαίτερα κατακλυσμικούς αγώνες εξοπλισμών: «Η κούρσα των πυρηνικών εξοπλισμών μοιάζει με δύο ορκισμένους εχθρούς που στέκονται στη μέση βαθιά μέσα στη βενζίνη, ο ένας με τρία σπίρτα και ο άλλος με πέντε».

Πρέπει να επιδιώξουμε αποφασιστικά να κρατάμε τα πόδια μας στεγνά και το κεφάλι μας καθαρό όταν πρόκειται για έναν διαρκώς επικείμενο αγώνα εξοπλισμών τεχνητής νοημοσύνης.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- από το ραβδί/