Ηθική τεχνητής νοημοσύνης και ψυχολογικός εμβολιασμός που προκαλείται από την τεχνητή νοημοσύνη για να βοηθήσει τους ανθρώπους με την παραπληροφόρηση

Τι θα κάνουμε για τον τεράστιο πλεόνασμα παραπληροφόρησης και παραπληροφόρησης;

Όλα είναι αποδεδειγμένα χειρότερα και χειρότερα, κάθε μέρα που περνά.

Ίσως η Τεχνητή Νοημοσύνη (AI) να μπορέσει να μας σώσει. Ναι, έτσι είναι, ίσως μπορέσουμε να εκμεταλλευτούμε τις ευεργετικές χρήσεις της τεχνητής νοημοσύνης για να αντιμετωπίσουμε το ανελέητο τσουνάμι παραπληροφόρησης και παραπληροφόρησης. Ίσως είναι σοφό να προσπαθήσουμε να το κάνουμε. Κάθε οδός πιθανής λύσης θα φαινόταν άξια επιδίωξης.

Επιπλέον, θα ήθελα να αναγνωρίσω αμέσως και να σημειώσω ότι η τεχνητή νοημοσύνη αναμφίβολα πρόκειται να Επίσης γίνε κι εσύ μέρος του προβλήματος. Δεν υπάρχει αμφιβολία ότι οι άνθρωποι μπορούν εύκολα να αξιοποιήσουν την τεχνητή νοημοσύνη για να δημιουργήσουν παραπληροφόρηση και παραπληροφόρηση. Επιπλέον, η τεχνητή νοημοσύνη μπορεί ύπουλα να χρησιμοποιηθεί για να κάνει την παραπληροφόρηση και την παραπληροφόρηση να φαίνεται εκπληκτικά έγκυρη και να ξεγελάσει τους ανθρώπους να πιστεύουν ότι οι παρουσιαζόμενες πληροφορίες είναι δελεαστικά ακριβείς και πραγματικές. Μια αναμφισβήτητα θλιμμένη πλευρά του τι φέρνει η τεχνητή νοημοσύνη στο τραπέζι. Θα επανέλθουμε σε αυτό το αρνητικό αίνιγμα προς το τέλος αυτής της συζήτησης.

Προς το παρόν, ας φορέσουμε τα χαμογελαστά μας πρόσωπα και ας εξερευνήσουμε πώς η τεχνητή νοημοσύνη είναι ευεργετική για να γονατίσει την παραπληροφόρηση και την παραπληροφόρηση. Ένα σημαντικό κρυφό ρεύμα θα είναι ότι όλα αυτά συνδυάζονται με ζωτικά στοιχεία της Ηθικής AI. Η κάλυψη της στήλης μου για την Ηθική AI και την Ηθική AI είναι συνεχής και εκτενής, συμπεριλαμβανομένης της ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Εξετάστε αυτούς τους ακρογωνιαίους τρόπους με τους οποίους η τεχνητή νοημοσύνη μπορεί να είναι ένας ιδιαίτερα χρήσιμος σύμμαχος στον πόλεμο κατά της παραπληροφόρησης και της παραπληροφόρησης:

  • Σταματήστε στο The Get-Go: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την ανίχνευση και την προσπάθεια εξάλειψης της παραπληροφόρησης και της παραπληροφόρησης προτού διαλυθεί
  • Φιλτράρισμα πριν την προβολή: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να φιλτράρει παραπληροφόρηση και παραπληροφόρηση, ώστε να μην χρειάζεται να ανησυχείτε μήπως τη δείτε
  • Προετοιμαστείτε να έχετε ανοσία: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να ενισχύσει την ετοιμότητα και την ικανότητά σας να αντιμετωπίσετε την παραπληροφόρηση και την παραπληροφόρηση (γνωστή κάπως επίσημα ως παροχή ενός είδους ψυχολογικού εμβολιασμού)
  • ΑΛΛΑ

Η πρώτη καταγεγραμμένη κουκκίδα συνεπάγεται την προσπάθεια να σταματήσει η παραπληροφόρηση και η παραπληροφόρηση το συντομότερο δυνατό, πριν το περιεχόμενο φτάσει στον κόσμο.

Αυτή είναι μια άκρως προβληματική προσέγγιση. Κάποιοι θα υποστήριζαν έντονα ότι αυτό μπορεί να είναι μια προσπάθεια του Big Brother να καταστείλει την ελευθερία του λόγου. Πόσο μακριά θα μπορούσε να φτάσει αυτό το AI; Θα μπορούσε να εμποδίσει τους ανθρώπους να εκφράσουν ελεύθερα τις απόψεις τους; Αυτό το παράξενο θα μπορούσε να γίνει μια ολισθηρή πλαγιά της τεχνητής νοημοσύνης και τελικά να γίνει ο χειρότερος εφιάλτης των κακών αποτελεσμάτων που αθώα ξεκίνησε με τις καλύτερες προθέσεις.

Είμαι σίγουρος ότι καταλαβαίνετε την εικόνα.

Η δεύτερη κουκκίδα είναι λίγο πιο μέτρια και υποδηλώνει ότι θα μπορούσαμε να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να φιλτράρουμε το περιεχόμενο για εμάς.

Μπορεί να έχετε ένα bot φίλτρου AI που θα σαρώνει όλες τις εισερχόμενες ροές δεδομένων σας από διάφορες ειδήσεις και άλλες πηγές. Το AI είναι προσαρμοσμένο για να συλλαμβάνει οποιαδήποτε παραπληροφόρηση ή παραπληροφόρηση που ταιριάζει στα προσωπικά σας κριτήρια. Έτσι, σε ένα τέτοιο σενάριο, δεν είναι μια κατάσταση λογοκρισίας του Big Brother. Εσείς ελέγχετε την τεχνητή νοημοσύνη και τον τρόπο με τον οποίο φιλτράρει τα πραγματικά εισερχόμενά σας με τις πληροφορίες για λογαριασμό σας.

Ακούγεται αρκετά καλό.

Υπάρχουν ωστόσο κάποιες αξιοσημείωτες ανησυχίες.

Για παράδειγμα, είμαστε ήδη πολύ πολωμένοι στις απόψεις μας και αυτή η χρήση της τεχνητής νοημοσύνης μπορεί να κάνει αυτή την πόλωση πιο βαθιά και πιο σκοτεινή. Φανταστείτε ότι με αυτήν την έξυπνη τεχνητή νοημοσύνη που λειτουργεί ασταμάτητα 24×7, δεν χρειάζεται ποτέ να δείτε μια δέσμη πληροφοριών που έχετε ταξινομήσει ως δυνητικά παραπληροφόρηση και παραπληροφόρηση. Η πολωμένη προοπτική σας είναι πλέον σχεδόν εγγυημένη ότι θα παραμείνει ανέπαφη. Όλη την ημέρα και όποτε θέλετε να ρίξετε μια ματιά στις πληροφορίες που περιμένουν την προσοχή σας, είναι πάντα πλήρως προεπιλεγμένες και δεν υπάρχει πιθανότητα να ρίξετε μια ματιά στη λεγόμενη παραπληροφόρηση και παραπληροφόρηση.

Λέω ότι η παραπληροφόρηση και η παραπληροφόρηση μπορεί να είναι το λεγόμενο γιατί υπάρχει μια τεράστια διαμάχη σχετικά με το τι συνιστά στην πραγματικότητα παραπληροφόρηση και παραπληροφόρηση. Ορισμένοι ειδικοί επιμένουν ότι υπάρχει απόλυτη βάση για να εξακριβωθεί τι είναι παραπληροφόρηση και τι είναι παραπληροφόρηση. Υπάρχει σωστό και λάθος. Όλα μπορούν να υπολογιστούν χωρίς λάθος ότι κάτι είναι είτε παραπληροφόρηση είτε παραπληροφόρηση.

Δεν βλέπουν όλοι τα πράγματα ως τόσο ξεκάθαρα.

Η παροιμιώδης αντίθεση διχοτομίας on-ή-off αμοιβαία αποκλειστική λέγεται ότι είναι ένα παραπλανητικό πλαίσιο του μυαλού. Η παραπληροφόρηση ενός ατόμου μπορεί να μην θεωρείται παραπληροφόρηση σε άλλο άτομο. Το ίδιο και για την παραπληροφόρηση. Ο ισχυρισμός είναι ότι η παραπληροφόρηση και η παραπληροφόρηση κυμαίνονται ως προς τη φύση και το μέγεθος. Η προσπάθεια οριστικής ταξινόμησης όλων των πληροφοριών σε έναν ή τον άλλο σωρό είναι πολύ πιο δύσκολο από ό,τι υποδηλώνει το κούνημα με το χέρι.

Η ουσία είναι ότι η δεύτερη κουκκίδα σχετικά με τη χρήση της τεχνητής νοημοσύνης ως μηχανισμού φιλτραρίσματος έχει τις ανταλλαγές της. Δεν υπάρχει αμφιβολία ότι η τεχνητή νοημοσύνη πρόκειται να χρησιμοποιείται όλο και περισσότερο σε αυτή τη χρήση. Ταυτόχρονα, πρέπει να προσέχουμε τις προκλήσεις που πρόκειται να φέρει στο προσκήνιο μια τέτοια τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη ως φίλτρο παραπληροφόρησης και παραπληροφόρησης δεν είναι κάποιο silver bullet ή slam dunk.

Αυτό μας οδηγεί στο τρίτο σημείο, δηλαδή τη δυνατότητα χρήσης της τεχνητής νοημοσύνης για να κάνουμε τους ανθρώπους καλύτερους στην αντιμετώπιση της παραπληροφόρησης και της παραπληροφόρησης.

Αμφιβάλλω αν έχετε ακούσει πολλά για αυτήν την τρίτη οδό χρήσης της τεχνητής νοημοσύνης σε αυτό το πλαίσιο. Μόλις αρχίζει να αναδύεται. Βρίσκεστε τώρα στην αιχμή του κάτι που πιθανότατα θα αναπτυχθεί και σταδιακά θα τεθεί σε χρήση. Γνωρίστε ωστόσο ότι καθώς αυτή η δημοτικότητα επεκτείνεται, η διαμάχη σχετικά με το εάν είναι κατάλληλη προσέγγιση θα γίνει επίσης πολύ ορατή.

Μέρος του ζητήματος είναι ότι η τεχνητή νοημοσύνη χρησιμοποιείται κάπως για αυτό που ορισμένοι θα αποκαλούσαν με υποτιμητικό τρόπο παίζοντας παιχνίδια μυαλού με ανθρώπους.

Αυτό φαίνεται δυσοίωνο.

Αυτό μας φέρνει επίσης στη σφαίρα της Ηθικής AI.

Όλα αυτά σχετίζονται επίσης με νηφάλια αναδυόμενες ανησυχίες σχετικά με τη σημερινή τεχνητή νοημοσύνη και ιδιαίτερα τη χρήση της Μηχανικής Μάθησης και της Βαθιάς Μάθησης ως μορφής τεχνολογίας και του τρόπου χρήσης της. Βλέπετε, υπάρχουν χρήσεις της ML/DL που τείνουν να συνεπάγονται την ανθρωπομορφοποίηση της τεχνητής νοημοσύνης από το ευρύ κοινό, πιστεύοντας ή επιλέγοντας να υποθέσουμε ότι η ML/DL είναι είτε συναισθανόμενη τεχνητή νοημοσύνη είτε κοντά σε (δεν είναι). Επιπλέον, η ML/DL μπορεί να περιέχει πτυχές υπολογιστικής αντιστοίχισης προτύπων που είναι ανεπιθύμητες ή εντελώς ακατάλληλες ή παράνομες από ηθική ή νομική άποψη.

Ίσως είναι χρήσιμο να διευκρινίσω πρώτα τι εννοώ όταν αναφέρομαι στο AI συνολικά και επίσης να παρέχετε μια σύντομη επισκόπηση της Μηχανικής Μάθησης και της Βαθιάς Μάθησης. Υπάρχει μεγάλη σύγχυση ως προς το τι σημαίνει Τεχνητή Νοημοσύνη. Θα ήθελα επίσης να σας παρουσιάσω τις αρχές της AI Ethics, οι οποίες θα είναι ιδιαίτερα αναπόσπαστες στο υπόλοιπο αυτής της ομιλίας.

Δήλωση του αρχείου σχετικά με την τεχνητή νοημοσύνη

Ας βεβαιωθούμε ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη.

Δεν το έχουμε αυτό.

Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε την αισθητή τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει κατά κάποιο τρόπο από θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως The Singularity, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτενή χρήση της Μηχανικής Μάθησης και της Βαθιάς Μάθησης, τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κανένα από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Μέρος του ζητήματος είναι η τάση μας να ανθρωπομορφοποιούμε τους υπολογιστές και ειδικά την τεχνητή νοημοσύνη. Όταν ένα σύστημα υπολογιστή ή μια τεχνητή νοημοσύνη φαίνεται να ενεργεί με τρόπους που συσχετίζουμε με την ανθρώπινη συμπεριφορά, υπάρχει μια σχεδόν συντριπτική επιθυμία να αποδοθούν ανθρώπινες ιδιότητες στο σύστημα. Είναι μια κοινή ψυχική παγίδα που μπορεί να αρπάξει ακόμα και τον πιο αδιάλλακτο σκεπτικιστή σχετικά με τις πιθανότητες να φτάσει στο συναίσθημα.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα.

Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αναπόσπαστα με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης της αξιολόγησης του τρόπου με τον οποίο υιοθετείται η Δεοντολογία AI από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Προειδοποιούν ότι εάν θεσπίσουμε μερικούς από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα σκοτώσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα. Δείτε για παράδειγμα την κάλυψή μου στο ο σύνδεσμος εδώ.

Σε προηγούμενες στήλες, έχω καλύψει τις διάφορες εθνικές και διεθνείς προσπάθειες για τη δημιουργία και τη θέσπιση νόμων που ρυθμίζουν την τεχνητή νοημοσύνη, βλ. ο σύνδεσμος εδώ, για παράδειγμα. Έχω επίσης καλύψει τις διάφορες αρχές και κατευθυντήριες γραμμές για την ηθική της τεχνητής νοημοσύνης που έχουν προσδιορίσει και υιοθετήσει διάφορα έθνη, συμπεριλαμβανομένης για παράδειγμα της προσπάθειας των Ηνωμένων Εθνών, όπως το σύνολο της UNESCO για Δεοντολογία της Τεχνητής Νοημοσύνης που υιοθέτησαν σχεδόν 200 χώρες, βλ. ο σύνδεσμος εδώ.

Ακολουθεί μια χρήσιμη βασική λίστα κριτηρίων ή χαρακτηριστικών ηθικής τεχνητής νοημοσύνης σχετικά με συστήματα τεχνητής νοημοσύνης που έχω εξερευνήσει προσεκτικά στο παρελθόν:

  • Διαφάνεια
  • Δικαιοσύνη και Δικαιοσύνη
  • Μη κακοήθεια
  • Αρμοδιότητα
  • Προστασία προσωπικών δεδομένων
  • Αγαθοεργία
  • Ελευθερία & Αυτονομία
  • Εμπιστευθείτε
  • Βιωσιμότητα
  • Αξιοπρέπεια
  • Αλληλεγγύη

Αυτές οι αρχές ηθικής τεχνητής νοημοσύνης υποτίθεται ότι χρησιμοποιούνται ένθερμα από τους προγραμματιστές τεχνητής νοημοσύνης, μαζί με εκείνους που διαχειρίζονται τις προσπάθειες ανάπτυξης της τεχνητής νοημοσύνης, ακόμη και εκείνες που τελικά εφαρμόζουν και εκτελούν συντήρηση σε συστήματα τεχνητής νοημοσύνης. Όλοι οι ενδιαφερόμενοι σε ολόκληρο τον κύκλο ζωής ανάπτυξης και χρήσης της τεχνητής νοημοσύνης θεωρούνται εντός του πεδίου εφαρμογής της τήρησης των καθιερωμένων κανόνων της ηθικής τεχνητής νοημοσύνης. Αυτό είναι ένα σημαντικό σημείο, καθώς η συνήθης υπόθεση είναι ότι «μόνο οι κωδικοποιητές» ή εκείνοι που προγραμματίζουν την τεχνητή νοημοσύνη υπόκεινται σε συμμόρφωση με τις έννοιες της δεοντολογίας της τεχνητής νοημοσύνης. Όπως τονίστηκε προηγουμένως εδώ, χρειάζεται ένα χωριό για να επινοήσει και να καλλιεργήσει την τεχνητή νοημοσύνη, και για το οποίο ολόκληρο το χωριό πρέπει να γνωρίζει και να συμμορφώνεται με τις ηθικές αρχές της ΑΙ.

Ας κρατήσουμε τα πράγματα στη γη και ας επικεντρωθούμε στη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Πιστεύω ότι τώρα έχω προετοιμάσει το στάδιο για να συζητήσω επαρκώς τον ρόλο της τεχνητής νοημοσύνης ως μέσου για την προτροπή ψυχολογικού εμβολιασμού σχετικά με την αντιμετώπιση της παραπληροφόρησης και της παραπληροφόρησης.

Εισαγωγή στο μυαλό των ανθρώπων

Ας ξεκινήσουμε με τα βασικά ή θεμελιώδη στοιχεία της παραπληροφόρησης και της παραπληροφόρησης.

Γενικά, η παραπληροφόρηση αναφέρεται σε ψευδείς ή παραπλανητικές πληροφορίες.

Η παραπληροφόρηση είναι περίπου η ίδια αν και αποτελείται από το πρόσθετο στοιχείο του πρόθεση. Συνήθως ερμηνεύουμε τις πληροφορίες ως παραπληροφόρηση όταν πρόκειται για πληροφορίες προορίζονται να παραπληροφορήσει.

Θα μπορούσα να σας πω ότι αυτή τη στιγμή είναι 10 η ώρα το βράδυ, κάτι που ας πούμε είναι ψευδές γιατί η ώρα είναι πραγματικά μεσάνυχτα. Αν σας έλεγα 10 η ώρα ως προαίσθημα και δεν προσπαθούσα να παραπλανήσω, συνήθως θα λέγαμε ότι σας είχα παραπληροφορήσει. Είχα μεταφέρει παραπληροφόρηση. Ίσως ήμουν τεμπέλης ή ίσως πίστευα πραγματικά ότι ήταν 10 η ώρα. Από την άλλη, αν είχα αναφέρει το 10:10 επειδή σκόπιμα ήθελα να σας εξαπατήσω ώστε να πιστεύετε ότι η ώρα ήταν XNUMX:XNUMX και ότι ήξερα ότι η ώρα ήταν πραγματικά μεσάνυχτα, αυτό θα μπορούσαμε να πούμε ότι είναι μια μορφή παραπληροφόρησης. .

Μια αξιοσημείωτη πτυχή της γενικής πληροφόρησης είναι ότι συνήθως είμαστε σε θέση να διαδίδουμε πληροφορίες και έτσι οι πληροφορίες μπορούν να γίνουν κάπως διαδεδομένες. Οι πληροφορίες μπορούν πραγματικά να ρέουν σαν νερό, με την ευρεία έννοια.

Σας λέω ότι είναι 10 η ώρα το βράδυ. Τώρα έχετε τη συγκεκριμένη πληροφορία. Μπορεί να φωνάξετε δυνατά σε μια ομάδα κοντινών ανθρώπων ότι είναι 10 η ώρα το βράδυ. Τώρα έχουν επίσης τις ίδιες πληροφορίες. Ίσως κάποιοι από αυτούς τους ανθρώπους μπαίνουν στα κινητά τους τηλέφωνα και τηλεφωνούν σε άλλους για να τους πουν ότι είναι 10 η ώρα. Συνολικά, οι πληροφορίες μπορούν να διαδοθούν ή να κοινοποιηθούν και μερικές φορές να γίνονται τόσο γρήγορα ενώ σε άλλες περιπτώσεις γίνονται τόσο αργά.

Κατά μία έννοια, θα μπορούσατε να ισχυριστείτε ότι οι πληροφορίες μπορούν να γίνουν viral.

Υπάρχει μια επινοημένη λέξη ή ορολογία που μπορεί να μην έχετε δει ή χρησιμοποιήσει ιδιαίτερα, η οποία βοηθά στην περιγραφή αυτού του φαινομένου των πληροφοριών που γίνονται viral, η λέξη είναι πληροφορική. Αυτή η λέξη είναι ένας συνδυασμός πληροφοριών και επιδημίας. Σε γενικές γραμμές, μια infodemic συνδέεται με περιστάσεις που περιλαμβάνουν τη διάδοση παραπληροφόρησης ή παραπληροφόρησης. Η ιδέα είναι ότι οι ψευδείς ή παραπλανητικές πληροφορίες μπορούν να γίνουν ιογενείς, ανεπιθύμητα, παρόμοια με την ανεπιθύμητη εξάπλωση ασθενειών ή ασθενειών.

Στο παράδειγμα για την ώρα 10 το βράδυ, αυτό το φαινομενικό γεγονός ήταν μια πληροφορία που διαδόθηκε στην κοντινή ομάδα ανθρώπων. Αυτοί με τη σειρά τους διέδωσαν το γεγονός σε άλλους. Αν το 10ωρο ήταν πλαστό, τότε αυτό το συγκεκριμένο περιστατικό παραπληροφόρησης ή παραπληροφόρησης διαδόθηκε σε πολλούς άλλους. Μπορεί να μην γνωρίζουν ότι οι πληροφορίες ήταν παραπληροφόρηση ή πιθανώς παραπληροφόρηση.

Πιστεύω ότι όλοι αυτοί οι ορισμοί και τα θεμελιώδη στοιχεία φαίνονται λογικά και ότι είστε ενωμένοι μέχρι στιγμής.

Τέλεια, ας συνεχίσουμε.

Σε οδήγησα κάπως κρυφά σε κάτι που καταλαμβάνει μεγάλη γοητεία και επίσης άγχος. Η ουσία είναι ότι υπάρχουν αναμφισβήτητα εύλογες παραλληλισμοί μεταξύ του τι κάνουν οι ασθένειες ιογενώς και τι κάνει η παραπληροφόρηση ή η παραπληροφόρηση ιογενώς.

Δεν συμφωνούν όλοι με αυτούς τους ισχυριζόμενους παραλληλισμούς. Ωστόσο, είναι ενδιαφέροντα και άξια προσοχής.

Επιτρέψτε μου να επεξεργαστώ.

Βλέπετε, μπορούμε να προσπαθήσουμε να αξιοποιήσουμε την εύχρηστη αναλογία της αναφοράς σε ανθρωπογενείς ασθένειες και ασθένειες που εξαπλώνονται, κάνοντάς το να συγκρίνουμε μια παρόμοια πιθανότητα με τη διάδοση παραπληροφόρησης και παραπληροφόρησης. Για να προσπαθήσουμε να σταματήσουμε την εξάπλωση των ασθενειών, μπορούμε να στοχεύσουμε στον έγκαιρο εντοπισμό και να επιδιώξουμε να περιορίσουμε μια αναδυόμενη πηγή ασθένειας, το οποίο μπορεί να εξαπλωθεί. Μια άλλη προσέγγιση για την αντιμετώπιση μιας ασθένειας που εξαπλώνεται θα ήταν να προφυλαχτούμε από τη μόλυνση μέσω της συνετής χρήσης της χρήσης μάσκας ή προστατευτικού εξοπλισμού. Μια τρίτη προσέγγιση θα μπορούσε να συνίσταται στη λήψη εμβολιασμών για να προσπαθήσετε να χτίσετε την ανοσία σας που σχετίζεται με τη νόσο.

Έχουμε κλείσει τώρα τον κύκλο στο ότι αυτές οι ίδιες προσεγγίσεις για την αντιμετώπιση ασθενειών μπορούν ρητά να παρομοιαστούν με την αντιμετώπιση της παραπληροφόρησης και της παραπληροφόρησης. Ανέφερα νωρίτερα ότι γίνονται παρόμοιες προσπάθειες για τη χρήση της Τεχνητής Νοημοσύνης για σκοπούς αντιμετώπισης της παραπληροφόρησης και της παραπληροφόρησης, ιδίως (όπως αναφέρθηκε προηγουμένως):

  • Σταματήστε στο The Get-Go: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για την ανίχνευση και την προσπάθεια εξάλειψης της παραπληροφόρησης και της παραπληροφόρησης προτού διαλυθεί
  • Φιλτράρισμα πριν την προβολή: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να φιλτράρει παραπληροφόρηση και παραπληροφόρηση, ώστε να μην χρειάζεται να ανησυχείτε μήπως τη δείτε
  • Προετοιμαστείτε να έχετε ανοσία: Η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για να ενισχύσει την ετοιμότητα και την ικανότητά σας να αντιμετωπίσετε την παραπληροφόρηση και την παραπληροφόρηση (γνωστή κάπως επίσημα ως παροχή ενός είδους ψυχολογικού εμβολιασμού)
  • ΑΛΛΑ

Η τρίτη πτυχή θα έχει το μεγαλύτερο ενδιαφέρον εδώ.

Εδώ είναι η συμφωνία.

Γνωρίζουμε ότι οι ασθένειες συνήθως χτυπούν το ανθρώπινο σώμα. Με την αναλογία του τρόπου με τον οποίο εμφανίζεται η παραπληροφόρηση και η παραπληροφόρηση, θα μπορούσαμε να προτείνουμε ότι οι ανόητες πληροφορίες χτυπούν ανθρώπινο μυαλό. Ναι, πιθανότατα μπορείτε να έρθετε σε επαφή με παραπληροφόρηση ή παραπληροφόρηση που ρέει στο μυαλό σας. Η παραπληροφόρηση ή η παραπληροφόρηση δυνητικά διαφθείρει ή δηλητηριάζει τον τρόπο σκέψης σας.

Ένα ανθρώπινο σώμα μπορεί να εμβολιαστεί για να προσπαθήσει να προετοιμαστεί για να έρθει σε επαφή με ασθένειες. Ένα μεγάλο ερώτημα τίθεται για το αν μπορούμε να κάνουμε το ίδιο για το ανθρώπινο μυαλό. Είναι δυνατόν να προσπαθήσετε να ενοφθαλμίσετε το μυαλό έτσι ώστε όταν έρχεται στο μυαλό σας παραπληροφόρηση ή παραπληροφόρηση ότι είστε έτοιμοι για αυτό και έχετε εμβολιαστεί ανάλογα;

Ένα πεδίο σπουδών γνωστό ως ψυχολογικός εμβολιασμός υποστηρίζει ότι το μυαλό μπορεί πράγματι να εμβολιαστεί με την έννοια ότι είναι έτοιμο να χειριστεί την παραπληροφόρηση ή την παραπληροφόρηση.

Εξετάστε αυτήν την περιγραφή σε μια πρόσφατη ερευνητική μελέτη σχετικά με τον ψυχολογικό ενοφθαλμισμό και αυτό που μερικές φορές χαρακτηρίζεται ότι κάνει prebunking:

  • «Η απομυθοποίηση της παραπληροφόρησης είναι επίσης προβληματική, επειδή η διόρθωση της παραπληροφόρησης δεν ακυρώνει πάντα εντελώς τα αποτελέσματά της, ένα φαινόμενο που είναι γνωστό ως το φαινόμενο συνεχούς επιρροής. Ως εκ τούτου, σε αντίθεση με την απομυθοποίηση, το prebunking έχει κερδίσει εξέχουσα θέση ως μέσο για την προληπτική οικοδόμηση ανθεκτικότητας έναντι της αναμενόμενης έκθεσης στην παραπληροφόρηση. Αυτή η προσέγγιση βασίζεται συνήθως στη θεωρία του εμβολιασμού. Η θεωρία του εμβολιασμού ακολουθεί μια αναλογία ιατρικής ανοσοποίησης και υποστηρίζει ότι είναι δυνατό να δημιουργηθεί ψυχολογική αντίσταση ενάντια σε ανεπιθύμητες απόπειρες πειθούς, όπως οι ιατρικοί εμβολιασμοί οικοδομούν φυσιολογική αντίσταση ενάντια σε παθογόνα.Προκαταβολές Επιστήμη, 24 Αυγούστου 2022, «Ο ψυχολογικός εμβολιασμός βελτιώνει την ανθεκτικότητα ενάντια στην παραπληροφόρηση στα μέσα κοινωνικής δικτύωσης» από τους συν-συγγραφείς Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje και Stephan Lewandowsky).

Επιστρέφοντας στο παράδειγμά μου σχετικά με την ώρα είναι 10 η ώρα το βράδυ, ας υποθέσουμε ότι σας είχα πει προηγουμένως ότι μερικές φορές η ώρα που διεκδικείτε δεν είναι η πραγματική ώρα. Στο εξής έχετε μια μορφή εμβολιασμού για να είστε επιφυλακτικοί με τους ισχυριζόμενους χρόνους. Αυτός ο εμβολιασμός σας έχει προετοιμάσει για να έρθετε σε επαφή με ισχυρισμούς χρόνους που είναι παραπληροφόρηση ή παραπληροφόρηση.

Αν σας είχα προειδοποιήσει πριν από αρκετά χρόνια ότι οι ώρες που διεκδικείτε δεν είναι πραγματικές ώρες, υπάρχει περίπτωση να μην σκεφτείτε αυτήν την προειδοποίηση πριν από πολύ καιρό. Έτσι, ο παλαιότερος εμβολιασμός έχει (λέμε) φθαρεί. Ο εμβολιασμός μου για εσάς ίσως χρειαστεί να ενισχυθεί.

Υπάρχει επίσης μια πιθανότητα ο εμβολιασμός να μην ήταν αρκετά συγκεκριμένος για να το χρησιμοποιήσετε όταν χρειάζεται. Αν σας είχα προειδοποιήσει πριν από χρόνια για τους χρόνους που διεκδικείτε σε σχέση με τους πραγματικούς χρόνους, αυτό μπορεί να ήταν υπερβολικά ευρύ. Ο εμβολιασμός μπορεί να μην λειτουργήσει στη συγκεκριμένη περίπτωση που σας είπαν για τις 10:10. Υπό αυτή την έννοια, ίσως ο εμβολιασμός μου θα έπρεπε να ήταν ότι θα έπρεπε να είστε επιφυλακτικοί όταν χρησιμοποιείται μια διεκδικούμενη ώρα XNUMX η ώρα. Φυσικά, οι εμβολιασμοί στην περίπτωση ασθενειών είναι κάπως οι ίδιοι, μερικές φορές είναι πολύ συγκεκριμένοι για γνωστές παθήσεις ενώ σε άλλες περιπτώσεις είναι ένα ευρύ φάσμα.

Μια συχνά αναφερόμενη ερευνητική μελέτη που έγινε το 1961 σχετικά με τον ψυχολογικό ενοφθαλμισμό από τον William McGuire του Πανεπιστημίου Columbia θεωρείται γενικά πλέον κλασική σε αυτόν τον τομέα μελέτης. Μπορεί να βρείτε ενδιαφέροντα αυτά τα βασικά σημεία που έκανε εκείνη την εποχή:

  • «Τέτοια γενικευμένη ανοσοποίηση θα μπορούσε να προέλθει από έναν από τους δύο μηχανισμούς. Η προέκθεση μπορεί να σοκάρει το άτομο να συνειδητοποιήσει ότι οι «αληθινοί» που πάντα αποδεχόταν είναι όντως ευάλωτοι, προκαλώντας το να αναπτύξει μια υπεράσπιση των πεποιθήσεών του, με αποτέλεσμα να είναι πιο ανθεκτικό στα ισχυρά αντεπιχειρήματα όταν έρχονται. Εναλλακτικά, οι διαψεύσεις που εμπλέκονται στην προέκθεση μπορεί να κάνουν όλα τα αντεπιχειρήματα που παρουσιάστηκαν στη συνέχεια ενάντια στην πεποίθηση να φαίνονται λιγότερο εντυπωσιακά» (William McGuire, «Resistance To Persuasion Conferred By Active And Passive Prior Refutation Of The Same And Alternative Counterarguments», Journal of Abnormal and Κοινωνική Ψυχολογία, 1961).

Θεωρείτε ότι αυτή η αναλογία εμβολιασμών και ανοσοποιήσεων είναι χρήσιμη και εύστοχη σύγκριση με τη σφαίρα της παραπληροφόρησης και της παραπληροφόρησης;

Κάποιοι το κάνουν, κάποιοι όχι.

Για τους σκοπούς αυτής της συζήτησης, αποδεχτείτε ότι η υπόθεση είναι λογική και κατάλληλη.

Πώς μπορούμε να προσπαθήσουμε να εμβολιάσουμε ή να ανοσοποιήσουμε το μυαλό των ανθρώπων;

Θα μπορούσαμε να κάνουμε τους ανθρώπους να διαβάσουν βιβλία που θα μπορούσαν να φωτίσουν το μυαλό τους. Μπορεί να τους το πούμε ή να τους ζητήσουμε να δουν βίντεο ή να ακούσουν κασέτες ήχου. Και τα λοιπά.

Και μπορεί να χρησιμοποιήσουμε την τεχνητή νοημοσύνη για να κάνουμε το ίδιο.

Ένα σύστημα AI μπορεί να επινοηθεί για να είναι ο εμβολιαστής σας. Κάθε φορά που ξεκινάτε να συνδέεστε στο Διαδίκτυο, όπως κοιτάζοντας το Διαδίκτυο, μια εφαρμογή που βασίζεται σε AI μπορεί να σας προετοιμάσει για το διαδικτυακό σας ταξίδι. Το AI μπορεί να σας τροφοδοτήσει μια μικρή ποσότητα παραπληροφόρησης που χαρακτηρίζεται ως τέτοια, επιτρέποντάς σας να συνειδητοποιήσετε ότι πρόκειται να δείτε κάτι που είναι εσκεμμένα ψευδές.

Μετά την έκθεση σε αυτήν την παραπληροφόρηση που τροφοδοτείται από AI, το μυαλό σας προετοιμάζεται τώρα για να αντιμετωπίσει την παραπληροφόρηση ή την παραπληροφόρηση που μπορεί να συναντήσετε στη φύση στο Διαδίκτυο. Το μυαλό σας έχει ετοιμαστεί. Voila, βλέπετε ένα blog στο Διαδίκτυο που υποστηρίζει ότι τα εξωγήινα πλάσματα από τον Άρη είναι ήδη εδώ στη γη και κρύβονται σε κοινή θέα, αλλά αυτή η φαινομενική παραπληροφόρηση ή παραπληροφόρηση απορρίπτεται εύκολα από το μυαλό σας λόγω του προηγούμενου εμβολιασμού (καλά, και πάλι, ίσως είναι αλήθεια και είναι πραγματικά εδώ!).

Τέλος πάντων, ελπίζω να είστε σε θέση να διακρίνετε τώρα πώς η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει στον εμβολιασμό ή την ανοσοποίηση των ανθρώπων σε σχέση με την παραπληροφόρηση ή την παραπληροφόρηση.

Επινοούνται διάφορες εφαρμογές τεχνητής νοημοσύνης που θα λειτουργούν ως εμβολιασμοί παραπληροφόρησης ή παραπληροφόρησης. Η τεχνητή νοημοσύνη μπορεί να επιδιώξει να παρέχει εμβόλιο που να είναι ευρύς και να παρέχει μια συνολική εμφάνιση ανοσοποίησης. Η τεχνητή νοημοσύνη θα μπορούσε επίσης να επινοηθεί για πιο συγκεκριμένες μορφές εμβολιασμού. Επιπλέον, το AI μπορεί να λειτουργήσει σε εξατομικευμένη βάση που είναι προσαρμοσμένη στις ιδιαίτερες ανάγκες ή τα ενδιαφέροντά σας. Η προηγμένη τεχνητή νοημοσύνη σε αυτόν τον χώρο θα προσπαθήσει επίσης να προσδιορίσει το επίπεδο ανοχής, το ποσοστό διανοητικής απορρόφησης, την ικανότητα συγκράτησης και άλλους παράγοντες κατά τη σύνθεση και την παρουσίαση των λεγόμενων εμβολιασμών.

Φαίνεται αρκετά βολικό.

Το AI ως επικίνδυνος παίκτης παιχνιδιών μυαλού

Η τεχνητή νοημοσύνη που χρησιμοποιείται με αυτόν τον τρόπο θα φαινόταν εκ πρώτης όψεως αρκετά βολική (ρε, το ανέφερα μόλις πριν από ένα δευτερόλεπτο).

Υπάρχει μια σειρά από πιθανά μειονεκτήματα και προβλήματα που είναι ανησυχητικά και ίσως τρομακτικά.

Στις στήλες μου, συζητώ συχνά τις δυνατότητες διπλής χρήσης του AI, βλ. για παράδειγμα ο σύνδεσμος εδώ. Η τεχνητή νοημοσύνη μπορεί να συνεισφέρει ζωτικά στην ανθρωπότητα. Δυστυχώς, η τεχνητή νοημοσύνη είναι επίσης επιβαρυμένη από πολλούς κινδύνους και ατυχείς παγίδες.

Για την περίπτωση της τεχνητής νοημοσύνης ως εμβολέα, ας εξετάσουμε αυτά τα αποδεικτικά ζητήματα που σχετίζονται με την ηθική της τεχνητής νοημοσύνης:

  • Ανεπιθύμητες ενέργειες από τον άνθρωπο
  • Αντιδράσεις που δεν ανταποκρίνονται από τον άνθρωπο
  • Λανθασμένη στόχευση AI
  • Υποστόχευση AI
  • Κυβερνοπαραβίαση της AI
  • ΑΛΛΑ

Θα διερευνήσουμε εν συντομία αυτές τις ανησυχίες.

Ανεπιθύμητες αντιδράσεις από τον άνθρωπο

Ας υποθέσουμε ότι ένας άνθρωπος που λαμβάνει αυτού του είδους τον ενοφθαλμισμό με βάση το AI έχει μια ανεπιθύμητη αντίδραση ή προκαλεί μια αρνητική επίδραση.

Το άτομο μπορεί να παρερμηνεύσει την ανοσοποίηση και ξαφνικά να γίνει μη δεκτικό σε οποιαδήποτε πληροφορία λαμβάνει. Μπλοκάρουν όλες τις πληροφορίες. Η τεχνητή νοημοσύνη κατά κάποιο τρόπο τους ώθησε να πετάξουν το μωρό με το νερό του μπάνιου (ένα παλιό ρητό, ίσως αξίζει να αποσυρθεί). Αντί να προσπαθεί απλώς να αντιμετωπίσει την παραπληροφόρηση και την παραπληροφόρηση, το άτομο έχει αντιδράσει αποφασίζοντας ότι όλες οι πληροφορίες είναι πάντα ψευδείς.

Δεν νομίζω ότι θέλουμε οι άνθρωποι να υπερβαίνουν τόσο πολύ.

Υπάρχει μια πληθώρα ανεπιθύμητων ενεργειών που μπορεί να προκαλέσει η τεχνητή νοημοσύνη. Αυτό οφείλεται εν μέρει στον τρόπο με τον οποίο η τεχνητή νοημοσύνη προσπάθησε να πραγματοποιήσει τον εμβολιασμό, αλλά επίσης πρέπει να βάλουμε μέρος του ζητήματος στα πόδια του ανθρώπου που έλαβε τον εμβολιασμό. Μπορεί να αντέδρασαν με άγριους ή περίεργους τρόπους που άλλοι που έλαβαν τον ίδιο ενοφθαλμισμό AI δεν το έκαναν.

Και πάλι, μπορείτε να το παρομοιάσετε με την αναλογία των εμβολιασμών για ασθένειες.

Εν ολίγοις, θα είναι σημαντικό όταν χρησιμοποιούνται τέτοιες προσπάθειες τεχνητής νοημοσύνης, να γίνονται με υπεύθυνους τρόπους που επιδιώκουν να ελαχιστοποιήσουν τις αρνητικές επιπτώσεις. Θα πρέπει επίσης να υπάρχει μια επακόλουθη πτυχή της τεχνητής νοημοσύνης για να προσπαθήσουμε να εξακριβώσουμε εάν έχει εμφανιστεί ανεπιθύμητη ενέργεια. Εάν εντοπιστεί ανεπιθύμητη ενέργεια, η τεχνητή νοημοσύνη θα πρέπει να επινοηθεί για να προσπαθήσει να βοηθήσει το άτομο στην ανεπιθύμητη απόκρισή του και να επιδιώξει να ξεπεράσει ή να μετριάσει την απόκριση.

Μη ανταποκρινόμενες αντιδράσεις από ανθρώπους

Μια άλλη πιθανότητα είναι ότι ο εμβολιασμός που τροφοδοτείται με AI δεν έχει καμία επίδραση στο άτομο που δέχεται.

Ένα άτομο λαμβάνει έναν εμβολιασμό που βασίζεται σε AI που σχετίζεται με παραπληροφόρηση ή παραπληροφόρηση. Ενώ οι περισσότεροι άνθρωποι «το παίρνουν» και ανοσοποιούνται, σίγουρα θα υπάρχουν άνθρωποι που δεν θα αντιδράσουν καθόλου. Δεν μαθαίνουν τίποτα από τον εμβολιασμό. Δεν ανταποκρίνονται στην προσπάθεια AI να τους ανοσοποιήσει είτε για όλους είτε για ορισμένους τύπους παραπληροφόρησης ή παραπληροφόρησης.

Για άλλη μια φορά, αυτό είναι συγκρίσιμο με τους εμβολιασμούς για ασθένειες.

Η τεχνητή νοημοσύνη θα έπρεπε να επινοηθεί για να αντιμετωπίσει μια τέτοια περίσταση.

AI Mistargeting

Φανταστείτε ότι μια τεχνητή νοημοσύνη ελπίζει να ανοσοποιήσει τους ανθρώπους σχετικά με ένα συγκεκριμένο θέμα που θα πούμε ότι είναι το θέμα Χ, αλλά αποδεικνύεται ότι το θέμα Υ αντ' αυτού καλύπτεται. Η τεχνητή νοημοσύνη στοχεύει εσφαλμένα.

Αυτό είναι ένα διπλό πρόβλημα. Πρώτον, το θέμα Χ δεν καλύφθηκε τότε ως ο υποτιθέμενος και επιθυμητός σκοπός του εμβολιαστή AI. Δεύτερον, το θέμα Υ καλύπτεται, αλλά μπορεί να μην θέλαμε να εμβολιαστούν οι άνθρωποι σε αυτό το θέμα.

Ωχ.

Οι ερωτήσεις είναι πολλές. Θα μπορούσε να είχε αποτραπεί αυτό; Αν συμβεί, μπορούμε να αναιρέσουμε το θέμα της ανοσοποίησης Υ; Μπορούμε να επιδιώξουμε να καλύψουμε το θέμα Χ εμβολιασμός ή το άτομο θα είναι λιγότερο δεκτικό ή μη δεκτικό λόγω της λανθασμένης στόχευσης από την τεχνητή νοημοσύνη αρχικά;

Προκύπτουν πολλές προβληματικές ανησυχίες.

Υποστόχευση AI

Ένα AI παρέχει έναν εμβολιασμό στο θέμα Z. Τα άτομα που λαμβάνουν τον εμβολιασμό φαίνεται να έχουν ελάχιστη ή σχεδόν αμελητέα αντίδραση. Ο εμβολιασμός ήταν ανεπαρκής για να κρατηθεί.

Μπορεί να μπείτε στον πειρασμό να ισχυριστείτε γρήγορα ότι αυτό επιλύεται εύκολα. Το μόνο που έχετε να κάνετε είναι να επαναλάβετε τον εμβολιασμό. Ισως ναι ίσως όχι.

Ο εμβολιασμός με τεχνητή νοημοσύνη μπορεί να είναι τόσο περιορισμένης αξίας που ανεξάρτητα από το αν έχετε ανθρώπους να τον βιώσουν εκατό φορές, το αποτέλεσμα εξακολουθεί να είναι ένα οριακό αποτέλεσμα. Ίσως χρειαστεί να ενισχύσετε τον εμβολιασμό αντί απλώς να τον επαναλάβετε.

Εν τω μεταξύ, φανταστείτε ότι γίνεται μια προσπάθεια ενίσχυσης του εμβολιασμού που τροφοδοτείται με AI, αλλά αυτό υπερβαίνει τα όρια. Η ενισχυμένη έκδοση προκαλεί υπερ-αντιδράσεις. Ναι, έχουμε έρθει από το κακό στο χειρότερο.

Κυβερνοπαραβίαση του AI

Οραματιστείτε ότι η τεχνητή νοημοσύνη χρησιμοποιείται εκτενώς για να βοηθήσει τους ανθρώπους να εμβολιαστούν από την παραπληροφόρηση και την παραπληροφόρηση.

Μια γενική εξάρτηση κυριαρχεί από τους ανθρώπους. Γνωρίζουν και αναμένουν ότι η τεχνητή νοημοσύνη θα τους παρουσιάσει αποσπάσματα που θα τους ανοίξουν τα μάτια σε αυτό που είναι γνωστό ως παραπληροφόρηση και παραπληροφόρηση.

Όλα καλά και καλά, φαίνεται.

Ένας κακοποιός είναι κατά κάποιο τρόπο ικανός να κάνει μια παραβίαση στον κυβερνοχώρο στο AI. Επιβάλλουν κρυφά στο AI κάποια επιθυμητή παραπληροφόρηση που θέλουν οι άνθρωποι να πιστεύουν ότι δεν είναι παραπληροφόρηση. Η τεχνητή νοημοσύνη έχει ρυθμιστεί έτσι ώστε η πραγματική παραπληροφόρηση να φαίνεται ως αληθινή πληροφορία. Επίσης, οι αληθινές πληροφορίες φαίνονται ως παραπληροφόρηση.

Ο κόσμος είναι εντελώς σνούκερ. Παραπληροφορούνται από την ΑΙ. Επιπλέον, επειδή είχαν εξαρτηθεί από την τεχνητή νοημοσύνη και λόγω της εμπιστοσύνης τους ότι η τεχνητή νοημοσύνη έκανε το σωστό, πέφτουν αγκίστρια, πετονιές και βυθίζονται για αυτό το παραβιασμένο AI. Χωρίς δισταγμό.

Δεδομένου του πόσο εύκολα μπορεί να εξαπλωθεί περαιτέρω η παραπληροφόρηση, ο κακός μπορεί να απολαμβάνει ότι η ύπαρξη αυτού του είδους AI είναι ο ευκολότερος και ταχύτερος τρόπος για να κάνουν τα ύπουλα ψέματά τους να κάνουν τον γύρο του κόσμου. Κατά ειρωνικό τρόπο, φυσικά, έχοντας αξιοποιήσει τον εμβολιαστή AI για να εξαπλώσει ουσιαστικά την ασθένεια.

Συμπέρασμα

Θα έπρεπε η τεχνητή νοημοσύνη να παίζει παιχνίδια μυαλού μαζί μας;

Μπορεί η τεχνητή νοημοσύνη για παραπληροφόρηση και παραπληροφόρηση να είναι ένας απειλητικός Δούρειος ίππος;

Μπορείτε να κάνετε μια ουσιαστική υπόθεση για να ανησυχείτε για έναν τέτοιο εφιάλτη.

Άλλοι χλευάζουν μια τέτοια πιθανότητα. Οι άνθρωποι είναι αρκετά έξυπνοι για να γνωρίζουν πότε η τεχνητή νοημοσύνη προσπαθεί να τους ξεγελάσει. Ο κόσμος δεν θα πέσει σε τέτοια ντρίμπλα. Μόνο οι ηλίθιοι θα παραπλανηθούν από μια τέτοια τεχνητή νοημοσύνη. Αυτές είναι οι συνήθεις ανταπαντήσεις και αντεπιχειρήματα.

Μη θέλοντας να φανώ λιγότερο από τον θαυμασμό του ανθρώπου και της ανθρώπινης φύσης, θα πρότεινα απλώς ότι υπάρχουν άφθονες ενδείξεις ότι οι άνθρωποι θα μπορούσαν να υποκύψουν στην τεχνητή νοημοσύνη που τους παραπλανεί.

Υπάρχει ένα ακόμη μεγαλύτερο ζήτημα που ίσως φαίνεται πάνω από όλα αυτά.

Ποιος φτιάχνει το AI και πώς το AI αποφασίζει αλγοριθμικά τι θεωρείται παραπληροφόρηση και παραπληροφόρηση;

Μια ολόκληρη μάχη πυρκαγιάς λαμβάνει χώρα σήμερα στον κόσμο γενικότερα σχετικά με το τι συνιστά συγκεκριμένα παραπληροφόρηση και παραπληροφόρηση. Μερικοί ισχυρίζονται ότι τα γεγονότα είναι γεγονότα, επομένως δεν μπορεί ποτέ να υπάρξει σύγχυση σχετικά με το τι είναι η σωστή και η ακατάλληλη πληροφορία. Ο διάβολος, αν και μερικές φορές βρίσκεται στις λεπτομέρειες, αυτό είναι σίγουρα.

Μια τελευταία παρατήρηση προς το παρόν. Ο Αβραάμ Λίνκολν δήλωσε περίφημα: «Μπορείς να κοροϊδεύεις όλους τους ανθρώπους μερικές φορές και κάποιους από τους ανθρώπους όλη την ώρα, αλλά δεν μπορείς να κοροϊδεύεις όλους τους ανθρώπους όλη την ώρα».

Θα είναι η τεχνητή νοημοσύνη που χρησιμοποιείται για την υποβοήθηση του ενοφθαλμισμού της ανθρωπότητας από την παραπληροφόρηση και την παραπληροφόρηση ένα ζωτικό εργαλείο για να διασφαλιστεί ότι δεν θα μπορούν να εξαπατηθούν συνεχώς όλοι οι άνθρωποι; Ή μήπως μπορεί να χρησιμοποιηθεί για να ξεγελάσει περισσότερους ανθρώπους τις περισσότερες φορές;

Ο χρόνος θα δείξει.

Και αυτό σίγουρα δεν είναι παραπληροφόρηση ή παραπληροφόρηση.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/