Οι χρήστες του AI Assistant θα μπορούσαν να αναπτύξουν μια «συναισθηματική προσκόλληση» σε αυτούς, προειδοποιεί η Google

Οι εικονικοί προσωπικοί βοηθοί που τροφοδοτούνται από τεχνητή νοημοσύνη γίνονται πανταχού παρόντες σε τεχνολογικές πλατφόρμες, με κάθε μεγάλη εταιρεία τεχνολογίας να προσθέτει τεχνητή νοημοσύνη στις υπηρεσίες της και δεκάδες εξειδικευμένες υπηρεσίες να πέφτουν στην αγορά. Αν και είναι εξαιρετικά χρήσιμοι, οι ερευνητές της Google λένε ότι οι άνθρωποι θα μπορούσαν να δεσμευτούν πολύ συναισθηματικά μαζί τους, οδηγώντας σε μια σειρά από αρνητικές κοινωνικές συνέπειες.

Μια νέα ερευνητική εργασία από το ερευνητικό εργαστήριο DeepMind AI της Google υπογραμμίζει τα πιθανά οφέλη των προηγμένων, εξατομικευμένων βοηθών τεχνητής νοημοσύνης για να μεταμορφώσουν διάφορες πτυχές της κοινωνίας, λέγοντας ότι «θα μπορούσαν να αλλάξουν ριζικά τη φύση της εργασίας, της εκπαίδευσης και των δημιουργικών αναζητήσεων, καθώς και τον τρόπο επικοινωνίας μας. συντονιστείτε και διαπραγματευτείτε ο ένας με τον άλλον, επηρεάζοντας τελικά ποιοι θέλουμε να είμαστε και να γίνουμε».

Αυτός ο μεγάλος αντίκτυπος, φυσικά, θα μπορούσε να είναι ένα δίκοπο μαχαίρι εάν η ανάπτυξη της τεχνητής νοημοσύνης συνεχίσει να επιταχύνεται χωρίς προσεκτικό σχεδιασμό.

Ένας βασικός κίνδυνος; Ο σχηματισμός ακατάλληλων στενών δεσμών — οι οποίοι θα μπορούσαν να επιδεινωθούν εάν ο βοηθός παρουσιαστεί με μια ανθρώπινη παράσταση ή πρόσωπο. «Αυτοί οι τεχνητοί πράκτορες μπορεί ακόμη και να δηλώνουν την υποτιθέμενη πλατωνική ή ρομαντική τους στοργή για τον χρήστη, θέτοντας τα θεμέλια για τους χρήστες να σχηματίσουν μακροχρόνιες συναισθηματικές προσκολλήσεις με την τεχνητή νοημοσύνη», λέει η εφημερίδα.

Αν αφεθεί ανεξέλεγκτη, μια τέτοια προσκόλληση θα μπορούσε να οδηγήσει σε απώλεια της αυτονομίας του χρήστη και απώλεια κοινωνικών δεσμών, επειδή η τεχνητή νοημοσύνη θα μπορούσε να αντικαταστήσει την ανθρώπινη αλληλεπίδραση.

Αυτός ο κίνδυνος δεν είναι καθαρά θεωρητικός. Ακόμη και όταν η τεχνητή νοημοσύνη βρισκόταν σε μια κάπως πρωτόγονη κατάσταση, ένα chatbot με τεχνητή νοημοσύνη είχε αρκετή επιρροή ώστε να πείσει έναν χρήστη να αυτοκτονήσει μετά από μια μακρά συνομιλία το 2023. Πριν από οκτώ χρόνια, μια βοηθός ηλεκτρονικού ταχυδρομείου με τεχνητή νοημοσύνη ονόματι «Amy Ingram» ήταν αρκετά ρεαλιστής για να προτρέπουν ορισμένους χρήστες να στείλουν σημειώσεις αγάπης και ακόμη και να επιχειρήσουν να την επισκεφτούν στη δουλειά.

Ο Iason Gabriel, ερευνητής στην ερευνητική ομάδα δεοντολογίας του DeepMind και συν-συγγραφέας της εργασίας, δεν απάντησε Αποκρυπτογράφηση αίτημα για σχόλιο.

Σε ένα tweet, ωστόσο, ο Garbriel προειδοποίησε ότι «ολοένα και πιο προσωπικές και ανθρωπομορφικές μορφές βοηθού εισάγουν νέα ερωτήματα γύρω από τον ανθρωπομορφισμό, την ιδιωτικότητα, την εμπιστοσύνη και τις κατάλληλες σχέσεις με την τεχνητή νοημοσύνη».

Επειδή «εκατομμύρια βοηθοί τεχνητής νοημοσύνης θα μπορούσαν να αναπτυχθούν σε κοινωνικό επίπεδο όπου θα αλληλεπιδρούν μεταξύ τους και με μη χρήστες», ο Γκάμπριελ είπε ότι πιστεύει στην ανάγκη για περισσότερες διασφαλίσεις και μια πιο ολιστική προσέγγιση σε αυτό το νέο κοινωνικό φαινόμενο.

Το ερευνητικό έγγραφο συζητά επίσης τη σημασία της ευθυγράμμισης αξίας, της ασφάλειας και της κακής χρήσης στην ανάπτυξη βοηθών AI. Παρόλο που οι βοηθοί τεχνητής νοημοσύνης θα μπορούσαν να βοηθήσουν τους χρήστες να βελτιώσουν την ευημερία τους, να ενισχύσουν τη δημιουργικότητά τους και να βελτιστοποιήσουν τον χρόνο τους, οι συγγραφείς προειδοποίησαν για πρόσθετους κινδύνους όπως κακή ευθυγράμμιση με τα συμφέροντα των χρηστών και της κοινωνίας, την επιβολή αξιών σε άλλους, τη χρήση για κακόβουλους σκοπούς και την ευπάθεια. σε αντίπαλες επιθέσεις.

Για την αντιμετώπιση αυτών των κινδύνων, η ομάδα του DeepMind συνιστά την ανάπτυξη ολοκληρωμένων αξιολογήσεων για βοηθούς τεχνητής νοημοσύνης και την επιτάχυνση της ανάπτυξης κοινωνικά επωφελών βοηθών τεχνητής νοημοσύνης.

«Αυτή τη στιγμή βρισκόμαστε στην αρχή αυτής της εποχής τεχνολογικών και κοινωνικών αλλαγών. Επομένως, έχουμε ένα παράθυρο ευκαιρίας να δράσουμε τώρα —ως προγραμματιστές, ερευνητές, υπεύθυνοι χάραξης πολιτικής και δημόσιοι φορείς— για να διαμορφώσουμε το είδος των βοηθών τεχνητής νοημοσύνης που θέλουμε να δούμε στον κόσμο».

Η κακή ευθυγράμμιση της τεχνητής νοημοσύνης μπορεί να μετριαστεί μέσω της Ενισχυτικής μάθησης μέσω ανθρώπινης ανατροφοδότησης (RLHF), η οποία χρησιμοποιείται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης. Ειδικοί όπως ο Paul Christiano, ο οποίος διηύθυνε την ομάδα ευθυγράμμισης γλωσσικών μοντέλων στο OpenAI και τώρα ηγείται του μη κερδοσκοπικού Κέντρου Ερευνών Alignment, προειδοποιούν ότι η ακατάλληλη διαχείριση των μεθόδων εκπαίδευσης AI μπορεί να καταλήξει σε καταστροφή.

«Νομίζω ότι ίσως υπάρχει περίπου 10-20% πιθανότητα εξαγοράς της τεχνητής νοημοσύνης, [με] πολλούς [ή] ανθρώπους νεκρούς», είπε ο Paul Christiano στο podcast του Bankless πέρυσι. «Το παίρνω πολύ σοβαρά».

Επιμέλεια Ryan Ozawa.

Μείνετε ενημερωμένοι για τα νέα κρυπτογράφησης, λάβετε καθημερινές ενημερώσεις στα εισερχόμενά σας.

Πηγή: https://decrypt.co/227754/ai-assistant-users-could-develop-an-emotional-attachment-to-them-google-warns