Δείτε πώς σχεδιάζει το OpenAI να καθαρίσει το ChatGPT από ψευδείς πληροφορίες

Το OpenAI ανακοίνωσε στις 31 Μαΐου τις προσπάθειές του να ενισχύσει τις ικανότητες επίλυσης μαθηματικών προβλημάτων του ChatGPT, με στόχο τη μείωση των περιπτώσεων παραισθήσεων τεχνητής νοημοσύνης (AI). Το OpenAI τόνισε τον μετριασμό των παραισθήσεων ως ένα κρίσιμο βήμα προς την ανάπτυξη ευθυγραμμισμένης AGI.

Τον Μάρτιο, η εισαγωγή της τελευταίας έκδοσης του ChatGPT, GPT-4, ώθησε περαιτέρω την τεχνητή νοημοσύνη στο mainstream. Ωστόσο, τα chatbots τεχνητής νοημοσύνης που δημιουργούνται από καιρό έχουν αντιμετωπίσει την πραγματική ακρίβεια, δημιουργώντας περιστασιακά ψευδείς πληροφορίες, που συνήθως αναφέρονται ως «ψευδαισθήσεις». Οι προσπάθειες για τη μείωση αυτών των παραισθήσεων AI ανακοινώθηκαν μέσω μιας ανάρτησης στον ιστότοπό τους.

Οι ψευδαισθήσεις τεχνητής νοημοσύνης αναφέρονται σε περιπτώσεις όπου τα συστήματα τεχνητής νοημοσύνης παράγουν αποτελέσματα που είναι πραγματικά λανθασμένα, παραπλανητικά ή δεν υποστηρίζονται από δεδομένα του πραγματικού κόσμου. Αυτές οι ψευδαισθήσεις μπορεί να εκδηλωθούν με διάφορες μορφές, όπως η δημιουργία ψευδών πληροφοριών, η δημιουργία ανύπαρκτων γεγονότων ή ανθρώπων ή η παροχή ανακριβών λεπτομερειών για ορισμένα θέματα.

Το OpenAI διεξήγαγε έρευνα για να εξετάσει την αποτελεσματικότητα δύο τύπων ανατροφοδότησης – «εποπτείας αποτελέσματος» και «εποπτείας διαδικασίας». Η εποπτεία του αποτελέσματος περιλαμβάνει ανατροφοδότηση με βάση το τελικό αποτέλεσμα, ενώ η εποπτεία της διαδικασίας παρέχει στοιχεία για κάθε βήμα σε μια αλυσίδα σκέψης. Το OpenAI αξιολόγησε αυτά τα μοντέλα χρησιμοποιώντας μαθηματικά προβλήματα, δημιουργώντας πολλαπλές λύσεις και επιλέγοντας τη λύση με την υψηλότερη κατάταξη σύμφωνα με κάθε μοντέλο ανατροφοδότησης.

Μετά από ενδελεχή ανάλυση, η ερευνητική ομάδα διαπίστωσε ότι η επίβλεψη της διαδικασίας απέφερε ανώτερη απόδοση καθώς ενθάρρυνε το μοντέλο να τηρήσει μια διαδικασία εγκεκριμένη από τον άνθρωπο. Αντίθετα, η εποπτεία των αποτελεσμάτων αποδείχθηκε πιο δύσκολη για τη συνεπή εξέταση.

Το OpenAI αναγνώρισε ότι οι επιπτώσεις της εποπτείας διεργασιών εκτείνονται πέρα ​​από τα μαθηματικά και απαιτείται περαιτέρω διερεύνηση για την κατανόηση των επιπτώσεών της σε διαφορετικούς τομείς. Εξέφρασε την πιθανότητα ότι εάν τα παρατηρούμενα αποτελέσματα ισχύουν σε ευρύτερα πλαίσια, η εποπτεία της διαδικασίας θα μπορούσε να προσφέρει έναν ευνοϊκό συνδυασμό απόδοσης και ευθυγράμμισης σε σύγκριση με την εποπτεία αποτελέσματος. Για να διευκολυνθεί η έρευνα, η εταιρεία κυκλοφόρησε δημόσια το πλήρες σύνολο δεδομένων εποπτείας διαδικασιών, καλώντας την εξερεύνηση και τη μελέτη σε αυτόν τον τομέα.

Συγγενεύων: Η ζήτηση τεχνητής νοημοσύνης εκτοξεύει για λίγο τη Nvidia σε κλαμπ $1T

Αν και το OpenAI δεν παρείχε σαφείς περιπτώσεις που ώθησαν την έρευνά τους για παραισθήσεις, δύο πρόσφατα περιστατικά έδειξαν το πρόβλημα σε σενάρια πραγματικής ζωής.

Σε ένα πρόσφατο περιστατικό, ο δικηγόρος Steven A. Schwartz στην υπόθεση Mata v. Avianca Airlines αναγνώρισε ότι βασιζόταν στο chatbot ως ερευνητικό πόρο. Ωστόσο, οι πληροφορίες που παρέχονται από το ChatGPT αποδείχτηκαν εξ ολοκλήρου κατασκευασμένες, αναδεικνύοντας το υπό εξέταση ζήτημα.

Το ChatGPT του OpenAI δεν είναι το μοναδικό παράδειγμα συστημάτων τεχνητής νοημοσύνης που αντιμετωπίζουν παραισθήσεις. Το AI της Microsoft, κατά τη διάρκεια μιας επίδειξης της τεχνολογίας chatbot της τον Μάρτιο, εξέτασε αναφορές κερδών και δημιούργησε ανακριβή στοιχεία για εταιρείες όπως η Gap και η Lululemon.

Περιοδικό: 25 έμποροι στοιχηματίζουν στις επιλογές μετοχών του ChatGPT, η τεχνητή νοημοσύνη είναι χάλια στις ρίψεις ζαριών και πολλά άλλα

Πηγή: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information