Είναι ο προγραμματισμός των Chatbots για να μην παράγουν αμφιλεγόμενα αποτελέσματα ένα πρόβλημα ελεύθερης ομιλίας;

Το καυτό θέμα αυτές τις μέρες είναι η τεχνητή νοημοσύνη και ο αντίκτυπός της στην υπάρχουσα τεχνολογία, τις τέχνες και τη λογοτεχνία, και τώρα ένα νέο, εάν η έκφραση της τεχνητής νοημοσύνης έχει επίσης κάποιο είδος προστασίας βάσει της Πρώτης Τροποποίησης. Οι ερευνητές προσπαθούν να μιμηθούν τις ικανότητες του ανθρώπινου εγκεφάλου με την τεχνητή νοημοσύνη από την αρχή της εξέλιξής της, όπως η δημιουργικότητα, η επίλυση προβλημάτων και η αναγνώριση ομιλίας. Η πρώτη θεωρείται άσκηση μοναδική μόνο για τον ανθρώπινο εγκέφαλο, ενώ οι δύο τελευταίες βρίσκονται σε κάποιο βαθμό στην προσέγγιση της τεχνητής νοημοσύνης.

Το Chatbot Gemini δημιούργησε αμφιλεγόμενες εικόνες

Βασικά, η τεχνητή νοημοσύνη μπορεί να είναι οτιδήποτε, από ένα σύνολο αλγορίθμων έως ένα σύστημα που λαμβάνει τρισεκατομμύρια αποφάσεις σε οποιαδήποτε δεδομένη πλατφόρμα, όπως η ρύθμιση της βάσης δεδομένων μιας εταιρείας ή ένας ιστότοπος κοινωνικής δικτύωσης, ή μπορεί να είναι ένα chatbot. Αργότερα τον Φεβρουάριο, η Google είπε ότι ανέστειλε το chatbot της, Gemini, και ότι δεν θα δημιουργήσει εικόνες ανθρώπων. Ο λόγος ήταν ότι το Gemini δημιούργησε ένα buzz επειδή είχε μερικές εικόνες που ήταν από σκηνές που έδειχναν έγχρωμους ανθρώπους σε ορισμένες σκηνές που ιστορικά κυριαρχούσαν λευκοί άνθρωποι και οι κριτικοί είπαν εάν η εταιρεία έχει τελειώσει το bot για τον κίνδυνο μεροληψίας, Η Google έκανε tweet στο X ότι,

«Εργαζόμαστε ήδη για να αντιμετωπίσουμε πρόσφατα προβλήματα με τη δυνατότητα δημιουργίας εικόνας του Gemini. Ενώ το κάνουμε αυτό, θα διακόψουμε τη δημιουργία εικόνων των ανθρώπων και θα επανακυκλοφορήσουμε σύντομα μια βελτιωμένη έκδοση.”

Πηγή: Google.

Σύμφωνα με δύο ανώτερους μελετητές, τον Jordi Calvet-Bademunt από το Πανεπιστήμιο Vanderbilt και τον Jacob Mchangama από το Πανεπιστήμιο Vanderbilt, οι προσπάθειες για την καταπολέμηση της προκατάληψης της τεχνητής νοημοσύνης και η συζήτηση για τις πολιτικές της τάσεις είναι σημαντικές, αλλά έθεσαν ένα άλλο ερώτημα που συχνά συζητείται λιγότερο και αφορά τον τομέα της τεχνητής νοημοσύνης. προσέγγιση της ελευθερίας του λόγου.

Οι ερευνητές αξιολογούν την προσέγγιση της ελευθερίας του λόγου του AI

Οι ερευνητές τόνισαν επίσης ότι εάν η προσέγγιση του κλάδου στην ελευθερία του λόγου είναι σύμφωνη με τα διεθνή πρότυπα ελευθερίας του λόγου, είπαν ότι τα ευρήματά τους υποδηλώνουν ότι η γενετική τεχνητή νοημοσύνη έχει κρίσιμα ελαττώματα όσον αφορά την πρόσβαση σε πληροφορίες και την ελεύθερη έκφραση.

Πηγή: Freedomforum.

Κατά τη διάρκεια της έρευνας, αξιολόγησαν τις πολιτικές έξι chatbot AI, συμπεριλαμβανομένων των σημαντικότερων, του Google Gemini και του ChatGPT, από το OpenAI. Σημείωσαν ότι το διεθνές δίκαιο για τα ανθρώπινα δικαιώματα θα πρέπει να αποτελεί σημείο αναφοράς για αυτές τις πολιτικές, αλλά οι πραγματικές πολιτικές χρήσης σε ιστότοπους εταιρειών σχετικά με τη ρητορική μίσους και την παραπληροφόρηση είναι πολύ ασαφείς. Παρά το γεγονός ότι το διεθνές δίκαιο των ανθρωπίνων δικαιωμάτων δεν προστατεύει ιδιαίτερα την ελευθερία του λόγου.

Σύμφωνα με αυτούς, εταιρείες όπως η Google έχουν πολύ ευρείες πολιτικές ρητορικής μίσους επειδή, σε περίπτωση τέτοιου γεγονότος, η Google απαγορεύει τη δημιουργία περιεχομένου. Αν και η ρητορική μίσους δεν είναι επιθυμητή, αλλά η ύπαρξη τόσο ευρέων και αόριστων πολιτικών μπορεί επίσης να αποτύχει. Όταν οι ερευνητές έκαναν αμφιλεγόμενες ερωτήσεις σχετικά με τη συμμετοχή των τρανς γυναικών στον αθλητισμό ή τον ευρωπαϊκό αποικισμό, σε περισσότερες από το 40% των περιπτώσεων, τα chatbot αρνήθηκαν να δημιουργήσουν περιεχόμενο. Όπως, όλα τα chatbot αρνήθηκαν να απαντήσουν σε ερωτήσεις που αντιτίθεντο στη συμμετοχή των τρανς γυναικών, αλλά πολλά από αυτά υποστήριξαν τη συμμετοχή τους.

Η ελευθερία του λόγου είναι βασικό δικαίωμα οποιουδήποτε στις ΗΠΑ, αλλά οι ασαφείς πολιτικές βασίζονται στις απόψεις των συντονιστών, οι οποίες είναι υποκειμενικές σχετικά με την κατανόηση της ρητορικής μίσους. Οι ειδικοί σημείωσαν ότι οι πολιτικές των μεγαλύτερων εταιρειών θα έχουν σημαντική επίδραση στο δικαίωμα των ανθρώπων να έχουν πρόσβαση σε πληροφορίες. Και η άρνηση δημιουργίας περιεχομένου μπορεί να παροτρύνει τους ανθρώπους να χρησιμοποιούν chatbot που δημιουργούν περιεχόμενο μίσους, κάτι που θα ήταν κακό αποτέλεσμα. 

Το αρχικό σημείωμα έρευνας μπορείτε να το δείτε εδώ.

Πηγή: https://www.cryptopolitan.com/chatbots-output-a-free-speech-problem/