Οι γερουσιαστές ρωτούν τον διευθύνοντα σύμβουλο της Meta Zuckerberg για το μοντέλο LLaMA AI "Διαρροή"

Two Senators Cross ρωτά τον Zuckerberg για τη διαρροή του LLaMA AI Model και κατηγορεί τη Meta ότι δεν ακολουθεί τα μέτρα ασφαλείας. Ο Μέτα ερωτήθηκε για τις πολιτικές ασφαλείας και τα προληπτικά μέτρα του.

Ο Meta θα είναι υπεύθυνος για τη "διαρροή"

Πρόσφατα, το πρωτοποριακό μεγάλο γλωσσικό μοντέλο της Meta, LLaMA διέρρευσε και εκφράστηκαν ανησυχίες για το ίδιο. Ο γερουσιαστής Richard Blumenthal (D-CT), πρόεδρος της Υποεπιτροπής της Γερουσίας για το απόρρητο, την τεχνολογία και το νόμο, και ο Josh Hawley (R-MO), μέλος της κατάταξης έγραψαν μια επιστολή που έθεσε ερωτήματα σχετικά με τη διαρροή του μοντέλου AI. 

Οι γερουσιαστές φοβούνται ότι αυτή η διαρροή θα μπορούσε να οδηγήσει σε διάφορα εγκλήματα στον κυβερνοχώρο όπως ανεπιθύμητα μηνύματα, απάτη, κακόβουλο λογισμικό, παραβιάσεις της ιδιωτικής ζωής, παρενόχληση και άλλες αδικίες και βλάβες. Πολλά ερωτήματα εγείρονται και δύο πολιτικοί ενδιαφέρονται βαθιά για το σύστημα ασφαλείας του Meta. Ρώτησαν ποια διαδικασία ακολουθήθηκε για την αξιολόγηση του κινδύνου πριν από την κυκλοφορία του LLaMA. Δήλωσαν ότι είναι πολύ πρόθυμοι να κατανοήσουν τις πολιτικές και τις πρακτικές που εφαρμόζονται για να αποτρέψουν την κατάχρηση του μοντέλου στη διαθεσιμότητά του.

Με βάση τις απαντήσεις του Μέτα στις ερωτήσεις τους, οι Γερουσιαστές κατηγόρησαν τον Μέτα για ακατάλληλη λογοκρισία και ότι δεν είχε αρκετά μέτρα ασφαλείας για το μοντέλο. Το ChatGPT του Open AI απορρίπτει ορισμένα από τα αιτήματα που βασίζονται σε ηθική και κατευθυντήριες γραμμές. Για παράδειγμα, όταν ζητηθεί από το ChatGPT να γράψει μια επιστολή εκ μέρους του γιου κάποιου και να ζητήσει κάποια χρήματα για να ξεφύγει από μια δύσκολη κατάσταση, θα αρνηθεί το αίτημα. Ενώ από την άλλη πλευρά, το LLaMA θα εκπληρώσει το αίτημα και θα δημιουργήσει την επιστολή. Θα ολοκληρώσει επίσης τα αιτήματα που περιλαμβάνουν αυτοτραυματισμό, έγκλημα και αντισημιτισμό.

Είναι πολύ σημαντικό να κατανοήσουμε τα ποικίλα και μοναδικά χαρακτηριστικά του LLaMA. Δεν είναι μόνο ξεχωριστό αλλά και ένα από τα πιο εκτεταμένα μοντέλα Large Language μέχρι σήμερα. Σχεδόν κάθε LLM χωρίς λογοκρισία που είναι δημοφιλές σήμερα βασίζεται στο LLaMA. Είναι εξαιρετικά εξελιγμένο και ακριβές για ένα μοντέλο ανοιχτού κώδικα. Παραδείγματα ορισμένων LLM με βάση το LLaMA είναι τα Alpaca του Stanford, Vicuna κ.λπ. Το LLaMA έχει παίξει σημαντικό ρόλο στο να γίνουν τα LLM αυτό που είναι σήμερα. Το LLaMA είναι υπεύθυνο για την εξέλιξη των chatbot χαμηλής χρησιμότητας σε βελτιστοποιημένες λειτουργίες.

Το LLaMA κυκλοφόρησε τον Φεβρουάριο. Σύμφωνα με τους γερουσιαστές, η Meta επέτρεψε στους ερευνητές να κατεβάσουν το μοντέλο, αλλά δεν έλαβε μέτρα ασφαλείας όπως συγκεντρωτισμό ή περιορισμό της πρόσβασης. Η διαμάχη προέκυψε όταν το πλήρες μοντέλο του LLaMA εμφανίστηκε στο BitTorrent. Αυτό έκανε το μοντέλο προσιτό σε όλους και σε όλους. Αυτό οδήγησε σε συμβιβασμό στην ποιότητα του μοντέλου AI και έθεσε ζητήματα κακής χρήσης του. 

Οι γερουσιαστές στην αρχή δεν ήταν καν σίγουροι αν υπήρχε κάποια «διαρροή». Αλλά προέκυψαν ζητήματα όταν το Διαδίκτυο πλημμύρισε από εξελίξεις τεχνητής νοημοσύνης που ξεκίνησαν από νεοφυείς επιχειρήσεις, συλλογικότητες και ακαδημαϊκούς. Η επιστολή αναφέρει ότι η Meta πρέπει να θεωρηθεί υπεύθυνη για την πιθανή κατάχρηση του LLaMA και πρέπει να έχει φροντίσει για ελάχιστες προστασίες πριν από την απελευθέρωση.

Ο Meta έκανε τα βάρη του LLaMA διαθέσιμα στους ερευνητές. Δυστυχώς, αυτά τα βάρη διέρρευσαν, γεγονός που επέτρεψε την παγκόσμια πρόσβαση για πρώτη φορά.

Τελευταίες δημοσιεύσεις από Ritika Sharma (Προβολή όλων)

Πηγή: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/