Η Microsoft ενισχύει την ασφάλεια AI Chatbot για να αποτρέψει τους Tricksters

Η Microsoft έχει προσθέσει μια σειρά από λειτουργίες ασφαλείας στο Azure AI Studio που θα πρέπει, με την πάροδο του χρόνου, να συνεχίσουν να μειώνουν την πιθανότητα οι χρήστες της να διαμορφώνουν μοντέλα τεχνητής νοημοσύνης σε μια λειτουργία που θα τους έκανε να ενεργούν ασυνήθιστα ή ακατάλληλα. Η πολυεθνική εταιρεία τεχνολογίας που εδρεύει στο Ρέντμοντ, Η Ουάσιγκτον, περιέγραψε τις βελτιώσεις σε μια ανάρτηση ιστολογίου, δίνοντας έμφαση στην εγγύηση της ακεραιότητας των αλληλεπιδράσεων τεχνητής νοημοσύνης και στην ενίσχυση της εμπιστοσύνης στη βάση των χρηστών.

Πρόχειρες ασπίδες και πολλά άλλα 

Μεταξύ των σημαντικότερων εξελίξεων είναι η δημιουργία «ασπίδων άμεσης επικοινωνίας», μια τεχνολογία που έχει σχεδιαστεί για να βρίσκει και να σκοτώνει τις άμεσες ενέσεις κατά τη συνομιλία με chatbots AI. Αυτά είναι τα λεγόμενα jailbreak και είναι βασικά είσοδοι από χρήστες που σκόπιμα διαμορφώνονται με τέτοιο τρόπο ώστε να προκαλούν μια ανεπιθύμητη απάντηση από τα μοντέλα AI.

Για παράδειγμα, η Microsoft παίζει το ρόλο της έμμεσα με έγκαιρες εισαγωγές, όπου είναι δυνατή η εκτέλεση κακών εντολών, και ένα σενάριο όπως αυτό μπορεί να οδηγήσει σε σοβαρές συνέπειες ασφάλειας, όπως κλοπή δεδομένων και πειρατεία συστήματος. Οι μηχανισμοί είναι το κλειδί για τον εντοπισμό και την απόκριση σε αυτές τις μοναδικές απειλές σε πραγματικό χρόνο, σύμφωνα με τη Sarah Bird, Chief Product Officer της Microsoft για την Υπεύθυνη AI.

Η Microsoft προσθέτει ότι σύντομα θα υπάρχουν ειδοποιήσεις στην οθόνη του χρήστη, οι οποίες θα επισημαίνουν πότε ένα μοντέλο είναι πιθανό να εκφράζει ψευδείς ή παραπλανητικές πληροφορίες, διασφαλίζοντας μεγαλύτερη φιλικότητα προς τον χρήστη και εμπιστοσύνη.

Οικοδόμηση εμπιστοσύνης στα εργαλεία AI 

Η προσπάθεια της Microsoft αποτελεί μέρος μιας μεγαλύτερης πρωτοβουλίας, με στόχο να δώσει στους ανθρώπους εμπιστοσύνη στην ολοένα και πιο δημοφιλή παραγωγική τεχνητή νοημοσύνη που εφαρμόζεται εκτενώς σε υπηρεσίες που στοχεύουν μεμονωμένους καταναλωτές και εταιρικούς πελάτες. Η Microsoft προχώρησε σε μια χτένα με λεπτά δόντια, μετά την εμφάνιση των περιπτώσεων, όπου οι χρήστες είχαν τη δυνατότητα να παίξουν το chatbot Copilot για να παράγουν παράξενα ή επιβλαβή αποτελέσματα. Αυτό θα είναι προς υποστήριξη ενός αποτελέσματος που δείχνει την ανάγκη για ισχυρές άμυνες ενάντια στις αναφερόμενες χειραγωγικές τακτικές, οι οποίες είναι πιθανό να αυξηθούν με τις τεχνολογίες AI και τη δημοφιλή γνώση. Η πρόβλεψη και, στη συνέχεια, ο μετριασμός γίνεται για την αναγνώριση των μοτίβων επίθεσης, όπως όταν ένας εισβολέας επαναλαμβάνει ερωτήσεις ή προτρέπει στο παιχνίδι ρόλων.

Ως ο μεγαλύτερος επενδυτής και στρατηγικός εταίρος του OpenAI, η Microsoft ωθεί τα όρια του τρόπου ενσωμάτωσης και δημιουργίας υπεύθυνων, ασφαλών τεχνολογιών τεχνητής νοημοσύνης. Και οι δύο δεσμεύονται στην υπεύθυνη ανάπτυξη και τα θεμελιώδη μοντέλα της Generative AI για μέτρα ασφαλείας. Αλλά ο Bird παραδέχτηκε ότι αυτά τα μεγάλα γλωσσικά μοντέλα, ακόμη και όταν πρόκειται να θεωρηθούν ως θεμέλιο για μεγάλο μέρος της μελλοντικής καινοτομίας της τεχνητής νοημοσύνης, δεν είναι ανθεκτικά σε χειραγώγηση.

Η οικοδόμηση σε αυτά τα θεμέλια θα απαιτήσει πολύ περισσότερα από το να βασίζεσαι απλώς στα ίδια τα μοντέλα. θα χρειαζόταν μια ολοκληρωμένη προσέγγιση για την ασφάλεια και την ασφάλεια της τεχνητής νοημοσύνης.

Η Microsoft ανακοίνωσε πρόσφατα την ενίσχυση των μέτρων ασφαλείας για το Azure AI Studio της για να δείξει και να εγγυηθεί προληπτικά μέτρα που λαμβάνονται για τη διασφάλιση του μεταβαλλόμενου τοπίου των απειλών τεχνητής νοημοσύνης.

Προσπαθεί να αποφύγει τις κακές χρήσεις της τεχνητής νοημοσύνης και να διατηρήσει την ακεραιότητα και την αξιοπιστία της αλληλεπίδρασης τεχνητής νοημοσύνης ενσωματώνοντας έγκαιρες οθόνες και ειδοποιήσεις.

Με τη συνεχή εξέλιξη της τεχνολογίας AI και την υιοθέτησή της σε πολλές συμπεριλήψεις της καθημερινής ζωής, θα είναι καιρός για τη Microsoft και την υπόλοιπη κοινότητα AI να διατηρήσουν μια πολύ προσεκτική στάση ασφαλείας.

Πηγή: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/