3 λόγοι για τους οποίους ο οργανισμός σας θα χρειαστεί εξωτερικούς αξιολογητές αλγορίθμων

Του Satta Sarmah-Hightower

Οι ηγέτες των επιχειρήσεων συμπιέζουν ό,τι μπορούν από την τεχνητή νοημοσύνη (AI). Μια μελέτη της KPMG του 2021 διαπιστώνει Η πλειοψηφία των ηγετών επιχειρήσεων της κυβέρνησης, της βιομηχανικής παραγωγής, των χρηματοοικονομικών υπηρεσιών, του λιανικού εμπορίου, της βιοεπιστήμης και της υγειονομικής περίθαλψης λένε ότι η τεχνητή νοημοσύνη είναι τουλάχιστον μέτρια λειτουργική στους οργανισμούς τους. Η μελέτη διαπιστώνει επίσης ότι οι μισοί από τους ερωτηθέντες λένε ότι ο οργανισμός τους επιτάχυνε την υιοθέτηση της τεχνητής νοημοσύνης ως απάντηση στην πανδημία του Covid-19. Σε οργανισμούς όπου έχει υιοθετηθεί η τεχνητή νοημοσύνη, τουλάχιστον οι μισοί λένε ότι η τεχνολογία έχει ξεπεράσει τις προσδοκίες.

Οι αλγόριθμοι τεχνητής νοημοσύνης είναι ολοένα και πιο υπεύθυνοι για μια ποικιλία σημερινών αλληλεπιδράσεων και καινοτομιών—από εξατομικευμένες συστάσεις προϊόντων και εξυπηρέτηση πελατών εμπειρίες στις τράπεζες δανειοδοτικές αποφάσεις και ακόμη απάντηση της αστυνομίας.

Ωστόσο, παρά τα πλεονεκτήματα που προσφέρουν, οι αλγόριθμοι τεχνητής νοημοσύνης ενέχουν μεγάλους κινδύνους εάν δεν παρακολουθούνται αποτελεσματικά και δεν αξιολογούνται ως προς την ανθεκτικότητα, τη δικαιοσύνη, την επεξήγηση και την ακεραιότητα. Για να βοηθηθούν οι ηγέτες επιχειρήσεων στην παρακολούθηση και την αξιολόγηση της τεχνητής νοημοσύνης, η μελέτη που αναφέρεται παραπάνω δείχνει ότι α Όλο και περισσότεροι ηγέτες επιχειρήσεων θέλουν η κυβέρνηση να ρυθμίσει την τεχνητή νοημοσύνη προκειμένου να επιτρέψει στους οργανισμούς να επενδύσουν στη σωστή τεχνολογία και επιχειρηματικές διαδικασίες. Για την απαραίτητη υποστήριξη και επίβλεψη, είναι συνετό να εξετάζετε εξωτερικές αξιολογήσεις που προσφέρονται από πάροχο υπηρεσιών με εμπειρία στην παροχή τέτοιων υπηρεσιών. Εδώ είναι τρεις λόγοι.

1. Οι αλγόριθμοι είναι «μαύρα κουτιά»

Οι αλγόριθμοι τεχνητής νοημοσύνης - που μαθαίνουν από δεδομένα για την επίλυση προβλημάτων και τη βελτιστοποίηση εργασιών - κάνουν τα συστήματα πιο έξυπνα, επιτρέποντάς τους να συλλέγουν και να δημιουργούν πληροφορίες πολύ πιο γρήγορα από ό,τι θα μπορούσαν ποτέ οι άνθρωποι.

Ωστόσο, ορισμένοι ενδιαφερόμενοι θεωρούν ότι αυτοί οι αλγόριθμοι είναι «μαύρα κουτιά», εξηγεί ο Drew Rosen, διευθύνων σύμβουλος ελέγχου στην KPMG, μια κορυφαία εταιρεία επαγγελματικών υπηρεσιών. Συγκεκριμένα, ορισμένοι ενδιαφερόμενοι μπορεί να μην καταλαβαίνουν πώς ο αλγόριθμος κατέληξε σε μια συγκεκριμένη απόφαση και επομένως μπορεί να μην είναι σίγουροι για τη δικαιοσύνη ή την ακρίβεια αυτής της απόφασης.

«Τα αποτελέσματα που προέρχονται από τον αλγόριθμο μπορεί να είναι επιρρεπή σε προκατάληψη και παρερμηνεία των αποτελεσμάτων», λέει ο Rosen. «Αυτό μπορεί επίσης να οδηγήσει σε ορισμένους κινδύνους για την οντότητα, καθώς αξιοποιεί αυτά τα αποτελέσματα και τα μοιράζεται [τα] με το κοινό και τα ενδιαφερόμενα μέρη».

Ένας αλγόριθμος που χρησιμοποιεί ελαττωματικά δεδομένα, για παράδειγμα, είναι αναποτελεσματικός στην καλύτερη περίπτωση και επιβλαβής στη χειρότερη. Πώς μπορεί να μοιάζει στην πράξη; Σκεφτείτε ένα chatbot που βασίζεται σε AI που παρέχει λάθος πληροφορίες λογαριασμού στους χρήστες ή ένα αυτοματοποιημένο εργαλείο μετάφρασης γλώσσας που μεταφράζει ανακριβώς κείμενο. Και οι δύο περιπτώσεις θα μπορούσαν να οδηγήσουν σε σοβαρά σφάλματα ή παρερμηνείες για κυβερνητικές οντότητες ή εταιρείες, καθώς και για τα στοιχεία και τους πελάτες που βασίζονται στις αποφάσεις που λαμβάνονται από αυτούς τους αλγόριθμους.

Ένας άλλος παράγοντας που συμβάλλει στο πρόβλημα του μαύρου κουτιού είναι όταν η εγγενής προκατάληψη εισχωρεί στην ανάπτυξη μοντέλων τεχνητής νοημοσύνης, προκαλώντας δυνητικά μεροληπτική λήψη αποφάσεων. Οι πιστωτές, για παράδειγμα, χρησιμοποιούν όλο και περισσότερο την τεχνητή νοημοσύνη για να προβλέψουν την πιστοληπτική ικανότητα των πιθανών δανειοληπτών προκειμένου να λάβουν αποφάσεις δανεισμού. Ωστόσο, μπορεί να προκύψει κίνδυνος όταν βασικές εισροές στην τεχνητή νοημοσύνη, όπως το πιστωτικό σκορ ενός δυνητικού δανειολήπτη, έχει υλικό σφάλμα, με αποτέλεσμα τα άτομα αυτά να στερούνται δάνεια.

Αυτό υπογραμμίζει την ανάγκη για έναν εξωτερικό αξιολογητή που μπορεί να χρησιμεύσει ως αμερόληπτος αξιολογητής και να παρέχει μια εστιασμένη αξιολόγηση, με βάση αποδεκτά κριτήρια, της συνάφειας και της αξιοπιστίας των ιστορικών δεδομένων και των υποθέσεων που τροφοδοτούν έναν αλγόριθμο.

2. Τα ενδιαφερόμενα μέρη και οι ρυθμιστικές αρχές απαιτούν διαφάνεια

Το 2022, δεν υπήρχαν τρέχουσες απαιτήσεις αναφοράς για υπεύθυνη τεχνητή νοημοσύνη. Ωστόσο, λέει ο Rosen, «ακριβώς όπως το πώς τα κυβερνητικά όργανα εισήγαγαν τον κανονισμό ESG [περιβαλλοντική, κοινωνική και διακυβέρνηση] αναφορά για ορισμένες μετρήσεις ESG, είναι θέμα χρόνου να δούμε πρόσθετες απαιτήσεις αναφοράς κανονισμών για την υπεύθυνη τεχνητή νοημοσύνη.”

Στην πραγματικότητα, με ισχύ από την 1η Ιανουαρίου 2023, στη Νέα Υόρκη Τοπικός Νόμος 144 απαιτεί να διενεργείται έλεγχος μεροληψίας σε ένα αυτοματοποιημένο εργαλείο απόφασης για την απασχόληση προτού χρησιμοποιηθεί.

Και σε ομοσπονδιακό επίπεδο, το Εθνική Πράξη Πρωτοβουλίας Τεχνητής Νοημοσύνης του 2020— το οποίο βασίζεται σε α Εκτελεστικό διάταγμα του 2019— επικεντρώνεται στα τεχνικά πρότυπα και τις οδηγίες τεχνητής νοημοσύνης. Επιπλέον, το Νόμος Αλγοριθμικής Λογοδοσίας θα μπορούσε να απαιτήσει αξιολογήσεις επιπτώσεων των αυτοματοποιημένων συστημάτων λήψης αποφάσεων και επαυξημένης κρίσιμης διαδικασίας λήψης αποφάσεων. Και στο εξωτερικό, το Νόμος περί τεχνητής νοημοσύνης έχει προταθεί, προσφέροντας ένα ολοκληρωμένο κανονιστικό πλαίσιο με συγκεκριμένους στόχους για την ασφάλεια, τη συμμόρφωση, τη διακυβέρνηση και την αξιοπιστία της τεχνητής νοημοσύνης.

Με αυτές τις αλλαγές, οι οργανισμοί βρίσκονται κάτω από ένα μικροσκόπιο διακυβέρνησης. Ένας αξιολογητής αλγορίθμων μπορεί να παρέχει τέτοιες αναφορές που καλύπτουν τις κανονιστικές απαιτήσεις και ενισχύουν τη διαφάνεια των ενδιαφερομένων, αποφεύγοντας τον κίνδυνο παρερμηνείας ή παρερμηνείας από τους ενδιαφερόμενους παραπλάνησε από τα αποτελέσματα της αξιολόγησης.

3. Οι εταιρείες επωφελούνται από τη μακροπρόθεσμη διαχείριση κινδύνων

Ο Steve Camara, συνεργάτης στην πρακτική διασφάλισης τεχνολογίας της KPMG, προβλέπει ότι οι επενδύσεις σε τεχνητή νοημοσύνη θα συνεχίσουν να αυξάνονται καθώς οι οντότητες προχωρούν στην αυτοματοποίηση των διαδικασιών, αναπτύσσοντας καινοτομίες που ενισχύουν την εμπειρία των πελατών και διανέμουν την ανάπτυξη AI σε όλες τις επιχειρηματικές λειτουργίες. Για να παραμείνουν ανταγωνιστικοί και κερδοφόροι, οι οργανισμοί θα χρειαστούν αποτελεσματικούς ελέγχους που όχι μόνο αντιμετωπίζουν τις άμεσες ελλείψεις της τεχνητής νοημοσύνης αλλά και μειώνουν τυχόν μακροπρόθεσμους κινδύνους που σχετίζονται με επιχειρηματικές δραστηριότητες που τροφοδοτούνται από AI.

Αυτό είναι όπου οι εξωτερικοί αξιολογητές παρεμβαίνουν ως αξιόπιστος, έμπειρος πόρος. Καθώς οι οργανισμοί ενστερνίζονται όλο και περισσότερο την ακεραιότητα της τεχνητής νοημοσύνης ως επιχειρηματικό εργαλείο, η συνεργασία μπορεί να γίνει λιγότερο μια ad hoc υπηρεσία και περισσότερο μια συνεπής συνεργασία, εξηγεί η Camara.

«Βλέπουμε έναν δρόμο προς τα εμπρός όπου θα χρειαστεί να υπάρχει μια συνεχής σχέση μεταξύ των οργανισμών που αναπτύσσουν και λειτουργούν την τεχνητή νοημοσύνη σε συνεχή βάση και ενός αντικειμενικού εξωτερικού αξιολογητή», λέει.

Μια ματιά προς το τι έρχεται στη συνέχεια

Στο μέλλον, οι οργανισμοί ενδέχεται να χρησιμοποιούν εξωτερικές αξιολογήσεις σε περισσότερο κυκλική βάση καθώς αναπτύσσουν νέα μοντέλα, απορροφούν νέες πηγές δεδομένων, ενσωματώνουν λύσεις τρίτων προμηθευτών ή πλοηγούνται σε νέες απαιτήσεις συμμόρφωσης, για παράδειγμα.

Όταν επιβάλλονται πρόσθετες απαιτήσεις κανονισμών και συμμόρφωσης, οι εξωτερικοί αξιολογητές ενδέχεται να μπορούν να παρέχουν υπηρεσίες για να αξιολογήσουν άμεσα πόσο καλά ένας οργανισμός έχει αναπτύξει ή χρησιμοποιήσει τεχνητή νοημοσύνη σε σχέση με αυτές τις απαιτήσεις. Αυτοί οι αξιολογητές θα ήταν τότε σε καλύτερη θέση για να μοιράζονται τα αποτελέσματα της αξιολόγησης με σαφή και συνεπή τρόπο.

Για να κεφαλαιοποιήσει την τεχνολογία, ενώ ταυτόχρονα προστατεύεται από τους περιορισμούς της, ένας οργανισμός πρέπει να αναζητήσει εξωτερικούς αξιολογητές για να παρέχει αναφορές στις οποίες μπορεί στη συνέχεια να βασιστεί για να επιδείξει μεγαλύτερη διαφάνεια κατά την ανάπτυξη αλγορίθμων. Από εκεί, τόσο ο οργανισμός όσο και οι ενδιαφερόμενοι μπορούν να κατανοήσουν καλύτερα τη δύναμη της τεχνητής νοημοσύνης — και τους περιορισμούς της.

Πηγή: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/