Τα εργαλεία πρόσληψης εργασίας με τεχνητή νοημοσύνη ενδέχεται να μην βελτιώσουν τη διαφορετικότητα των προσλήψεων, υποστηρίζουν οι ειδικοί

Η πάνω σειρά

Εργαλεία πρόσληψης θέσεων εργασίας που ισχυρίζονται ότι χρησιμοποιούν τεχνητή νοημοσύνη για να αποφύγουν τις φυλετικές και φυλετικές προκαταλήψεις μπορεί να μην βελτιώσουν την ποικιλομορφία στις προσλήψεις και θα μπορούσαν στην πραγματικότητα να διαιωνίσουν αυτές τις προκαταλήψεις, υποστήριξαν την Κυριακή ερευνητές από το Πανεπιστήμιο του Κέιμπριτζ, παρουσιάζοντας τα προγράμματα - τα οποία έχουν προκαλέσει κριτική στο παρελθόν- ως τρόπος χρήσης της τεχνολογίας για να προσφέρει μια γρήγορη λύση για ένα βαθύτερο πρόβλημα.

Βασικά Στοιχεία

Σε άρθρο που δημοσιεύτηκε από Φιλοσοφία και Τεχνολογία, οι ερευνητές εξέτασαν ισχυρισμούς από διάφορες εταιρείες που προσφέρουν εργαλεία στρατολόγησης με τεχνητή νοημοσύνη, πολλές από τις οποίες ισχυρίζονται ότι εξαλείφουν τις προκαταλήψεις και προωθούν τη διαφορετικότητα κρύβοντας τα ονόματα, το φύλο και άλλα αναγνωριστικά των υποψηφίων, και ορισμένες από τις οποίες κατατάσσουν οι υποψήφιοι βασίζονται σε σαρώσεις βιογραφικών, διαδικτυακές αξιολογήσεις και ανάλυση της ομιλίας και των εκφράσεων του προσώπου των υποψηφίων.

Οι ερευνητές -δύο καθηγητές στο Κέντρο Μελετών Φύλου του Πανεπιστημίου του Κέμπριτζ- υποστήριξαν ότι αυτά τα εργαλεία μπορεί στην πραγματικότητα να προάγουν την ομοιομορφία στις προσλήψεις επειδή αναπαράγουν πολιτισμικές προκαταλήψεις του «ιδανικού υποψηφίου», που ιστορικά ήταν λευκοί ή Ευρωπαίοι άνδρες.

Τα εργαλεία ενδέχεται επίσης να μην βελτιώσουν την ποικιλομορφία επειδή βασίζονται σε προηγούμενα δεδομένα της εταιρείας και έτσι μπορεί να προωθήσουν υποψηφίους που μοιάζουν περισσότερο με τους σημερινούς υπαλλήλους.

Υπάρχει «λίγη ευθύνη για το πώς κατασκευάζονται ή δοκιμάζονται αυτά τα προϊόντα», δήλωσε η Eleanor Drage, συν-συγγραφέας της μελέτης και ερευνήτρια στο Κέντρο Μελετών Φύλου του Πανεπιστημίου του Κέιμπριτζ, προσθέτοντας ότι η τεχνολογία θα μπορούσε να χρησιμεύσει ως «επικίνδυνη» πηγή «παραπληροφόρησης σχετικά με το πώς η πρόσληψη μπορεί να είναι «προκατειλημμένη» και να γίνει πιο δίκαιη».

Κρίσιμο απόσπασμα

«Με τον ισχυρισμό ότι ο ρατσισμός, ο σεξισμός και άλλες μορφές διακρίσεων μπορούν να αφαιρεθούν από τη διαδικασία πρόσληψης χρησιμοποιώντας τεχνητή νοημοσύνη, αυτές οι εταιρείες μειώνουν τη φυλή και το φύλο σε ασήμαντα σημεία δεδομένων, αντί για συστήματα εξουσίας που διαμορφώνουν τον τρόπο με τον οποίο κινούμαστε στον κόσμο. », είπε ο Drage σε μια δήλωση.

Εφαπτομένος

Η Amazon ανακοίνωσε το 2018 στάση χρησιμοποιώντας ένα εργαλείο πρόσληψης τεχνητής νοημοσύνης για την εξέταση των βιογραφικών των υποψηφίων για εργασία αφού διαπίστωσε ότι το σύστημα έκανε έντονες διακρίσεις σε βάρος των γυναικών. Αυτό συμβαίνει επειδή τα μοντέλα υπολογιστών στα οποία βασίστηκε αναπτύχθηκαν με βάση βιογραφικά που υποβλήθηκαν στην εταιρεία τα τελευταία 10 χρόνια, τα οποία προέρχονταν κυρίως από άνδρες αιτούντες.

Βασικό υπόβαθρο

Οι οργανισμοί στρέφονται όλο και περισσότερο στην τεχνητή νοημοσύνη για να βοηθήσουν στη διαχείριση των διαδικασιών πρόσληψης θέσεων εργασίας. Σε μια Δημοσκόπηση 2020 από περισσότερους από 300 ηγέτες ανθρώπινου δυναμικού που επικαλούνται οι συντάκτες της εφημερίδας της Κυριακής, η εταιρεία συμβούλων Gartner διαπίστωσε ότι το 86% των εργοδοτών χρησιμοποιούν εικονική τεχνολογία στις πρακτικές προσλήψεών τους, μια τάση που έχει επιταχυνθεί από τότε που η πανδημία Covid-19 ανάγκασε πολλούς να αλλάξουν εργασία στο διαδίκτυο. Ενώ ορισμένες εταιρείες υποστήριξαν ότι η τεχνητή νοημοσύνη μπορεί να προσφέρει μια πιο οικονομική και χρονικά αποδοτική διαδικασία πρόσληψης, ορισμένες εμπειρογνώμονες έχουν Βρέθηκαν τα συστήματα έχουν την τάση να προωθούν - αντί να εξαλείφουν - τις φυλετικές και μεροληπτικές προσλήψεις με βάση το φύλο, αναπαράγοντας τις υπάρχουσες προκαταλήψεις από τον πραγματικό κόσμο. Αρκετοί αμερικανοί νομοθέτες έχουν Απευθύνεται για την αντιμετώπιση των προκαταλήψεων στα συστήματα τεχνητής νοημοσύνης, καθώς η τεχνολογία συνεχίζει να εξελίσσεται γρήγορα και λίγοι νόμοι υπάρχουν για να τη ρυθμίζουν. Ο Λευκός Οίκος κυκλοφόρησε αυτή την εβδομάδα ένα «Σχέδιο για μια Διακήρυξη Δικαιωμάτων AI», το οποίο υποστηρίζει ότι οι αλγόριθμοι που χρησιμοποιούνται στις προσλήψεις έχουν βρεθεί ότι «αντανακλούν και αναπαράγουν υπάρχουσες ανεπιθύμητες ανισότητες» ή ενσωματώνουν νέα «προκατάληψη και διακρίσεις». Το σχέδιο — το οποίο δεν είναι νομικά δεσμευτικό ή επίσημη κυβερνητική πολιτική — καλεί τις εταιρείες να διασφαλίσουν ότι η τεχνητή νοημοσύνη δεν κάνει διακρίσεις ή παραβιάζει το απόρρητο των δεδομένων και να ενημερώνουν τους χρήστες για το πότε χρησιμοποιείται η τεχνολογία.

Τι να προσέχεις

Σε μια λίστα συστάσεων, οι συντάκτες της Κυριακής Φιλοσοφία και Τεχνολογία Το έγγραφο πρότεινε τις εταιρείες που αναπτύσσουν τεχνολογίες AI να επικεντρωθούν σε ευρύτερες, συστηματικές ανισότητες αντί σε «εξατομικευμένες περιπτώσεις μεροληψίας». Για παράδειγμα, προτείνουν στους προγραμματιστές λογισμικού να εξετάσουν τις κατηγορίες που χρησιμοποιούνται για την ταξινόμηση, την επεξεργασία και την κατηγοριοποίηση των υποψηφίων και πώς αυτές οι κατηγορίες μπορούν να προάγουν τις διακρίσεις βασιζόμενοι σε ορισμένες υποθέσεις σχετικά με το φύλο και τη φυλή. Οι ερευνητές υποστηρίζουν επίσης ότι οι επαγγελματίες ανθρώπινου δυναμικού θα πρέπει να προσπαθήσουν να κατανοήσουν πώς λειτουργούν τα εργαλεία στρατολόγησης τεχνητής νοημοσύνης και ποιοι είναι ορισμένοι από τους πιθανούς περιορισμούς τους.

Εκπληκτικό γεγονός

Η Ευρωπαϊκή Ένωση έχει ταξινομήσει το λογισμικό πρόσληψης με τεχνητή νοημοσύνη και τα εργαλεία αξιολόγησης απόδοσης ως «υψηλού κινδύνου» στο νέο της προσχέδιο νομικό πλαίσιο για την τεχνητή νοημοσύνη, που σημαίνει ότι τα εργαλεία θα υπόκεινται σε περισσότερο έλεγχο και θα πρέπει να πληρούν ορισμένες απαιτήσεις συμμόρφωσης.

Περισσότερες Πληροφορίες

Η DC θέλει να ηγηθεί της καταπολέμησης της προκατάληψης της τεχνητής νοημοσύνης (Άξιος)

Πηγή: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/