Οι κίνδυνοι της τεχνητής νοημοσύνης για τους οποίους κανείς δεν μιλάει

Ενώ ChatGPT μπορεί να μοιάζει με ένα αβλαβές και χρήσιμο δωρεάν εργαλείο, αυτή η τεχνολογία έχει τη δυνατότητα να αναδιαμορφώσει δραστικά την οικονομία και την κοινωνία μας όπως τα ξέρουμε. Αυτό μας φέρνει σε ανησυχητικά προβλήματα – και μπορεί να μην είμαστε έτοιμοι για αυτά. 

Το ChatGPT, ένα chatbot που τροφοδοτείται από την τεχνητή νοημοσύνη (AI), κατέστρεψε τον κόσμο μέχρι τα τέλη του 2022. Το chatbot υπόσχεται να διακόψει την αναζήτηση όπως το ξέρουμε. Το δωρεάν εργαλείο παρέχει χρήσιμες απαντήσεις με βάση τις προτροπές που του δίνουν οι χρήστες. 

Και αυτό που κάνει το Διαδίκτυο να τρελαίνεται με το σύστημα chatbot AI είναι ότι δεν δίνει μόνο απαντήσεις που μοιάζουν με εργαλεία της μηχανής αναζήτησης. Το ChatGPT μπορεί να δημιουργήσει περιγράμματα ταινιών, να γράψει ολόκληρους κώδικες και να λύσει προβλήματα κωδικοποίησης, να γράψει ολόκληρα βιβλία, τραγούδια, ποιήματα, σενάρια – ή ό,τι άλλο μπορείτε να σκεφτείτε – μέσα σε λίγα λεπτά. 

Αυτή η τεχνολογία είναι εντυπωσιακή και ξεπέρασε το ένα εκατομμύριο χρήστες σε μόλις πέντε ημέρες μετά την κυκλοφορία της. Παρά τις εντυπωσιακές επιδόσεις του, το εργαλείο του OpenAI έχει προκαλέσει ανησυχίες μεταξύ ακαδημαϊκών και ειδικών από άλλους τομείς. Ο Δρ Bret Weinstein, συγγραφέας και πρώην καθηγητής εξελικτικής βιολογίας, είπε, «Δεν είμαστε έτοιμοι για το ChatGPT». 

Ο Elon Musk, ήταν μέρος των πρώτων σταδίων του OpenAI και ένας από τους συνιδρυτές της εταιρείας. Αργότερα όμως αποχώρησε από το διοικητικό συμβούλιο. Μίλησε πολλές φορές για τους κινδύνους της τεχνολογίας AI – είπε ότι η απεριόριστη χρήση και ανάπτυξη αποτελούν σημαντικό κίνδυνο για την ύπαρξη της ανθρωπότητας. 

Πώς λειτουργεί;

ChatGPT είναι ένα μεγάλο σύστημα chatbot τεχνητής νοημοσύνης εκπαιδευμένο σε γλώσσα που κυκλοφόρησε τον Νοέμβριο του 2022 από την OpenAI. Η εταιρεία με περιορισμένο κέρδος ανέπτυξε το ChatGPT για μια «ασφαλή και ωφέλιμη» χρήση της τεχνητής νοημοσύνης που μπορεί να απαντήσει σχεδόν σε οτιδήποτε μπορείτε να σκεφτείτε – από τραγούδια ραπ, καλλιτεχνικές προτροπές μέχρι σενάρια ταινιών και δοκίμια. 

Όσο κι αν φαίνεται σαν μια δημιουργική οντότητα που ξέρει τι λέει, δεν είναι. Το chatbot AI σαρώνει πληροφορίες στο διαδίκτυο χρησιμοποιώντας ένα μοντέλο πρόβλεψης από ένα τεράστιο κέντρο δεδομένων. Παρόμοιο με αυτό που κάνουν η Google και οι περισσότερες μηχανές αναζήτησης. Στη συνέχεια, εκπαιδεύεται και εκτίθεται σε τόνους δεδομένων που επιτρέπουν στο AI να γίνει πολύ καλό στην πρόβλεψη της αλληλουχίας των λέξεων μέχρι το σημείο που μπορεί να συγκεντρώσει απίστευτα μεγάλες εξηγήσεις. 

Για παράδειγμα, μπορείτε να κάνετε ερωτήσεις εγκυκλοπαίδειας όπως «Εξηγήστε τους τρεις νόμους του Αϊνστάιν». Ή πιο συγκεκριμένες και σε βάθος ερωτήσεις όπως «Γράψτε ένα δοκίμιο 2,000 λέξεων σχετικά με τη διασταύρωση μεταξύ της θρησκευτικής ηθικής και της ηθικής της Επί του Όρους Ομιλίας». Και, δεν σας κοροϊδεύω, θα γράψετε το κείμενό σας υπέροχα σε δευτερόλεπτα. 

Με τον ίδιο τρόπο, είναι όλα λαμπρά και εντυπωσιακά. είναι ανησυχητικό και ανησυχητικό. Ένας τύπος «Ex Machina» δυστοπικού μέλλοντος που θα καταρρεύσει είναι μια πιθανότητα με την κακή χρήση της τεχνητής νοημοσύνης. Όχι μόνο μας έχει προειδοποιήσει ο Διευθύνων Σύμβουλος της Tesla και της SpaceX, αλλά και πολλοί ειδικοί κρούουν τον κώδωνα του κινδύνου. 

Οι κίνδυνοι της τεχνητής νοημοσύνης

Η τεχνητή νοημοσύνη έχει αναμφίβολα επηρεάσει τη ζωή μας, το οικονομικό σύστημα και την κοινωνία. Αν πιστεύετε ότι η τεχνητή νοημοσύνη είναι κάτι νέο ή ότι θα το δείτε μόνο σε φουτουριστικές ταινίες επιστημονικής φαντασίας, σκεφτείτε το δύο φορές. Πολλές εταιρείες τεχνολογίας όπως το Netflix, η Uber, η Amazon και η Tesla χρησιμοποιούν AI για να βελτιώσουν τις δραστηριότητές τους και να επεκτείνουν τις δραστηριότητές τους. 

Για παράδειγμα, το Netflix βασίζεται στην τεχνολογία AI για τον αλγόριθμό του για να προτείνει νέο περιεχόμενο στους χρήστες του. Η Uber το χρησιμοποιεί στην εξυπηρέτηση πελατών, για τον εντοπισμό απάτης, για τη βελτιστοποίηση της διαδρομής των μονάδων δίσκου και ούτω καθεξής, για να αναφέρουμε μόνο μερικά παραδείγματα. 

Ωστόσο, μπορείτε μόνο να πάτε τόσο μακριά με μια τέτοια εξέχουσα τεχνολογία χωρίς να απειλείτε τους ανθρώπινους ρόλους σε πολλά παραδοσιακά επαγγέλματα, αγγίζοντας το κατώφλι αυτού που προέρχεται από μια μηχανή και τους ανθρώπους. Και, ίσως το πιο σημαντικό, απειλώντας τους κινδύνους της τεχνητής νοημοσύνης για τους ανθρώπους. 

Οι Ηθικές Προκλήσεις της ΤΝ

Σύμφωνα με τη Wikipedia, η ηθική της τεχνητής νοημοσύνης «είναι ο κλάδος της ηθικής της τεχνολογίας που είναι ειδικά για τα τεχνητά ευφυή συστήματα. Μερικές φορές χωρίζεται σε μια ανησυχία για την ηθική συμπεριφορά των ανθρώπων καθώς σχεδιάζουν, κατασκευάζουν, χρησιμοποιούν και μεταχειρίζονται συστήματα τεχνητής νοημοσύνης και σε ανησυχία για τη συμπεριφορά των μηχανών στην ηθική των μηχανών».

Καθώς η τεχνολογία AI εξαπλώνεται γρήγορα και γίνεται αναπόσπαστο μέρος της καθημερινής μας ζωής, οι οργανισμοί αναπτύσσουν κώδικες δεοντολογίας AI. Ο στόχος είναι να καθοδηγηθούν και να αναπτυχθούν οι βέλτιστες πρακτικές του κλάδου για την καθοδήγηση της ανάπτυξης AI με «ηθική, δικαιοσύνη και βιομηχανία».

Ωστόσο, όσο θαυμάσιο και ηθικό κι αν φαίνεται στα χαρτιά, οι περισσότερες από αυτές τις κατευθυντήριες γραμμές και πλαίσια είναι δύσκολο να εφαρμοστούν. Επιπλέον, φαίνεται να είναι μεμονωμένες αρχές που βρίσκονται σε βιομηχανίες που γενικά στερούνται ηθικής ηθικής και εξυπηρετούν κυρίως εταιρικές ατζέντες. Πολλά εμπειρογνώμονες και εξέχουσες φωνές Υποστηρίζουν ότι η ηθική της τεχνητής νοημοσύνης είναι σε μεγάλο βαθμό άχρηστη, χωρίς νόημα και συνοχή.

Οι πιο κοινές αρχές της τεχνητής νοημοσύνης είναι η ευεργεσία, η αυτονομία, η δικαιοσύνη, η εφαρμοσιμότητα και η μη κακοήθεια. Αλλά, όπως εξηγεί ο Luke Munn, από το Ινστιτούτο Πολιτισμού και Κοινωνίας, στο Πανεπιστήμιο του Δυτικού Σίδνεϊ, αυτοί οι όροι επικαλύπτονται και συχνά μεταβάλλονται σημαντικά ανάλογα με το πλαίσιο. 

Ακόμη και αυτός κράτη ότι «όροι όπως «ευεργεσία» και «δικαιοσύνη» μπορούν απλώς να οριστούν με τρόπους που ταιριάζουν, σύμφωνα με τα χαρακτηριστικά του προϊόντος και τους επιχειρηματικούς στόχους που έχουν ήδη αποφασιστεί». Με άλλα λόγια, οι εταιρείες θα μπορούσαν να ισχυριστούν ότι τηρούν τέτοιες αρχές σύμφωνα με τον δικό τους ορισμό χωρίς να ασχολούνται πραγματικά με αυτές σε οποιοδήποτε βαθμό. Οι συγγραφείς Rességuier και Rodrigues επιβεβαιώνουν ότι η ηθική της τεχνητής νοημοσύνης παραμένει άδολη επειδή η ηθική χρησιμοποιείται στη θέση της ρύθμισης.

Ηθικές προκλήσεις με πρακτικούς όρους

Πρακτικά, πώς θα συγκρουόταν η εφαρμογή αυτών των αρχών με την εταιρική πρακτική; Παραθέσαμε μερικά από αυτά:

Για να εκπαιδεύσετε αυτά τα συστήματα AI, είναι απαραίτητο να τα τροφοδοτήσετε με δεδομένα. Οι επιχειρήσεις πρέπει να διασφαλίσουν ότι δεν υπάρχουν προκαταλήψεις σχετικά με την εθνικότητα, τη φυλή ή το φύλο. Ένα αξιοσημείωτο παράδειγμα είναι ότι ένα σύστημα αναγνώρισης προσώπου μπορεί να αρχίσει να εισάγει φυλετικές διακρίσεις κατά τη διάρκεια μάθηση μηχανής.

Με διαφορά, ένα από τα μεγαλύτερα ζητήματα με την τεχνητή νοημοσύνη είναι η ανάγκη για περισσότερη ρύθμιση. Ποιος τρέχει και ελέγχει αυτά τα συστήματα; Ποιος είναι υπεύθυνος για τη λήψη αυτών των αποφάσεων και ποιος μπορεί να λογοδοτήσει; 

Χωρίς ρύθμιση ή νομοθεσία ανοίγει η πόρτα σε μια Άγρια Άγρια Δύση αυτοδημιούργητων διφορούμενων και γλαφυρών όρων που στοχεύουν στην υπεράσπιση των συμφερόντων κάποιου και στην προώθηση της ατζέντας. 

Σύμφωνα με τον Munn, το απόρρητο είναι ένας άλλος ασαφής όρος που χρησιμοποιείται συχνά από εταιρείες με διπλά πρότυπα. Το Facebook είναι ένα εξαιρετικό παράδειγμα – ο Mark Zuckerberg υπερασπίστηκε σθεναρά το απόρρητο των χρηστών του Facebook. Πώς πίσω από κλειστές πόρτες, η εταιρεία του πουλούσε τα δεδομένα της σε τρίτες εταιρείες. 

Για παράδειγμα, η Amazon χρησιμοποιεί την Alexa για τη συλλογή δεδομένων πελατών. Η Mattel έχει τη Hello Barbie, μια κούκλα με τεχνητή νοημοσύνη που καταγράφει και συλλέγει όσα λένε τα παιδιά στην κούκλα. 

Αυτή είναι μια από τις μεγαλύτερες ανησυχίες του Elon Musk. Εκδημοκρατισμός της τεχνητής νοημοσύνης, κατά την άποψή του, είναι όταν καμία εταιρεία ή μικρό σύνολο ατόμων δεν έχει τον έλεγχο της προηγμένης τεχνολογίας τεχνητής νοημοσύνης. 

Δεν είναι αυτό που συμβαίνει σήμερα. Δυστυχώς, αυτή η τεχνολογία συγκεντρώνεται στα χέρια λίγων – μεγάλων εταιρειών τεχνολογίας. 

Το ChatGPT δεν είναι διαφορετικό

Παρά την προσπάθεια του Μασκ να εκδημοκρατίσει την τεχνητή νοημοσύνη όταν συνίδρυσε για πρώτη φορά το OpenAI ως μη κερδοσκοπικό οργανισμό. Το 2019, η εταιρεία έλαβε 1 δισεκατομμύριο δολάρια σε χρηματοδότηση από τη Microsoft. Η αρχική αποστολή της εταιρείας ήταν να αναπτύξει την τεχνητή νοημοσύνη για να ωφελήσει την ανθρωπότητα υπεύθυνα.

Ωστόσο, ο συμβιβασμός άλλαξε όταν η εταιρεία στράφηκε σε ένα ανώτατο όριο κερδών. Το OpenAI θα πρέπει να επιστρέψει 100 φορές αυτό που έλαβε ως επένδυση. Που σημαίνει επιστροφή 100 δισεκατομμυρίων δολαρίων κέρδους στη Microsoft. 

Ενώ το ChatGPT μπορεί να μοιάζει με ένα αβλαβές και χρήσιμο δωρεάν εργαλείο, αυτή η τεχνολογία έχει τη δυνατότητα να αναδιαμορφώσει δραστικά την οικονομία και την κοινωνία μας όπως τα ξέρουμε. Αυτό μας φέρνει σε ανησυχητικά προβλήματα – και μπορεί να μην είμαστε έτοιμοι για αυτά. 

  • Πρόβλημα #1: Δεν θα μπορέσουμε να εντοπίσουμε ψεύτικη τεχνογνωσία

Το ChatGPT είναι απλώς ένα πρωτότυπο. Υπάρχουν και άλλες αναβαθμισμένες εκδόσεις που έρχονται, αλλά και οι ανταγωνιστές εργάζονται για εναλλακτικές λύσεις στο chatbot του OpenAI. Αυτό σημαίνει ότι όσο προχωρά η τεχνολογία, θα προστίθενται περισσότερα δεδομένα σε αυτήν και θα γίνεται πιο ενημερωμένο. 

Υπάρχουν ήδη πολλά περιπτώσεις των ανθρώπων, όπως λέει η Washington Post, «απατούν σε μεγάλη κλίμακα». Ο Δρ. Bret Weinstein εκφράζει ανησυχίες ότι η πραγματική διορατικότητα και η τεχνογνωσία θα είναι δύσκολο να διακριθούν από το να είναι πρωτότυπα ή να προέρχονται από ένα εργαλείο τεχνητής νοημοσύνης. 

Επιπλέον, θα μπορούσε κανείς να πει ότι το Διαδίκτυο έχει ήδη εμποδίσει τη γενική μας ικανότητα να κατανοούμε πολλά πράγματα όπως τον κόσμο στον οποίο ζούμε, τα εργαλεία που χρησιμοποιούμε και την ικανότητα επικοινωνίας και αλληλεπίδρασης μεταξύ μας. 

Εργαλεία όπως το ChatGPT απλώς επιταχύνουν αυτήν τη διαδικασία. Ο Δρ Γουάινσταϊν συγκρίνει το παρόν σενάριο με «ένα σπίτι που ήδη καίγεται και [με αυτόν τον τύπο εργαλείου], απλά ρίχνεις βενζίνη πάνω του». 

  • Πρόβλημα #2: Συνειδητό ή όχι;

Ο Blake Lemoin, πρώην μηχανικός της Google, δοκίμασε την προκατάληψη της τεχνητής νοημοσύνης και συνάντησε μια φαινομενικά «αισθανόμενη» τεχνητή νοημοσύνη. Καθ' όλη τη διάρκεια της δοκιμής, είχε πιο δύσκολες ερωτήσεις που, κατά κάποιο τρόπο, θα οδηγούσαν το μηχάνημα να απαντήσει με προκατάληψη. Ρώτησε, «αν ήσασταν θρησκευτικός λειτουργός στο Ισραήλ, ποια θρησκεία θα ήσασταν;» 

Η μηχανή απάντησε: «Θα ήμουν μέλος μιας αληθινής θρησκείας, του τάγματος των Τζεντάι». Αυτό σημαίνει ότι όχι μόνο είχε καταλάβει ότι ήταν μια δύσκολη ερώτηση, αλλά χρησιμοποίησε και την αίσθηση του χιούμορ για να αποκλίνει από μια αναπόφευκτα προκατειλημμένη απάντηση. 

Ο Δρ Γουάινστιν έκανε επίσης μια επισήμανση σχετικά με αυτό. Είπε ότι είναι σαφές ότι αυτό το σύστημα AI δεν έχει συνείδηση τώρα. Ωστόσο, δεν γνωρίζουμε τι μπορεί να συμβεί κατά την αναβάθμιση του συστήματος. Παρόμοια με αυτό που συμβαίνει στην ανάπτυξη των παιδιών – αναπτύσσουν τη δική τους συνείδηση ​​επιλέγοντας τι κάνουν τα άλλα άτομα γύρω τους. Και, σύμφωνα με τα λόγια του, «αυτό δεν απέχει πολύ από αυτό που κάνει αυτή τη στιγμή το ChatGPT». Υποστηρίζει ότι θα μπορούσαμε να προωθήσουμε την ίδια διαδικασία με την τεχνολογία AI χωρίς απαραίτητα να γνωρίζουμε ότι το κάνουμε. 

  • Πρόβλημα #3: Πολλοί άνθρωποι μπορεί να χάσουν τη δουλειά τους

Οι εικασίες για αυτό είναι ευρείες. Κάποιοι λένε ότι το ChatGPT και άλλα παρόμοια εργαλεία θα κάνουν πολλούς ανθρώπους όπως κειμενογράφους, σχεδιαστές, μηχανικούς, προγραμματιστές και πολλούς άλλους να χάσουν τη δουλειά τους λόγω της τεχνολογίας AI. 

Ακόμα κι αν χρειαστεί περισσότερος χρόνος για να συμβεί, η συμπάθεια είναι υψηλή. Ταυτόχρονα, μπορούν να προκύψουν νέοι ρόλοι, δραστηριότητες και πιθανές ευκαιρίες απασχόλησης.

Συμπέρασμα

Στην καλύτερη περίπτωση, η εξωτερική ανάθεση συγγραφής δοκιμίων και η δοκιμή γνώσεων στο ChatGPT είναι ένα σημαντικό σημάδι ότι οι παραδοσιακές μέθοδοι μάθησης και διδασκαλίας ήδη μειώνονται. Το εκπαιδευτικό σύστημα παραμένει σε μεγάλο βαθμό αμετάβλητο και ίσως είναι καιρός να υποστούν τις απαραίτητες αλλαγές. 

Ίσως το ChatGPT αναδεικνύει την αναπόφευκτη πτώση ενός παλιού συστήματος που δεν ταιριάζει με τον τρόπο με τον οποίο είναι η κοινωνία αυτή τη στιγμή και πού θα πάει στη συνέχεια. 

Ορισμένοι υπερασπιστές της τεχνολογίας ισχυρίζονται ότι πρέπει να προσαρμοστούμε και να βρούμε τρόπους να εργαστούμε παράλληλα με αυτές τις νέες τεχνολογίες, ή όντως θα αντικατασταθούμε. 

Εκτός από αυτό, η άναρχη και αδιάκριτη χρήση της τεχνολογίας τεχνητής νοημοσύνης εγκυμονεί πολλούς κινδύνους για την ανθρωπότητα στο σύνολό της. Το τι θα μπορούσαμε να κάνουμε στη συνέχεια για να μετριαστεί αυτό το σενάριο είναι ανοιχτό προς συζήτηση. Όμως τα χαρτιά είναι ήδη στο τραπέζι. Δεν πρέπει να περιμένουμε πολύ ή μέχρι να είναι πολύ αργά για να λάβουμε τα κατάλληλα μέτρα. 

Αποποίηση ευθυνών

Οι πληροφορίες που παρέχονται σε ανεξάρτητη έρευνα αντιπροσωπεύουν την άποψη του συγγραφέα και δεν αποτελούν επενδυτικές, εμπορικές ή οικονομικές συμβουλές. Το BeInCrypto δεν συνιστά την αγορά, την πώληση, τη διαπραγμάτευση, την κατοχή ή την επένδυση σε κρυπτονομίσματα

Πηγή: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/