Ποια είναι η ενημερωμένη πολιτική του Πενταγώνου για τα Killer Robots;

Το Πεντάγωνο εξέδωσε ενημέρωση της Οδηγίας 3000.09, το οποίο καλύπτει αυτό που ορίζουν Αυτονομία στα οπλικά συστήματα και άλλοι φωνάζουν "ρομπότ δολοφόνων.' Τρέχοντα drones όπως η Πολεμική Αεροπορία και η CIA MQ-9 Reapers χειρίζονται με τηλεχειρισμό: ένας άνθρωπος κάθεται μπροστά σε μια οθόνη βίντεο εντοπίζει στόχους στο έδαφος χιλιάδες μίλια μακριά, τους τοποθετεί στο στόχαστρο και απελευθερώνει ένα Πύραυλος Hellfire ή άλλο όπλο. Τα αυτόνομα όπλα είναι διαφορετικά: επιλέγουν τους δικούς τους στόχους χωρίς ανθρώπινη παρέμβαση. Απαιτούνται σαφείς κανόνες για το πότε και πώς μπορούν να χρησιμοποιηθούν, και η νέα οδηγία τους φέρνει ένα βήμα πιο κοντά.

Πριν από δέκα χρόνια, όταν κυκλοφόρησε η πρώτη έκδοση του 3000.09, τα αυτόνομα όπλα έμοιαζαν με επιστημονική φαντασία. Τώρα είναι πολύ αληθινά. Ο ΟΗΕ ισχυρίστηκε ότι Τα τουρκικά μη επανδρωμένα αεροσκάφη επιτέθηκαν σε στόχους αυτόνομα στη Λιβύη το 2020 και η Ρωσία αναπτύσσει τώρα περιπλανώμενα πυρομαχικά στην Ουκρανία με αυτόνομη ικανότητα.

Πολλοί ακτιβιστές, όπως ο Εκστρατεία για να σταματήσουμε τα ρομπότ δολοφόνων, επιθυμούν την πλήρη απαγόρευση των αυτόνομων όπλων, επιμένοντας ότι οποιοδήποτε απομακρυσμένο όπλο παραμένει κάτω ουσιαστικό ανθρώπινο έλεγχο όλες τις στιγμές. Ο ΟΗΕ έχει συζητήσει πώς να το κάνει ελέγχουν τέτοια όπλα για πολλά χρόνια.

Ωστόσο, όπως καθιστά σαφές η νέα οδηγία, το Πεντάγωνο εμμένει σε διαφορετική γραμμή.

«Το Υπουργείο Άμυνας αντιτάχθηκε σταθερά σε ένα πρότυπο πολιτικής «ουσιαστικού ανθρώπινου ελέγχου» όσον αφορά τόσο τα αυτόνομα συστήματα όσο και τα συστήματα τεχνητής νοημοσύνης». Γρηγόρης Άλεν, διευθυντής του Project on AI Governance στο Κέντρο Στρατηγικών και Διεθνών Σπουδών, μου είπε. «Ο προτιμώμενος όρος τέχνης του Υπουργείου Άμυνας είναι «κατάλληλα επίπεδα ανθρώπινης κρίσης», που αντικατοπτρίζει το γεγονός ότι σε ορισμένες περιπτώσεις – αυτόνομα αεροσκάφη επιτήρησης και ορισμένα είδη αυτόνομων όπλων στον κυβερνοχώρο, για παράδειγμα – το κατάλληλο επίπεδο ανθρώπινου ελέγχου μπορεί να είναι ελάχιστο έως καθόλου .»

Ποια αυτόνομα όπλα θα επιτρέπονταν υπό ποιες συνθήκες; Ο Άλεν πιστεύει ότι η προηγούμενη έκδοση της οδηγίας ήταν τόσο ασαφής που αποθάρρυνε οποιαδήποτε εξέλιξη σε αυτόν τον τομέα.

«Η σύγχυση ήταν τόσο διαδεδομένη - συμπεριλαμβανομένων ορισμένων ανώτερων ηγετών του Υπουργείου Άμυνας - που οι αξιωματούχοι απέφευγαν από την ανάπτυξη ορισμένων συστημάτων που όχι μόνο επιτρέπονταν από την πολιτική, αλλά εξαιρούνταν ρητά από την απαίτηση ανώτερης αξιολόγησης», λέει ο Άλεν.

Ούτε ένα όπλο δεν έχει υποβληθεί στη διαδικασία αναθεώρησης για αυτόνομα όπλα που ορίζεται στο αρχικό 3000.09 τα δέκα χρόνια από τη δημοσίευσή του.

Ο Άλεν έγραψε ένα δοκίμιο για αυτό για το CSIS πέρυσι, περιγράφοντας τέσσερις τομείς που χρειάζονταν δουλειά – ορίζοντας επίσημα αυτόνομα οπλικά συστήματα, λέγοντας τι σημαίνει για την πολιτική η «ενεργοποιημένη με AI», πώς θα χειριστεί η διαδικασία αναθεώρησης την επανεκπαίδευση μοντέλων μηχανικής μάθησης και διευκρινίζοντας ποιοι τύποι όπλων απαιτούν περάσουν από την επίπονη διαδικασία αναθεώρησης.

«Το Υπουργείο Εξωτερικών τα έχει εφαρμόσει όλα», λέει ο Άλεν.

Κατ' αρχήν, λοιπόν, αυτό θα πρέπει να διασφαλίζει αυτό που το Υπουργείο Άμυνας ορίζει «ισχυρή και συνεχή δέσμευση να είναι διαφανής παγκόσμιος ηγέτης στη θέσπιση υπεύθυνων πολιτικών σχετικά με τις στρατιωτικές χρήσεις αυτόνομων συστημάτων».

Ωστόσο, υπάρχουν ορισμένες προσθήκες που μπορεί να θεωρηθούν παραθυράκια, όπως μια εξαίρεση από την ανώτερη αξιολόγηση για αυτόνομα όπλα υπεράσπισης drones που δεν στοχεύουν ανθρώπους («όπλα κατά υλικού») και στα οποία θα επιτρέπεται να στοχεύουν πυραύλους, άλλα drones και ενδεχομένως άλλα συστήματα.

«Η λέξη «άμυνα» κάνει πολλή δουλειά», Ζακ Κάλενμπορν, μου είπε ένας συνεργάτης της πολιτικής στο Schar School of Policy and Government στο Πανεπιστήμιο George Mason. «Εάν ένα drone λειτουργεί σε εχθρικό έδαφος, σχεδόν οποιοδήποτε όπλο θα μπορούσε να ερμηνευθεί ως «υπεράσπιση» της πλατφόρμας».

Ο Kallenborn σημειώνει επίσης ότι ενώ χρησιμοποιούνται αποτελεσματικά αυτόνομα όπλα όπως οι νάρκες ξηράς για περισσότερο από έναν αιώνα, το τοπίο αλλάζει γρήγορα λόγω της προόδου στην τεχνητή νοημοσύνη και της συγκεκριμένης μηχανικής μάθησης. Αυτά έχουν οδηγήσει σε συστήματα που είναι πολύ ικανά, αλλά τεχνικά εύθραυστο – όταν αποτυγχάνουν, αποτυγχάνουν θεαματικά με τρόπους που κανένας άνθρωπος, για παράδειγμα παρεξηγώντας μια χελώνα με ένα τουφέκι.

«Η αυτονομία μέσω της τεχνητής νοημοσύνης αξίζει σίγουρα περισσότερη ανησυχία, δεδομένης της ευθραυστότητας και της έλλειψης επεξήγησης των κυρίαρχων προσεγγίσεων», λέει ο Kallenborn.

Η ενημέρωση δεν είναι μεγάλη. Όμως δείχνει τη συνεχή δέσμευση του Πενταγώνου για την ανάπτυξη αποτελεσματικών αυτόνομων όπλων και την πεποίθηση ότι μπορούν να συμμορφωθούν με του διεθνούς ανθρωπιστικού δικαίου — διάκριση των πολιτών από το στρατιωτικό προσωπικό, επιδίωξη αποφυγής βλάβης αμάχων και μόνο χρήση ανάλογης και αναγκαίας βίας.

Οι υπεύθυνοι της εκστρατείας πιστεύουν ότι η τεχνητή νοημοσύνη δεν θα έχει την απαραίτητη κατανόηση για να κάνει ηθικές κρίσεις σε καιρό πολέμου και κινδυνεύει να δημιουργήσει έναν κόσμο όπου ο πόλεμος είναι αυτοματοποιημένος και οι άνθρωποι δεν έχουν πλέον τον έλεγχο. Άλλοι πιστεύουν ότι ο αμερικανικός στρατός θα είναι ξεπερνιέται από τους αντιπάλους με αυτόνομα όπλα εκτός εάν η τεχνητή νοημοσύνη ενσωματωθεί σε τακτικό επίπεδο και αυτή η υπερβολική ανθρώπινη εμπλοκή επιβραδύνει τα στρατιωτικά ρομπότ.

Το επιχείρημα είναι πιθανό να συνεχιστεί ακόμη και όταν αρχίζουν να εμφανίζονται αυτόνομα όπλα και τα αποτελέσματα θα παρακολουθούνται στενά. Είτε έτσι είτε αλλιώς, φαίνεται ότι τα ρομπότ δολοφόνοι έρχονται.

Πηγή: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/