Ηθική τεχνητής νοημοσύνης που παλεύει με το φλογερό ένα-δύο γροθιά και των δύο αυτόνομων συστημάτων όπλων που βασίζονται σε τεχνητή νοημοσύνη και την εκμετάλλευση αυτόνομων συστημάτων που οδηγούνται από AI που είναι διαβολικά οπλισμένα

Αυτά τα καταπληκτικά χορευτικά τετράποδα ρομπότ.

Είμαι βέβαιος ότι έχετε δει αυτά τα viral βίντεο των τετράποδων ρομποτικών συστημάτων που χορεύουν και γλεντούν με φαινομενικά απολαυστικούς και αγαπημένους τρόπους σαν σκύλους. Φαίνεται ότι απολαμβάνουμε να βλέπουμε αυτά τα ρομπότ που οδηγούνται από AI καθώς σκαρφαλώνουν πάνω από εμπόδια και φαίνεται να αποκτούν μια λεπτή βάση όταν σκαρφαλώνουν πάνω από κουτιά ή αφού έχουν τοποθετηθεί επισφαλώς σε άβολα πάνω από ντουλάπια. Οι ανθρώπινοι χειριστές τους κατά καιρούς σπρώχνουν ή σπρώχνουν τα τρελά τετράποδα ρομπότ, κάτι που φαίνεται εξωφρενικά άδικο και μπορεί εύκολα να προκαλέσει την οργή σας για την ωμή μεταχείριση αυτών των εγκέφαλων ανθρωποειδή.

Αναρωτιέμαι όμως αν έχετε δει τα όχι και τόσο ιογενή βίντεο ενός εντελώς διαφορετικού διαμετρήματος.

Προετοίμασε τον εαυτό σου.

Υπάρχουν ευρέως δημοσιευμένα βίντεο που δείχνουν το ίδιο είδος τετράποδων ρομπότ που έχουν εξοπλιστεί με έντονα όπλα του ενός ή του άλλου είδους.

Για παράδειγμα, ένα πολυβόλο ή παρόμοιο πυροβόλο όπλο είναι τοποθετημένο πάνω από ένα κατά τα άλλα γνώριμο ρομπότ που χορεύει και χορεύει. Υπάρχει μια ηλεκτρονική σύνδεση μεταξύ του τετράποδου ρομπότ και του μηχανισμού πυροδότησης του όπλου. Το πλέον οπλισμένο εργαλείο που περπατά με υπολογιστή φαίνεται να βαδίζει προς το σημείο που έχει τοποθετηθεί ένας στόχος bullseye και το πολυβόλο εκτοξεύεται άγρια ​​κατά του στόχου. Αφού καρφώσει τον στη συνέχεια μερικώς κατεστραμμένο στόχο, το τετράποδο ρομπότ χορεύει και κάνει πλάκες γύρω από κοντινά εμπόδια και παρατάσσεται για να επαναλάβει την ίδια ενέργεια ξανά και ξανά σε άλλους νέους στόχους.

Όχι ακριβώς αυτό που θα περίμενες να δεις. Αυτό σίγουρα αφαιρεί την ανάλαφρη καρδιά και τη σχετική χαρά από το να παρακολουθείς ειλικρινά αυτά τα φιλικά τετράποδα ρομπότ να κάνουν το δικό τους. Καλώς ήρθατε στη σκληρή πραγματικότητα του φαινομενικά αβλαβής τα αυτόνομα συστήματα μετατρέπονται ή μετατρέπονται σε απότομα οπλισμένα. Με πολύ μεγάλη προσπάθεια, μπορείτε από τη μια μέρα στην άλλη να έχετε ένα θεωρούμενο "μη οπλισμένο" αυτόνομο σύστημα εκ των υστέρων εξοπλισμένο ώστε να περιέχει πλήρη όπλα.

Είναι σχεδόν εύκολο σε ορισμένες περιπτώσεις.

Θα συζητήσω αυτό το έντονα αμφιλεγόμενο θέμα και θα καλύψω τους μάλλον έντονους ενδοιασμούς για την ηθική της τεχνητής νοημοσύνης που προκύπτουν. Θα κάνουμε ένα ταξίδι στα αυτόνομα συστήματα, την τεχνητή νοημοσύνη, τα αυτόνομα οχήματα, τον εξοπλισμό όπλων και μια σειρά από συναφή ζητήματα ηθικής τεχνητής νοημοσύνης. Για τη συνεχή και εκτενή μου κάλυψη της Δεοντολογίας της AI και της Ηθικής ΤΝ, βλ ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για να αναφέρουμε μόνο μερικά.

Ας ξεκινήσουμε με μερικούς θεμελιώδεις λίθους.

Για λόγους συζήτησης, αποδεχτείτε ότι υπάρχουν δύο κύριοι τρόποι για να κατηγοριοποιήσετε τα αυτόνομα συστήματα που έχουν οπλιστεί με όπλα:

1) Αυτόνομα Οπλικά Συστήματα (από το σχεδιασμό)

2) Αυτόνομα Συστήματα που είναι Οπλισμένα (εκ των υστέρων)

Υπάρχει μια σημαντική διαφορά μεταξύ των δύο κατηγοριών.

Στην πρώτη περίπτωση, θα ορίσουμε ένα αυτόνομο οπλικό σύστημα να είναι από την αρχή ένα δημιούργημα ηλεκτρονικών υπολογιστών που προορίζεται σκόπιμα να είναι ένα όπλο. Οι προγραμματιστές είχαν στο μυαλό τους ότι ήθελαν να επινοήσουν ένα όπλο. Η ρητή αναζήτησή τους είναι να παράγουν ένα όπλο. Γνώριζαν ότι μπορούσαν να συνδυάσουν ολοκληρωμένα τα όπλα με τις πιο πρόσφατες τεχνολογίες αυτόνομων συστημάτων. Αυτό είναι ένα όπλο που κινείται πάνω στο κύμα της υψηλής τεχνολογίας που επιτυγχάνει αυτόνομη κίνηση και αυτόνομες ενέργειες (θα το αναλύσω αναλυτικότερα σύντομα).

Αντίθετα, στη δεύτερη περίπτωση, θα εξετάσουμε το θέμα των αυτόνομων συστημάτων που δεν έχουν καμία ιδιαίτερη κλίση προς τα όπλα. Πρόκειται για αυτόνομα συστήματα που αναπτύσσονται για άλλους σκοπούς. Οραματιστείτε ένα αυτόνομο όχημα, όπως ένα αυτόνομο αυτοκίνητο, που θα χρησιμοποιείται για να παρέχει κινητικότητα για όλους και να βοηθά στη μείωση των χιλιάδων ετήσιων θανάτων που συμβαίνουν λόγω οχημάτων που οδηγούν και χειρίζονται άνθρωποι (δείτε την εμπεριστατωμένη κάλυψή μου στο ο σύνδεσμος εδώ). Δεν φαίνεται να λαμβάνεται υπόψη κανένα όπλο για εκείνους τους αισιόδοξους που ενισχύουν τις προσπάθειες της κοινωνίας να βγάλουν τους ανθρώπους πίσω από το τιμόνι και να βάλουν την τεχνητή νοημοσύνη στη θέση του οδηγού.

Αλλά αυτά τα αβλαβή αυτόνομα συστήματα μπορούν να οπλιστούν αν οι άνθρωποι θέλουν να το κάνουν.

Αναφέρομαι σε αυτή τη δεύτερη κατηγορία τότε ως αυτόνομα συστήματα που είναι οπλισμένα. Το αυτόνομο σύστημα κατασκευάστηκε αρχικά και ευσεβώς για έναν πιθανώς μη οπλικό σκοπό. Παρόλα αυτά, η ονειρική αλτρουιστική ελπίδα ανατρέπεται από κάποιον κάπου που έχει την πεποίθηση ότι αυτή η τεχνοτροπία θα μπορούσε να οπλιστεί. Ξαφνικά, το αυτόνομο σύστημα που έμοιαζε φιλικό έχει γίνει ένα θανατηφόρο όπλο με την προσθήκη ετικετών σε κάποια μορφή όπλων (όπως τα τετράποδα ρομπότ που μοιάζουν με σκύλους που αναφέρθηκαν προηγουμένως και έχουν προστεθεί ένα πολυβόλο ή παρόμοιο πυροβόλο όπλο στα χαρακτηριστικά τους) .

Δυστυχώς, οι δύο κατηγορίες καταλήγουν κάπως στο ίδιο μέρος, παρέχοντας δηλαδή τη δυνατότητα χρήσης αυτόνομων συστημάτων για όπλα σε δυνητικά θανατηφόρα βάση.

Η διαδικασία για να φτάσετε σε αυτό το τελικό σημείο είναι πιθανό να είναι διαφορετική.

Για τα πλήρως οπλισμένα αυτόνομα συστήματα που ήταν συνδεδεμένα ως όπλα, οι πτυχές του οπλισμού είναι συνήθως μπροστά και στο κέντρο. Θα μπορούσατε να πείτε ότι οι πτυχές του αυτόνομου συστήματος είναι τυλιγμένες γύρω από τον ακρογωνιαίο λίθο οποιουδήποτε όπλου εξετάζεται. Η διαδικασία σκέψης από τους προγραμματιστές είναι κάπως σύμφωνη με το πώς ένα όπλο μπορεί να εκμεταλλευτεί την εμφάνιση αυτόνομων συστημάτων.

Η άλλη προοπτική συνήθως δεν είναι καθόλου αυτής της νοοτροπίας. Οι προγραμματιστές θέλουν να δημιουργήσουν ένα αυτόνομο σύστημα τελευταίας τεχνολογίας, ίσως για τη βελτίωση της ανθρωπότητας. Αυτοί οι προγραμματιστές έβαλαν την πιο ειλικρινή τους καρδιά και την ψυχή τους στη δημιουργία του αυτόνομου συστήματος. Αυτός είναι ο πυρήνας της εφεύρεσής τους. Ίσως δεν φανταζόντουσαν ότι κάποιος θα σφετεριστεί ή θα ανέτρεπε τη θαυματουργικά ευεργετική συσκευή τους. Είναι μακάρια ερωτευμένοι με τα κοινωνικά οφέλη που συνδέονται με το αυτόνομο σύστημα που διαμορφώνεται και παράγεται.

Κάποια στιγμή, ας πούμε ότι οι τρίτοι αντιλαμβάνονται ότι το αυτόνομο σύστημα μπορεί να επανασχεδιαστεί για να οπλιστεί. Ίσως ξεγελάσουν τους προγραμματιστές για να τους αφήσουν να έχουν το αυτόνομο σύστημα για υψηλούς σκοπούς. Πίσω από κλειστές πόρτες, αυτοί οι κακοποιοί επιλέγουν να προσθέσουν κρυφά μια ικανότητα οπλισμού στο αυτόνομο σύστημα. Voila, η αθωότητα μετατράπηκε σε καθαρό όπλο.

Τα πράγματα δεν χρειάζεται να εξελιχθούν με αυτόν τον τρόπο.

Ίσως ειπώθηκε στους προγραμματιστές ότι ανέπτυξαν ένα αθώο αυτόνομο σύστημα, ωστόσο όσοι χρηματοδοτούσαν ή κατευθύνουν την προσπάθεια είχαν άλλους σκοπούς στο μυαλό τους. Ίσως η προσπάθεια του αυτόνομου συστήματος να ξεκίνησε όντως αθώα, αλλά στη συνέχεια, όταν έπρεπε να πληρωθούν οι λογαριασμοί, η ηγεσία έκοψε συμφωνία με μια πηγή χρηματοδότησης που θέλει τα αυτόνομα συστήματα για κακόβουλους λόγους. Μια άλλη πιθανότητα είναι ότι οι προγραμματιστές γνώριζαν ότι μια μεταγενέστερη χρήση μπορεί να ήταν για όπλα, αλλά ότι κατάλαβαν ότι θα διέσχιζαν αυτήν την οδυνηρή γέφυρα όταν ή αν εμφανιζόταν ποτέ. Και τα λοιπά.

Υπάρχουν πολλά και πολλά διαφορετικά μονοπάτια για το πώς όλα αυτά παίζονται.

Μπορεί να βρείτε ενδιαφέρον που έχω περιγράψει σε προηγούμενες στήλες ότι υπάρχει αυξανόμενη ευαισθητοποίηση σχετικά με την ηθική της τεχνητής νοημοσύνης διπλή χρήση στοιχεία της σύγχρονης τεχνητής νοημοσύνης, βλ ο σύνδεσμος εδώ. Επιτρέψτε μου να σας ενημερώσω εν συντομία.

Ένα σύστημα τεχνητής νοημοσύνης που οραματίζεται το καλό μπορεί μερικές φορές να είναι στα πρόθυρα του κακού, ίσως μέσω κάποιων μάλλον απλών αλλαγών, και αντίστοιχα να θεωρείται ότι έχει χαρακτήρα διπλής χρήσης. Στις ειδήσεις πρόσφατα ήταν ένα σύστημα τεχνητής νοημοσύνης που κατασκευάστηκε για να ανακαλύπτει χημικές ουσίες που μπορεί να είναι δολοφονικές, για τις οποίες οι προγραμματιστές ήθελαν να βεβαιωθούν ότι θα μπορούσαμε να αποφύγουμε ή να είμαστε επιφυλακτικοί με τέτοιες κακοσχεδιασμένες χημικές ουσίες. Αποδεικνύεται ότι η τεχνητή νοημοσύνη θα μπορούσε κάπως εύκολα να τροποποιηθεί για να αποκαλύψει αφοσιωμένα αυτές τις δολοφονικές χημικές ουσίες και έτσι δυνητικά να επιτρέψει στους κακούς να γνωρίζουν τι είδους χημικές ουσίες θα μπορούσαν ενδεχομένως να μαγειρέψουν για τα αβυσσαλέα κακά τους σχέδια.

Τα αυτόνομα συστήματα μπορούν αποδεδειγμένα να ταιριάζουν σε αυτό το περίβλημα διπλής χρήσης.

Σε κάποιο βαθμό, αυτός είναι ο λόγος για τον οποίο η ηθική και η ηθική τεχνητή νοημοσύνη είναι ένα τόσο κρίσιμο θέμα. Οι αρχές της Ηθικής AI μάς κάνουν να παραμένουμε σε επαγρύπνηση. Οι τεχνολόγοι τεχνητής νοημοσύνης μπορεί κατά καιρούς να απασχοληθούν με την τεχνολογία, ιδιαίτερα τη βελτιστοποίηση της υψηλής τεχνολογίας. Δεν εξετάζουν απαραίτητα τις μεγαλύτερες κοινωνικές προεκτάσεις. Το να έχουμε μια νοοτροπία για την ηθική της τεχνητής νοημοσύνης και να το κάνουμε αυτό αναπόσπαστο με την ανάπτυξη και την ανάπτυξη της τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την παραγωγή κατάλληλης τεχνητής νοημοσύνης, συμπεριλαμβανομένης (ίσως παραδόξως ή ειρωνικά) της αξιολόγησης του τρόπου με τον οποίο υιοθετείται η Δεοντολογία AI από τις εταιρείες.

Εκτός από τη χρησιμοποίηση γενικών αρχών ηθικής τεχνητής νοημοσύνης, υπάρχει ένα αντίστοιχο ερώτημα εάν πρέπει να έχουμε νόμους που να διέπουν τις διάφορες χρήσεις της τεχνητής νοημοσύνης. Σε ομοσπονδιακό, πολιτειακό και τοπικό επίπεδο θεσπίζονται νέοι νόμοι που αφορούν το εύρος και τη φύση του τρόπου με τον οποίο θα πρέπει να επινοηθεί η τεχνητή νοημοσύνη. Η προσπάθεια σύνταξης και θέσπισης τέτοιων νόμων είναι σταδιακή. Η ηθική της τεχνητής νοημοσύνης χρησιμεύει ως ένα θεωρούμενο κενό, τουλάχιστον, και είναι σχεδόν βέβαιο ότι σε κάποιο βαθμό θα ενσωματωθεί άμεσα σε αυτούς τους νέους νόμους.

Λάβετε υπόψη ότι ορισμένοι υποστηρίζουν κατηγορηματικά ότι δεν χρειαζόμαστε νέους νόμους που να καλύπτουν την τεχνητή νοημοσύνη και ότι οι υπάρχοντες νόμοι μας είναι επαρκείς. Στην πραγματικότητα, προειδοποιούν ότι εάν θεσπίσουμε ορισμένους από αυτούς τους νόμους για την τεχνητή νοημοσύνη, θα υπονομεύσουμε τη χρυσή χήνα περιορίζοντας τις προόδους στην τεχνητή νοημοσύνη που προσφέρουν τεράστια κοινωνικά πλεονεκτήματα.

Η αυτονομία και το όπλο ως δύο εντολές

Υπάρχει μια συνθηματική φράση που κάποιοι χρησιμοποιούν για να προειδοποιήσουν σχετικά με οπλισμένα αυτόνομα συστήματα κάθε είδους, τα οποία επινοούνται συλλογικά ως σφαγείς.

Αυτό αναδεικνύει μια πρόσθετη πτυχή που πρέπει να εξετάσουμε.

Ένα αυτόνομο οπλικό σύστημα ή/και ένα αυτόνομο σύστημα που έχει οπλιστεί πρέπει να υπερισχύει ενός θανατηφόρου ή φονικού ρομπότ;

Κάποιοι θα υποστήριζαν ότι μπορούμε να έχουμε αποφασιστικά μη θανατηφόρος οπλισμένα αυτόνομα συστήματα επίσης. Επομένως, από αυτή την άποψη, θα φαινόταν βαθιά ακατάλληλη η χρήση φράσεων όπως ρομπότ σφαγής ή ρομπότ δολοφόνων. Μια μη θανατηφόρα παραλλαγή πιθανώς θα μπορούσε να υποτάξει ή να προκαλέσει βλάβη που δεν έχει θανατηφόρο αποτέλεσμα. Αυτά τα συστήματα δεν σκοτώνουν, είναι μικρότερης ικανότητας πρόκλησης τραυματισμών. Μην υπερεκτιμάτε τις ικανότητες, λένε αυτοί που επιμένουν ότι δεν χρειάζεται να ασχολούμαστε με μια απερίγραπτη φονική μηχανή.

Έτσι, μπορεί να έχουμε αυτό:

  • Θανατηφόρα αυτόνομα οπλικά συστήματα
  • Θανατηφόρα αυτόνομα συστήματα που έχουν οπλιστεί
  • Μη θανατηφόρα αυτόνομα οπλικά συστήματα
  • Μη θανατηφόρα αυτόνομα συστήματα που έχουν οπλιστεί

Φυσικά, το αντεπιχείρημα είναι ότι κάθε αυτόνομο σύστημα που έχει οπλιστεί φαίνεται να έχει τη δυνατότητα να γλιστρήσει στη σφαίρα της φονικότητας, ακόμα κι αν υποτίθεται ότι οραματιζόταν μόνο για χρήση σε μη θανατηφόρα βάση. Το σταδιακό δύο βήμα της μετάβασης από το μη θανατηφόρο στο θανατηφόρο θα γίνει γρήγορα μόλις έχετε ήδη στα χέρια σας ένα όπλο μέσα σε ένα αυτόνομο σύστημα. Θα δυσκολευτείτε πολύ να παράσχετε μια σιδερένια εγγύηση ότι ο μη θανατηφόρος δεν θα έχει μπει στη θανατηφόρα αρένα (αν και κάποιοι προσπαθούν να το κάνουν, κατά μια μαθηματική εμφάνιση).

Πριν προχωρήσουμε πολύ περισσότερο σε αυτό το γενικό θέμα των αυτόνομων συστημάτων και της οπλοποίησης, ίσως είναι χρήσιμο να επισημάνουμε κάτι άλλο που αν και ίσως προφανές δεν είναι απαραίτητα ορατά στο μυαλό.

Εδώ είναι:

  • Υπάρχει μια πτυχή της τεχνητής νοημοσύνης που αποτελεί αναπόσπαστο μέρος του αυτόνομου συστήματος
  • Υπάρχει μια όπλα που είναι η οπλική πλευρά αυτής της εξίσωσης
  • Το AI μπορεί επίσης να είναι διασυνδεδεμένο με τα όπλα

Ας το ξεσυσκευάσουμε.

Θα υποθέσουμε ότι τα σημερινά αυτόνομα συστήματα απαιτούν την τεχνητή νοημοσύνη ως το υποκείμενο μηχανογραφημένο μέσο για την ανάδειξη των αυτόνομων πτυχών. Το αναφέρω αυτό γιατί θα μπορούσατε να προσπαθήσετε να υποστηρίξετε ότι μπορεί να χρησιμοποιήσουμε τεχνολογίες και τεχνικές που δεν σχετίζονται με την τεχνητή νοημοσύνη για να κάνουμε τα αυτόνομα συστήματα, κάτι που αν και ισχύει, θα φαινόταν όλο και λιγότερο πιθανό. Βασικά, η τεχνητή νοημοσύνη τείνει να επιτρέπει μεγαλύτερα επίπεδα αυτονομίας και οι περισσότεροι αξιοποιούν αντίστοιχα την υψηλή τεχνολογία τεχνητής νοημοσύνης.

Εντάξει, έχουμε μια ικανότητα βασισμένη σε AI που ενσωματώνεται με κάποιο τρόπο στο αυτόνομο σύστημα και ενεργεί για να καθοδηγεί και να ελέγχει το αυτόνομο σύστημα.

Κρατήστε το στα χέρια σας ως εμπειρικό κανόνα.

Φαίνεται προφανές ότι πρέπει επίσης να έχουμε κάποια μορφή όπλου, αλλιώς γιατί συζητάμε εδώ το θέμα των αυτόνομων συστημάτων και όπλα. Λοιπόν, ναι, προφανώς, υπάρχει ένα όπλο του ενός ή του άλλου είδους.

Δεν πρόκειται να εμβαθύνω στο είδος του όπλου που μπορεί να χρησιμοποιηθεί. Μπορείτε απλά να αντικαταστήσετε οποιοδήποτε όπλο σας έρχεται στο μυαλό. Μπορεί να υπάρχουν ακριβή όπλα. Μπορεί να υπάρχουν μαζικά καταστροφικά όπλα. Θα μπορούσε να είναι κάτι με σφαίρες ή βλήματα. Μπορεί να είναι κάτι που έχει χημικά ή ατομικά πτητικά συστατικά. Η λίστα είναι ατελείωτη.

Το πρόσθετο ζήτημα είναι εάν η τεχνητή νοημοσύνη είναι διασυνδεδεμένη ή όχι με όπλα. Το AI μπορεί απλώς να παίρνει τα όπλα για μια βόλτα. Στην περίπτωση του τετράποδου ρομπότ που πυροβολούσε ένα όπλο, ίσως το όπλο εκτοξεύεται από άνθρωπο που έχει τηλεχειριστήριο συνδεδεμένο με τη σκανδάλη του όπλου. Το ρομπότ που μοιάζει με σκύλο πλοηγείται σε μια σκηνή και στη συνέχεια εναπόκειται σε έναν απομακρυσμένο άνθρωπο να πατήσει τη σκανδάλη.

Από την άλλη πλευρά, η τεχνητή νοημοσύνη μπορεί να είναι ο εξολκέας της σκανδάλης, όπως ήταν. Το AI μπορεί να έχει επινοηθεί όχι μόνο για να πλοηγείται και να ελίσσεται, αλλά και να ενεργοποιεί το όπλο. Υπό αυτή την έννοια, η τεχνητή νοημοσύνη κάνει τα πάντα από το Α έως το Ω. Δεν υπάρχει καμία εξάρτηση από έναν απομακρυσμένο άνθρωπο για να εκτελέσει την οπλική πλευρά των πραγμάτων. Το AI είναι προγραμματισμένο να το κάνει αυτό.

Για να διευκρινίσουμε στη συγκεκριμένη περίπτωση χρήσης αυτόνομων συστημάτων που είναι οπλισμένα, έχουμε αυτές τις δυνατότητες:

  • Αυτόνομο Σύστημα: Το AI τρέχει το αυτόνομο σύστημα εντελώς μόνο του
  • Αυτόνομο Σύστημα: Η τεχνητή νοημοσύνη τρέχει το αυτόνομο σύστημα, αλλά μπορεί επίσης να παρέμβει και ένας άνθρωπος-in-the-loop
  • Όπλα: Ο απομακρυσμένος άνθρωπος τρέχει τα όπλα (το AI όχι)
  • Όπλα: Η τεχνητή νοημοσύνη τρέχει τα όπλα, αλλά μπορεί επίσης να παρέμβει και ένας άνθρωπος-in-the-loop
  • Όπλα: Η τεχνητή νοημοσύνη τρέχει τα όπλα εντελώς μόνη της

Έχω καλύψει προηγουμένως τις παραλλαγές της ύπαρξης ενός ανθρώπου σε βρόχο σχετικά με τα αυτόνομα συστήματα και τα αυτόνομα οχήματα, βλ. ο σύνδεσμος εδώ.

Όταν παρακολουθείτε αυτά τα βίντεο με διασκεδαστικό προσανατολισμό των τετράποδων ρομπότ που χορεύουν και κάνουν παρέα, συνήθως υποτίθεται ότι είναι ρομπότ που διευθύνονται αποκλειστικά από το AI (καλά, αυτό είναι το έθιμο ή θεωρείται σωστή εθιμοτυπία μεταξύ αυτών που είναι βαθιά σε αυτά τα θέματα). Αυτό είναι που θα μπορούσατε επίσης να υποθέσετε δικαίως. Φυσικά, δεν το ξέρεις σίγουρα. Θα μπορούσε να είναι ότι ένας απομακρυσμένος ανθρώπινος χειριστής καθοδηγεί τα ρομπότ. Υπάρχει επίσης η πιθανότητα η τεχνητή νοημοσύνη να κάνει μέρος της καθοδήγησης και ένας απομακρυσμένος ανθρώπινος χειριστής το κάνει επίσης, ίσως βοηθώντας την τεχνητή νοημοσύνη εάν το ρομπότ βρεθεί σε δύσκολη θέση και δεν μπορεί να υπολογίσει υπολογιστικά ένα βιώσιμο μέσο για να κινηθεί ελεύθερος.

Η ουσία εδώ είναι ότι υπάρχουν πολλές γεύσεις του τρόπου με τον οποίο η τεχνητή νοημοσύνη και τα αυτόνομα συστήματα και ο οπλισμός μπορούν να αναμειχθούν. Μερικοί έχουν AI που τρέχει το αυτόνομο σύστημα αλλά δεν τρέχει τα όπλα. Ένας άνθρωπος ίσως χειρίζεται από απόσταση τα όπλα. Μια άλλη οπτική γωνία είναι ότι το όπλο μπορεί να ενεργοποιηθεί εκ των προτέρων, και το αυτόνομο σύστημα παραδίδει το ενεργοποιημένο όπλο, επομένως η τεχνητή νοημοσύνη δεν συμμετείχε άμεσα στην ενεργοποίηση του όπλου καθ' εαυτή και αντίθετα ενεργούσε ως όχημα παράδοσης. Και μπορεί η τεχνητή νοημοσύνη να είναι ένα παροιμιώδες jack-of-all-trades και να κάνει όλη τη γκάμα των πτυχών του αυτόνομου συστήματος στη χρήση των όπλων επίσης.

Κάντε την επιλογή σας.

Εν τω μεταξύ, σας παρακαλούμε να γνωρίζετε ότι ο άνθρωπος-εν-το-βρόχος είναι ένας μεγάλος παράγοντας όταν πρόκειται για συζητήσεις για αυτό το θέμα.

Μια διαχωριστική γραμμή από ορισμένους είναι ότι εάν η τεχνητή νοημοσύνη κάνει τη στόχευση και τη βολή (ή ό,τι άλλο συνεπάγεται το όπλο), τότε ολόκληρο το κιτ και το caboodle έχουν περάσει σε μηδενική γη. Αυτό φαινομενικά διαφέρει από τα συμβατικά όπλα πυρός και ξεχασμού που έχουν μια προ-στοχευμένη επιλογή που καθορίζεται από τον άνθρωπο, όπως ένα μη επανδρωμένο αεροσκάφος περιπολίας που έχει έναν πύραυλο έτοιμο για βολή σε έναν στόχο που ήταν ήδη επιλεγμένο από άνθρωπο.

Κάποιοι αναρωτιούνται γιατί τα αυτόνομα συστήματα που είναι εξοπλισμένα με όπλα δεν θα περιλαμβάνουν πάντα έναν άνθρωπο-in-the-loop κατά τη διάρκεια της διαδικασίας του αυτόνομου συστήματος να βρίσκεται σε κατάσταση ενεργά εν εξελίξει. Φαίνεται ότι θα ήμασταν καλύτερα εάν μια αυστηρή απαίτηση ήταν ότι όλα αυτά τα οπλισμένα αυτόνομα συστήματα έπρεπε να έχουν έναν άνθρωπο στον βρόχο, είτε για τη λειτουργία του αυτόνομου συστήματος είτε για τη λειτουργία του όπλου (ή και για τα δύο) . Η διατήρηση ενός υποτιθέμενου σίγουρου και σταθερού ανθρώπινου χεριού σε αυτό το μείγμα τεχνητής νοημοσύνης μπορεί να φαίνεται εντελώς έξυπνο.

Ετοιμαστείτε για μια μακρά λίστα λόγων για τους οποίους αυτό δεν είναι απαραίτητα εφικτό.

Σκεφτείτε αυτές τις δυσκολίες:

  • Το Human-in-the-Loop μπορεί να μην είναι αρκετά γρήγορο για να ανταποκριθεί έγκαιρα
  • Το Human-in-the-loop ενδέχεται να μην έχει επαρκείς πληροφορίες για να ανταποκριθεί με υπευθυνότητα
  • Το Human-in-the-loop ενδέχεται να μην είναι διαθέσιμο τη στιγμή που χρειάζεται
  • Το Human-in-the-Loop μπορεί να είναι αναποφάσιστο και να μην ενεργήσει όταν χρειαστεί
  • Το Human-in-the-loop μπορεί να πάρει τη «λάθος» απόφαση (σχετικά)
  • Το Human-in-the-Loop ενδέχεται να μην είναι προσβάσιμο από το σύστημα την απαιτούμενη στιγμή
  • Το Human-in-the-loop μπορεί να μπερδευτεί και να συγκλονιστεί
  • Κλπ

Αναμφίβολα μπαίνεις στον πειρασμό να κοιτάξεις αυτή τη λίστα με τις ανθρώπινες αδυναμίες και περιορισμούς και στη συνέχεια να καταλήξεις στο επίσημο συμπέρασμα ότι είναι προφανές λογικό να αφαιρείς τον άνθρωπο στη θηλιά και να χρησιμοποιείς πάντα την τεχνητή νοημοσύνη. Αυτό θα μπορούσε είτε να αποκλείεται από το human-in-the-loop ή ίσως η τεχνητή νοημοσύνη να είναι σε θέση να παρακάμψει έναν ριζωμένο σχεδιασμό ανθρώπου-in-the-loop. Δείτε την ανάλυσή μου για το πώς οι διαφωνίες μεταξύ της τεχνητής νοημοσύνης και ενός ανθρώπου που βρίσκεται στο βρόχο μπορούν να οδηγήσουν σε επισφαλείς καταστάσεις, που καλύπτεται στο ο σύνδεσμος εδώ.

Συχνά, μια υποτιμητική λίστα με αυτά τα μειονεκτήματα που επικεντρώνονται στον άνθρωπο σε πραγματικό χρόνο αφήνεται από μόνη της και αφήνει την εντύπωση ότι η τεχνητή νοημοσύνη πρέπει με κάποιο τρόπο να είναι μια πολύ πιο σοφή επιλογή από το να έχεις έναν άνθρωπο-σε-βρόχο . Μην πέσετε σε αυτή την προδοτική παγίδα. Υπάρχουν απογοητευτικές ανταλλαγές.

Εξετάστε αυτές τις προεκτάσεις του AI:

  • Η τεχνητή νοημοσύνη μπορεί να αντιμετωπίσει ένα σφάλμα που θα την κάνει να παραστρατήσει
  • Η τεχνητή νοημοσύνη μπορεί να κατακλυστεί και να κλειδωθεί χωρίς να ανταποκρίνεται
  • Η τεχνητή νοημοσύνη μπορεί να περιέχει σφάλματα προγραμματιστή που προκαλούν ακανόνιστη συμπεριφορά
  • Η τεχνητή νοημοσύνη μπορεί να έχει καταστραφεί με εμφυτευμένο ιό του κακού
  • Η τεχνητή νοημοσύνη μπορεί να καταληφθεί από κυβερνοχάκερ σε πραγματικό χρόνο
  • Η τεχνητή νοημοσύνη μπορεί να θεωρηθεί απρόβλεπτη λόγω πολυπλοκότητας
  • Η τεχνητή νοημοσύνη μπορεί υπολογιστικά να πάρει τη «λάθος» απόφαση (σχετικά)
  • Κλπ

Πιστεύω ότι μπορείτε να δείτε ότι υπάρχουν συμβιβασμούς μεταξύ της χρήσης ενός ανθρώπου στη βρόχο και της εξάρτησης αποκλειστικά από την τεχνητή νοημοσύνη. Σε περίπτωση που μπείτε στον πειρασμό να προτείνετε ότι η έτοιμη λύση είναι να χρησιμοποιήσετε και τους δύο, θα ήθελα απλώς να τονίσω ότι μπορείτε να πάρετε το καλύτερο και από τους δύο κόσμους, αλλά μπορείτε επίσης να πάρετε το χειρότερο και από τους δύο κόσμους. Μην υποθέτετε ότι θα είναι πάντα και σίγουρα το καλύτερο και των δύο κόσμων.

Μπορεί να εκπλαγείτε από ένα από τα παραπάνω μειονεκτήματα σχετικά με την τεχνητή νοημοσύνη, συγκεκριμένα ότι η τεχνητή νοημοσύνη μπορεί να είναι απρόβλεπτος. Έχουμε συνηθίσει να πιστεύουμε ότι η τεχνητή νοημοσύνη υποτίθεται ότι είναι αυστηρά λογική και μαθηματικά ακριβής. Ως εκ τούτου, μπορείτε επίσης να περιμένετε ότι το AI θα είναι πλήρως προβλέψιμο. Υποτίθεται ότι γνωρίζουμε ακριβώς τι θα κάνει η τεχνητή νοημοσύνη. Περίοδος, τέλος της ιστορίας.

Συγγνώμη που έσκασα αυτό το μπαλόνι, αλλά αυτός ο μύθος της προβλεψιμότητας είναι λάθος ονομασία. Το μέγεθος και η πολυπλοκότητα της σύγχρονης τεχνητής νοημοσύνης είναι συχνά ένα τέλμα που αψηφά το να είναι απόλυτα προβλέψιμο. Αυτό φαίνεται στις αναταραχές ηθικής τεχνητής νοημοσύνης σχετικά με ορισμένες σημερινές χρήσεις της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL). Θα εξηγήσω λίγο περισσότερο στιγμιαία.

Επίσης, ίσως θελήσετε να ρίξετε μια ματιά στην τελευταία μου ανάλυση για τις επερχόμενες τάσεις προς την προσπάθεια διασφάλισης επαληθεύσιμων και μαθηματικά αποδεδειγμένων συστημάτων τεχνητής νοημοσύνης μέσω των πιο πρόσφατων σε θέματα ασφάλειας τεχνητής νοημοσύνης, στο ο σύνδεσμος εδώ.

Μηρυκασμός στους Κανόνες του Δρόμου

Είχα αναφέρει την έννοια των στόχων και της στόχευσης, η οποία είναι μια αρκετά φορτωμένη ορολογία που αξίζει ιδιαίτερης προσοχής.

Μπορούμε να αναλογιστούμε αυτό:

  • Στόχοι που είναι άνθρωποι
  • Στόχοι που δεν είναι άνθρωποι αλλά είναι ζωντανά πλάσματα
  • Στόχοι που ερμηνεύονται ως ιδιοκτησία

Ας υποθέσουμε ότι έχουμε ένα αυτόνομο σύστημα που έχει οπλιστεί. Το AI χρησιμοποιείται για την καθοδήγηση του αυτόνομου συστήματος και χρησιμοποιείται για όπλα. Η τεχνητή νοημοσύνη κάνει τα πάντα, από το Α έως το Ω. Δεν υπάρχει πρόβλεψη για έναν άνθρωπο-in-the-loop. Όσον αφορά τη στόχευση, το AI θα επιλέξει τους στόχους. Δεν υπάρχει προ-στόχευση που να έχει καθιερωθεί από ανθρώπους. Αντίθετα, η τεχνητή νοημοσύνη έχει προγραμματιστεί για να εξακριβώνει γενικά αν υπάρχουν άνθρωποι που πρέπει να στοχοποιηθούν (ίσως σάρωση για εχθρικές ενέργειες, ορισμένα είδη στολών κ.λπ.).

Μαζί μου σε αυτό μέχρι τώρα;

Αυτό το σενάριο είναι λίγο πολύ εκείνο που προκαλεί τη μεγαλύτερη κατακραυγή για τα οπλισμένα αυτόνομα συστήματα.

Η δηλωμένη ανησυχία είναι ότι το AI κάνει (τουλάχιστον) τρία πράγματα που δεν θα έπρεπε να του επιτραπεί να κάνει:

  • Στοχεύοντας τους ανθρώπους ως στόχους
  • Στόχευση χωρίς τη χρήση ανθρώπινου κυκλώματος
  • Δυνητικά απρόβλεπτη δράσηly

Παρατηρήστε ότι υπάρχει έντονη αναφορά στις ανησυχίες σχετικά με το ότι η τεχνητή νοημοσύνη είναι απρόβλεπτη. Μπορεί να είναι ότι, αν και η τεχνητή νοημοσύνη είχε προγραμματιστεί να στοχεύει συγκεκριμένα είδη ανθρώπων, ο προγραμματισμός της τεχνητής νοημοσύνης δεν είναι αυτό που νομίζαμε και η τεχνητή νοημοσύνη καταλήγει να στοχεύει «φιλικούς» εκτός από αυτούς που η τεχνητή νοημοσύνη υποτίθεται ότι ερμηνεύει ως «εχθρικούς». ” (ή, ίσως αντί). Επιπλέον, ακόμα κι αν επιλέξουμε να συμπεριλάβουμε μια διάταξη "ανθρωπινός στη βρόχο", η μη προβλεψιμότητα της τεχνητής νοημοσύνης μπορεί να σημαίνει ότι όταν η τεχνητή νοημοσύνη υποτίθεται ότι συνεννοείται με τον άνθρωπο σε βρόχο, δεν το κάνει έτσι και ενεργεί χωρίς καμία ανθρώπινη παρέμβαση.

Μπορεί να σας ενδιαφέρει το γεγονός ότι η Διεθνής Επιτροπή του Ερυθρού Σταυρού (ICRC) έχει προτείνει μια γενική θέση τριών σημείων σχετικά με τα αυτόνομα οπλικά συστήματα που επεξεργάζεται αυτούς τους τύπους ανησυχιών (ανά τον ιστότοπο του ICRC):

1. «Απρόβλεπτα αυτόνομα οπλικά συστήματα θα πρέπει να ελέγχονται ρητά έξω, ιδίως λόγω των αδιάκριτων επιπτώσεών τους. Αυτό θα μπορούσε καλύτερα να επιτευχθεί με την απαγόρευση αυτόνομων οπλικών συστημάτων που έχουν σχεδιαστεί ή χρησιμοποιούνται με τέτοιο τρόπο ώστε τα αποτελέσματά τους να μην μπορούν να κατανοηθούν επαρκώς, να προβλεφθούν και να εξηγηθούν».

2. «Υπό το πρίσμα των ηθικών κριτηρίων για την προστασία της ανθρωπότητας και την τήρηση των κανόνων του διεθνούς ανθρωπιστικού δικαίου για την προστασία των αμάχων και των μαχητών hors de combat, θα πρέπει να αποκλειστεί η χρήση αυτόνομων οπλικών συστημάτων για τη στόχευση ανθρώπινων όντων. Αυτό θα μπορούσε καλύτερα να επιτευχθεί μέσω της απαγόρευσης των αυτόνομων οπλικών συστημάτων που έχουν σχεδιαστεί ή χρησιμοποιούνται για την εφαρμογή βίας εναντίον προσώπων».

3. «Για την προστασία αμάχων και πολιτικών αντικειμένων, την τήρηση των κανόνων του διεθνούς ανθρωπιστικού δικαίου και την προστασία της ανθρωπότητας, ο σχεδιασμός και η χρήση αυτόνομων οπλικών συστημάτων που δεν θα απαγορευόταν θα πρέπει να ρυθμίζονται, μεταξύ άλλων μέσω ενός συνδυασμού: περιορισμοί στους τύπους στόχων, όπως ο περιορισμός τους σε αντικείμενα που είναι εκ φύσεως στρατιωτικοί στόχοι. περιορισμοί στη διάρκεια, το γεωγραφικό εύρος και την κλίμακα χρήσης, συμπεριλαμβανομένης της δυνατότητας ανθρώπινης κρίσης και ελέγχου σε σχέση με μια συγκεκριμένη επίθεση· όρια στις καταστάσεις χρήσης, όπως ο περιορισμός τους σε καταστάσεις όπου δεν υπάρχουν πολίτες ή πολιτικά αντικείμενα· rΑπαιτήσεις για την αλληλεπίδραση ανθρώπου-μηχανής, ιδίως για τη διασφάλιση αποτελεσματικής ανθρώπινης επίβλεψης και έγκαιρης επέμβασης και απενεργοποίησης.»

Σε μια σχετική προοπτική, τα Ηνωμένα Έθνη (ΟΗΕ) μέσω της Σύμβασης για ορισμένα συμβατικά όπλα (CCW) στη Γενεύη είχαν θεσπίσει έντεκα μη δεσμευτικές κατευθυντήριες αρχές για τα θανατηφόρα αυτόνομα όπλα, σύμφωνα με την επίσημη έκθεση που δημοσιεύτηκε στο διαδίκτυο (που περιλαμβάνει αναφορές σε σχετικές διεθνείς ανθρωπιστικές Διατάξεις νόμου ή ΔΑΔ):

(α) Το διεθνές ανθρωπιστικό δίκαιο εξακολουθεί να εφαρμόζεται πλήρως σε όλα τα οπλικά συστήματα, συμπεριλαμβανομένης της πιθανής ανάπτυξης και χρήσης θανατηφόρων αυτόνομων οπλικών συστημάτων·

(β) Η ανθρώπινη ευθύνη για αποφάσεις σχετικά με τη χρήση οπλικών συστημάτων πρέπει να διατηρηθεί, καθώς η ευθύνη δεν μπορεί να μεταβιβαστεί σε μηχανές. Αυτό θα πρέπει να λαμβάνεται υπόψη σε ολόκληρο τον κύκλο ζωής του οπλικού συστήματος.

(γ) Η αλληλεπίδραση ανθρώπου-μηχανής, η οποία μπορεί να λάβει διάφορες μορφές και να εφαρμοστεί σε διάφορα στάδια του κύκλου ζωής ενός όπλου, θα πρέπει να διασφαλίζει ότι η πιθανή χρήση οπλικών συστημάτων που βασίζονται σε αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων βρίσκεται σε συμμόρφωση με το εφαρμοστέο διεθνές δίκαιο, ιδίως το ΔΑΔ. Κατά τον προσδιορισμό της ποιότητας και της έκτασης της αλληλεπίδρασης ανθρώπου-μηχανής, θα πρέπει να λαμβάνεται υπόψη μια σειρά παραγόντων, συμπεριλαμβανομένου του επιχειρησιακού πλαισίου και των χαρακτηριστικών και των δυνατοτήτων του οπλικού συστήματος στο σύνολό του.

(δ) Η λογοδοσία για την ανάπτυξη, ανάπτυξη και χρήση οποιουδήποτε αναδυόμενου οπλικού συστήματος στο πλαίσιο της CCW πρέπει να διασφαλίζεται σύμφωνα με το ισχύον διεθνές δίκαιο, μεταξύ άλλων μέσω της λειτουργίας τέτοιων συστημάτων εντός μιας υπεύθυνης αλυσίδας ανθρώπινης διοίκησης και ελέγχου.

(ε) Σύμφωνα με τις υποχρεώσεις των κρατών βάσει του διεθνούς δικαίου, κατά τη μελέτη, ανάπτυξη, απόκτηση ή υιοθέτηση ενός νέου όπλου, μέσων ή μεθόδου πολέμου, πρέπει να καθοριστεί εάν η χρήση του, σε ορισμένες ή όλες τις περιστάσεις, θα ήταν απαγορεύεται από το διεθνές δίκαιο·

(στ) Κατά την ανάπτυξη ή την απόκτηση νέων οπλικών συστημάτων που βασίζονται σε αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων, τη φυσική ασφάλεια, τις κατάλληλες μη φυσικές διασφαλίσεις (συμπεριλαμβανομένης της ασφάλειας στον κυβερνοχώρο κατά της πειρατείας ή της πλαστογράφησης δεδομένων), τον κίνδυνο απόκτησης από τρομοκρατικές ομάδες και ο κίνδυνος διάδοσης πρέπει να λαμβάνεται υπόψη·

(ζ) Οι εκτιμήσεις κινδύνου και τα μέτρα μετριασμού θα πρέπει να αποτελούν μέρος του κύκλου σχεδιασμού, ανάπτυξης, δοκιμών και ανάπτυξης αναδυόμενων τεχνολογιών σε οποιαδήποτε οπλικά συστήματα·

(η) Θα πρέπει να ληφθεί υπόψη η χρήση αναδυόμενων τεχνολογιών στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων για την τήρηση της συμμόρφωσης με το ΔΑΔ και άλλες ισχύουσες διεθνείς νομικές υποχρεώσεις·

(i) Κατά τη χάραξη πιθανών μέτρων πολιτικής, οι αναδυόμενες τεχνολογίες στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων δεν θα πρέπει να ανθρωπομορφοποιούνται·

(ι) Οι συζητήσεις και τυχόν μέτρα πολιτικής που λαμβάνονται στο πλαίσιο της CCW δεν θα πρέπει να εμποδίζουν την πρόοδο ή την πρόσβαση σε ειρηνικές χρήσεις ευφυών αυτόνομων τεχνολογιών.

(ια) Η CCW προσφέρει ένα κατάλληλο πλαίσιο για την αντιμετώπιση του ζητήματος των αναδυόμενων τεχνολογιών στον τομέα των θανατηφόρων αυτόνομων οπλικών συστημάτων στο πλαίσιο των στόχων και των σκοπών της Σύμβασης, η οποία επιδιώκει να επιτύχει μια ισορροπία μεταξύ στρατιωτικής αναγκαιότητας και ανθρωπιστικών εκτιμήσεων.

Το δίλημμα στο οποίο βρισκόμαστε

Αυτοί οι διάφοροι νόμοι του πολέμου, οι νόμοι της ένοπλης σύγκρουσης ή το IHL (International Humanitarian Laws) χρησιμεύουν ως ένας ζωτικής σημασίας και πολλά υποσχόμενος οδηγός για να εξετάσουμε τι θα μπορούσαμε να προσπαθήσουμε να κάνουμε σχετικά με την εμφάνιση αυτόνομων συστημάτων που είναι εξοπλισμένα με όπλα, είτε με βασικό σχεδιασμό είτε με μεθόδους εκ των υστέρων.

Μπορούμε ειλικρινά να ευχηθούμε να τηρηθεί αυστηρά και υπάκουα η απαγόρευση των θανατηφόρων οπλισμένων αυτόνομων συστημάτων. Το πρόβλημα είναι ότι είναι βέβαιο ότι θα βρεθούν πολλά περιθώρια κουνήματος σε οποιαδήποτε από τις πιο ειλικρινείς απαγορεύσεις. Όπως λένε, οι κανόνες προορίζονται για να παραβιάζονται. Μπορείτε να στοιχηματίσετε ότι εκεί που τα πράγματα είναι χαλαρά, οι riffraff θα ξεπεράσουν τα κενά και θα προσπαθήσουν να κλείσουν το μάτι τους γύρω από τους κανόνες.

Ακολουθούν ορισμένα πιθανά κενά που αξίζει να εξεταστούν:

  • Αξιώσεις μη θανατηφόρων. Φτιαχνω, κανω μη θανατηφόρος αυτόνομα οπλικά συστήματα (φαινομενικά εντάξει δεδομένου ότι είναι εκτός των ορίων απαγόρευσης), τα οποία στη συνέχεια μπορείτε να μετατοπίσετε σε μια δεκάρα να γίνουν θανατηφόρα (θα είστε πέρα ​​από την απαγόρευση μόνο την τελευταία στιγμή).
  • Αξιώσεις μόνο για αυτόνομο σύστημα. Υποστηρίξτε την απαγόρευση μη φτιάχνοντας αυτόνομα συστήματα εστιασμένα στα θανατηφόρα, εν τω μεταξύ, σημειώστε τόση πρόοδο στην επινόηση καθημερινών αυτόνομων συστημάτων που δεν είναι (ακόμα) οπλισμένα αλλά που μπορείτε να τα εξοπλίσετε για να τα οπλίσετε.
  • Αξιώσεις μη ενσωματωμένων ως ενιαίων. Κατασκευάστε αυτόνομα συστήματα που δεν είναι καθόλου οπλισμένα και όταν έρθει η ώρα, οπλισμός piggyback έτσι ώστε να μπορείτε να επιχειρήσετε να υποστηρίξετε έντονα ότι είναι δύο ξεχωριστά στοιχεία και επομένως να ισχυριστείτε ότι δεν εμπίπτουν στη ρουμπρίκα ενός all-in-one αυτόνομο οπλικό σύστημα ή τον ξάδερφό του.
  • Ισχυρίζεται ότι δεν είναι αυτόνομο. Φτιάξτε ένα οπλικό σύστημα που δεν φαίνεται να έχει αυτόνομες δυνατότητες. Αφήστε χώρο σε αυτό το πιθανώς μη αυτόνομο σύστημα για την απόρριψη της αυτονομίας που βασίζεται στην τεχνητή νοημοσύνη. Όταν χρειαστεί, συνδέστε την αυτονομία και είστε έτοιμοι να ρολάρετε (μέχρι τότε, φαινομενικά δεν παραβιάζατε την απαγόρευση).
  • ΑΛΛΑ

Υπάρχουν πολλές άλλες εκφρασμένες δυσκολίες στην προσπάθεια να απαγορευτούν εντελώς τα θανατηφόρα αυτόνομα οπλικά συστήματα. Θα καλύψω μερικά ακόμη από αυτά.

Ορισμένοι ειδικοί υποστηρίζουν ότι η απαγόρευση δεν είναι ιδιαίτερα χρήσιμη και αντ' αυτού θα πρέπει να υπάρχουν ρυθμιστικές διατάξεις. Η ιδέα είναι ότι αυτά τα μηχανήματα θα επιτρέπονται αλλά θα ελέγχονται αυστηρά. Παρουσιάζεται μια σειρά από νόμιμες χρήσεις, μαζί με νόμιμους τρόπους στόχευσης, νόμιμους τύπους δυνατοτήτων, νόμιμη αναλογικότητα και παρόμοια.

Κατά την άποψή τους, μια απευθείας απαγόρευση είναι σαν να βάζεις το κεφάλι σου στην άμμο και να προσποιείσαι ότι ο ελέφαντας στο δωμάτιο δεν υπάρχει. Ωστόσο, αυτή η διαμάχη προκαλεί το αίμα εκείνων που έρχονται σε αντίθεση με το επιχείρημα ότι με τη θέσπιση απαγόρευσης μπορείτε να μειώσετε δραματικά τον κατά τα άλλα πειρασμό να επιδιώξετε τέτοιου είδους συστήματα. Σίγουρα, κάποιοι θα καμαρώσουν την απαγόρευση, αλλά τουλάχιστον ελπίζουμε ότι οι περισσότεροι δεν θα το κάνουν. Στη συνέχεια, μπορείτε να εστιάσετε την προσοχή σας στους επιδεικνυόμενους και να μην χρειάζεται να διασπάσετε την προσοχή σας σε όλους.

Γύρω από αυτές τις συζητήσεις συνεχίζονται.

Μια άλλη ανησυχία που παρατηρείται συχνά είναι ότι ακόμα κι αν οι καλοί τηρούν την απαγόρευση, οι κακοί δεν θα το κάνουν. Αυτό βάζει το καλό σε μια άθλια στάση. Οι κακοί θα έχουν αυτού του είδους τα οπλισμένα αυτόνομα συστήματα και οι καλοί όχι. Μόλις αποκαλυφθούν τα πράγματα ότι τα έχουν οι κακοί, θα είναι πολύ αργά για να προλάβουν οι καλοί. Εν ολίγοις, το μόνο έξυπνο πράγμα που πρέπει να κάνετε είναι να προετοιμαστείτε να πολεμήσετε τη φωτιά με τη φωτιά.

Υπάρχει και η κλασική αντιπαράθεση αποτροπής. Εάν οι καλοί επιλέξουν να κατασκευάσουν οπλισμένα αυτόνομα συστήματα, αυτό μπορεί να χρησιμοποιηθεί για να αποτρέψει τους κακούς από το να επιδιώξουν να μπουν σε μια διαμάχη. Είτε οι καλοί θα είναι καλύτερα οπλισμένοι και έτσι θα αποτρέψουν τους κακούς, είτε οι καλοί θα είναι έτοιμοι όταν οι κακοί ίσως αποκαλύψουν ότι επινοούσαν κρυφά αυτά τα συστήματα σε όλη τη διάρκεια.

Ένα αντίθετο σε αυτούς τους μετρητές είναι ότι φτιάχνοντας οπλισμένα αυτόνομα συστήματα, διεξάγετε μια κούρσα εξοπλισμών. Η άλλη πλευρά θα επιδιώξει να έχει το ίδιο. Ακόμα κι αν δεν είναι τεχνολογικά σε θέση να δημιουργήσουν ξανά τέτοια συστήματα, θα μπορούν τώρα να κλέψουν τα σχέδια των «καλών», να αντιστρέψουν τα κότσια υψηλής τεχνολογίας ή να μιμηθούν οτιδήποτε φαίνεται να θεωρούν δοκιμασμένο και αληθινό. τρόπος για να γίνει η δουλειά.

Αχα, κάποιοι απαντούν, όλα αυτά μπορεί να οδηγήσουν σε μείωση των συγκρούσεων κατά ένα φαινομενικό αμοιβαίο τρόπο. Εάν η πλευρά Α γνωρίζει ότι η πλευρά Β έχει αυτά τα θανατηφόρα όπλα αυτόνομων συστημάτων, και η πλευρά Β γνωρίζει ότι η πλευρά Α τα έχει, μπορεί να καθίσει σφιχτά και να μην έρθει σε σύγκρουση. Αυτό έχει αυτή την ξεχωριστή αύρα αμοιβαίως εξασφαλισμένης καταστροφής (MAD).

Και ούτω καθεξής.

Το AI στην αυτονομία

Ας βεβαιωθούμε ότι είμαστε στην ίδια σελίδα σχετικά με τη φύση της σημερινής τεχνητής νοημοσύνης.

Δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να είναι ευαίσθητη. Δεν το έχουμε αυτό. Δεν γνωρίζουμε αν θα είναι δυνατή η αισθητή τεχνητή νοημοσύνη. Κανείς δεν μπορεί εύστοχα να προβλέψει εάν θα επιτύχουμε αισθανόμενη τεχνητή νοημοσύνη, ούτε εάν η αισθανόμενη τεχνητή νοημοσύνη θα προκύψει με κάποιο θαύμα αυθόρμητα σε μια μορφή υπολογιστικού γνωστικού σουπερνόβα (συνήθως αναφέρεται ως η μοναδικότητα, δείτε την κάλυψή μου στο ο σύνδεσμος εδώ).

Ο τύπος τεχνητής νοημοσύνης στον οποίο εστιάζω αποτελείται από τη μη ευαίσθητη τεχνητή νοημοσύνη που έχουμε σήμερα. Αν θέλαμε να κάνουμε τρελά εικασίες για αισθητικός AI, αυτή η συζήτηση θα μπορούσε να πάει σε μια ριζικά διαφορετική κατεύθυνση. Μια αισθανόμενη τεχνητή νοημοσύνη θα ήταν υποτίθεται ανθρώπινης ποιότητας. Θα πρέπει να λάβετε υπόψη ότι το αισθανόμενο AI είναι το γνωστικό ισοδύναμο ενός ανθρώπου. Επιπλέον, δεδομένου ότι ορισμένοι εικάζουν ότι μπορεί να έχουμε υπερ-έξυπνη τεχνητή νοημοσύνη, είναι κατανοητό ότι μια τέτοια τεχνητή νοημοσύνη θα μπορούσε να καταλήξει να είναι πιο έξυπνη από τους ανθρώπους (για την εξερεύνηση της υπερ-έξυπνης τεχνητής νοημοσύνης ως πιθανότητα, βλ. την κάλυψη εδώ).

Ας κρατήσουμε τα πράγματα πιο προσγειωμένα και ας εξετάσουμε τη σημερινή υπολογιστική μη ευαίσθητη τεχνητή νοημοσύνη.

Συνειδητοποιήστε ότι η σημερινή τεχνητή νοημοσύνη δεν είναι σε θέση να «σκέφτεται» με κανένα τρόπο στο ίδιο επίπεδο με την ανθρώπινη σκέψη. Όταν αλληλεπιδράτε με την Alexa ή τη Siri, οι ικανότητες συνομιλίας μπορεί να φαίνονται παρόμοιες με τις ανθρώπινες ικανότητες, αλλά η πραγματικότητα είναι ότι είναι υπολογιστική και στερείται ανθρώπινης γνώσης. Η τελευταία εποχή της τεχνητής νοημοσύνης έχει κάνει εκτεταμένη χρήση της Μηχανικής Μάθησης (ML) και της Βαθιάς Μάθησης (DL), τα οποία αξιοποιούν την αντιστοίχιση υπολογιστικών προτύπων. Αυτό οδήγησε σε συστήματα τεχνητής νοημοσύνης που έχουν την εμφάνιση ανθρώπινων τάσεων. Εν τω μεταξύ, δεν υπάρχει καμία τεχνητή νοημοσύνη σήμερα που να έχει μια ομοιότητα κοινής λογικής και ούτε να έχει κάποιο από το γνωστικό θαύμα της εύρωστης ανθρώπινης σκέψης.

Να είστε πολύ προσεκτικοί στην ανθρωπομορφοποίηση της σημερινής τεχνητής νοημοσύνης.

Το ML/DL είναι μια μορφή υπολογιστικής αντιστοίχισης προτύπων. Η συνήθης προσέγγιση είναι ότι συγκεντρώνετε δεδομένα σχετικά με μια εργασία λήψης αποφάσεων. Τροφοδοτείτε τα δεδομένα στα μοντέλα υπολογιστών ML/DL. Αυτά τα μοντέλα επιδιώκουν να βρουν μαθηματικά μοτίβα. Μετά την εύρεση τέτοιων μοτίβων, εάν βρεθούν, το σύστημα AI θα χρησιμοποιήσει αυτά τα μοτίβα όταν συναντήσει νέα δεδομένα. Κατά την παρουσίαση νέων δεδομένων, τα μοτίβα που βασίζονται στα «παλιά» ή ιστορικά δεδομένα εφαρμόζονται για την απόδοση μιας τρέχουσας απόφασης.

Νομίζω ότι μπορείτε να μαντέψετε πού οδηγεί αυτό. Εάν οι άνθρωποι που έπαιρναν τις αποφάσεις τους έχουν ενσωματώσει ανεπιθύμητες προκαταλήψεις, οι πιθανότητες είναι ότι τα δεδομένα αντικατοπτρίζουν αυτό με λεπτούς αλλά σημαντικούς τρόπους. Η υπολογιστική αντιστοίχιση προτύπων Machine Learning ή Deep Learning απλώς θα προσπαθήσει να μιμηθεί μαθηματικά τα δεδομένα ανάλογα. Δεν υπάρχει καμία ομοιότητα της κοινής λογικής ή άλλων ευαίσθητων πτυχών της μοντελοποίησης που έχει δημιουργηθεί από AI αυτή καθαυτή.

Επιπλέον, οι προγραμματιστές τεχνητής νοημοσύνης μπορεί να μην συνειδητοποιούν τι συμβαίνει. Τα απόκρυφα μαθηματικά στο ML/DL μπορεί να δυσκολέψουν τον εντοπισμό των κρυμμένων τώρα προκαταλήψεων. Δικαίως θα ελπίζατε και θα περιμένατε ότι οι προγραμματιστές τεχνητής νοημοσύνης θα δοκιμάσουν τις δυνητικά θαμμένες προκαταλήψεις, αν και αυτό είναι πιο δύσκολο από ό,τι φαίνεται. Υπάρχει μια ισχυρή πιθανότητα ακόμη και με σχετικά εκτεταμένες δοκιμές να εξακολουθούν να υπάρχουν προκαταλήψεις ενσωματωμένες στα μοντέλα αντιστοίχισης προτύπων του ML/DL.

Θα μπορούσατε να χρησιμοποιήσετε κάπως τη διάσημη ή διαβόητη παροιμία του garbage-in garbage-out. Το θέμα είναι ότι αυτό μοιάζει περισσότερο με προκαταλήψεις που ύπουλα εγχέονται ως προκαταλήψεις που βυθίζονται στο AI. Ο αλγόριθμος λήψης αποφάσεων (ADM) του AI γίνεται αξιωματικά φορτωμένος με ανισότητες.

ΟΧΙ καλα.

Με αυτό το πρόσθετο θεμελιώδες υπόβαθρο, στραφούμε για άλλη μια φορά στο θέμα των αυτόνομων συστημάτων και της οπλοποίησης. Είδαμε νωρίτερα ότι η τεχνητή νοημοσύνη εισέρχεται στο στοιχείο αυτόνομου συστήματος και επίσης μπορεί να εισέλθει στο στοιχείο οπλισμού. Το AI του σήμερα δεν είναι ευαίσθητο. Αυτό αξίζει να επαναληφθεί και θα το επισημάνω για πρόσθετες γνώσεις σε αυτά τα θέματα.

Ας εξερευνήσουμε ορισμένα σενάρια για να δούμε πώς αυτό είναι ένα κρίσιμο στοιχείο. Θα φύγω στιγμιαία από τον προσανατολισμό του πολέμου σε αυτό το θέμα και θα δείξω πώς διαπερνά πολλά άλλα κοινωνικά περιβάλλοντα. Σταθεροποιήσου ανάλογα.

Ένα αυτόνομο σύστημα βασισμένο σε τεχνητή νοημοσύνη, όπως ένα αυτόνομο όχημα, που θα πούμε ότι δεν έχει καμία απολύτως σχέση με όπλα, κάνει το δρόμο του σε μια κανονική τοποθεσία. Έρχεται ένας άνθρωπος για να κάνει χρήση του αυτόνομου οχήματος. Το άτομο είναι οπλισμένο με ένα προαισθανόμενο όπλο. Ας υποθέσουμε για λόγους συζήτησης σε αυτό το συγκεκριμένο σενάριο ότι το άτομο έχει κάτι κακό στο μυαλό του. Το άτομο μπαίνει στο αυτόνομο όχημα (κουβαλώντας το όπλο του, κρυμμένο ή όχι, είτε έτσι είτε αλλιώς).

Το αυτόνομο όχημα προχωρά σε όποιον προορισμό έχει ζητήσει ο αναβάτης. Σε αυτήν την περίπτωση, η τεχνητή νοημοσύνη απλώς μεταφέρει μέσω προγραμματισμού αυτόν τον επιβάτη από μια τοποθεσία παραλαβής σε έναν καθορισμένο προορισμό, όπως έκανε για πιθανώς δεκάδες ή εκατοντάδες ταξίδια, κάθε μέρα.

Εάν αυτό ήταν ένας οδηγός ανθρώπου και ένα όχημα που οδηγείται από ανθρώπους, πιθανώς υπάρχει κάποια πιθανότητα ο άνθρωπος-οδηγός να συνειδητοποιήσει ότι ο επιβάτης είναι οπλισμένος και φαίνεται να έχει κακές προθέσεις. Ο οδηγός μπορεί να αρνηθεί να οδηγήσει το όχημα. Ή ο άνθρωπος οδηγός μπορεί να οδηγήσει στο αστυνομικό τμήμα. Ή ίσως ο άνθρωπος οδηγός να προσπαθήσει να υποτάξει τον ένοπλο επιβάτη (αναφέρονται περιπτώσεις) ή να αποτρέψει τον επιβάτη από το να χρησιμοποιήσει το όπλο του. Είναι αρκετά περίπλοκο και μπορεί να υπάρξει οποιοσδήποτε αριθμός παραλλαγών. Θα δυσκολευτείτε πολύ να ισχυριστείτε ότι υπάρχει μόνο μία σωστή απάντηση για την επίλυση μιας τέτοιας δύσκολης κατάστασης. Δυστυχώς, η κατάσταση είναι ενοχλητική και προφανώς επικίνδυνη.

Το AI σε αυτήν την περίπτωση είναι απίθανο να προγραμματιστεί για οποιαδήποτε από αυτές τις δυνατότητες. Εν ολίγοις, ο οπλισμένος επιβάτης μπορεί να μπορεί να χρησιμοποιήσει το όπλο του, κάνοντάς το μέσα από το αυτόνομο όχημα, κατά τη διάρκεια του ταξιδιού οδήγησης. Το σύστημα οδήγησης τεχνητής νοημοσύνης θα συνεχίσει να ταξιδεύει και το αυτόνομο όχημα θα συνεχίσει να κατευθύνεται προς την δηλωμένη ονομασία του επιβάτη (υποθέτοντας ότι ο προορισμός δεν θεωρήθηκε διαφορετικά εκτός ορίων).

Τα περισσότερα σύγχρονα συστήματα οδήγησης τεχνητής νοημοσύνης θα εστιάζουν υπολογιστικά μόνο στο δρόμο και όχι στις προσπάθειες του αναβάτη.

Τα πράγματα μπορεί να γίνουν χειρότερα από αυτό.

Ας υποθέσουμε ότι κάποιος θέλει να μεταφέρει ένα σωρό είδη παντοπωλείου σε ένα μέρος που παίρνει επιπλέον φαγητό για τους άπορους. Το άτομο ζητά ένα αυτόνομο όχημα και τοποθετεί τις τσάντες με τα παντοπωλεία στο πίσω κάθισμα του οχήματος. Δεν πρόκειται να πάνε μαζί για τη βόλτα και χρησιμοποιούν απλώς το αυτόνομο όχημα για να τους παραδώσουν τις σακούλες τροφίμων.

Φαίνεται τέλεια.

Οραματιστείτε ότι ένα άτακτο άτομο επιλέγει αντ 'αυτού να τοποθετήσει κάποια μορφή όπλου στο αυτόνομο όχημα και όχι την πιο ειρηνική ιδέα των σακουλών παντοπωλείου. Νομίζω ότι μπορείτε να μαντέψετε τι μπορεί να συμβεί. Αυτή είναι μια ανησυχία που προτρέπω επανειλημμένα στις στήλες μου και προειδοποιώ ότι πρέπει να αντιμετωπίσουμε νωρίτερα παρά αργότερα.

Μια προσφερόμενη απάντηση σε αυτούς τους τύπους σεναρίων είναι ότι ίσως όλα τα αυτόνομα οχήματα θα μπορούσαν να προγραμματιστούν ώστε να χρησιμοποιούν τις κάμερές τους και άλλους αισθητήρες για να προσπαθήσουν να ανιχνεύσουν εάν ένας πιθανός επιβάτης είναι οπλισμένος και έχει κακές προθέσεις. Ίσως το AI να είναι προγραμματισμένο να το κάνει αυτό. Ή η τεχνητή νοημοσύνη ειδοποιεί ηλεκτρονικά και σιωπηλά έναν απομακρυσμένο ανθρώπινο χειριστή που στη συνέχεια μέσω των καμερών θα εξέταζε οπτικά και με άλλο τρόπο και ενδεχομένως θα αλληλεπιδρούσε με τον επιβάτη. Είναι όλα μέρος ενός περίπλοκου και δυνητικά δυσεπίλυτου κουτιού σκουληκιών, έτσι ώστε να εγείρει έντονα ζητήματα απορρήτου και μια πληθώρα άλλων πιθανών προβληματισμών για την ηθική τεχνητή νοημοσύνη. Δείτε την κάλυψή μου στο ο σύνδεσμος εδώ.

Μια άλλη κάπως παρόμοια εναλλακτική είναι ότι η τεχνητή νοημοσύνη περιέχει κάποιο είδος ενσωματωμένου προγραμματισμού ηθικής που προσπαθεί να επιτρέψει στο AI να κάνει ηθικές ή ηθικές κρίσεις που συνήθως προορίζονται για ανθρώπους που λαμβάνουν αποφάσεις. Έχω εξετάσει αυτά τα είδη παρασκευής προγνωστικών υπολογιστικής ηθικής που ενσωματώνονται σε AI, βλ. ο σύνδεσμος εδώ και ο σύνδεσμος εδώ.

Επιστρέφοντας σε ένα σενάριο πεδίου μάχης, οραματιστείτε ότι ένα θανατηφόρο αυτόνομο οπλικό σύστημα ταξιδεύει πάνω από μια ζώνη μάχης. Το AI λειτουργεί το αυτόνομο σύστημα. Το AI χειρίζεται τα όπλα επί του σκάφους. Είχαμε συλλάβει νωρίτερα την πιθανότητα ότι η τεχνητή νοημοσύνη θα μπορούσε να προγραμματιστεί να ανιχνεύει για φαινομενικά εχθρικές κινήσεις ή άλλους δείκτες ανθρώπινων στόχων που θεωρούνται έγκυροι μαχητές.

Θα έπρεπε αυτή η ίδια τεχνητή νοημοσύνη να έχει κάποιου είδους συστατικό προσανατολισμένο προς την ηθική που προσπαθεί να εξετάσει υπολογιστικά τι θα μπορούσε να κάνει ένας άνθρωπος-in-the-loop, ενεργώντας κατά κάποιο τρόπο στη θέση του να έχει έναν άνθρωπο-in-the-loop;

Κάποιοι λένε ναι, ας το επιδιώξουμε αυτό. Κάποιοι οπισθοχωρούν με τρόμο και λένε ότι είτε είναι αδύνατο είτε παραβιάζει με άλλον τρόπο την ιερότητα της ανθρωπότητας.

Ακόμα ένα κουτάκι με σκουλήκια.

Συμπέρασμα

Για όσους από εσάς ενδιαφέρεστε για αυτό το θέμα, υπάρχουν πολλά περισσότερα που πρέπει να συζητηθούν.

Θα σας δώσω μια γρήγορη γεύση από ένα ενοχλητικό αίνιγμα.

Συνήθως περιμένουμε ότι ένας άνθρωπος θα λογοδοτήσει τελικά για οτιδήποτε συμβεί κατά τη διάρκεια του πολέμου. Εάν η τεχνητή νοημοσύνη ελέγχει ένα αυτόνομο οπλικό σύστημα ή ελέγχει ένα αυτόνομο σύστημα που πιθανώς έχει οπλιστεί και αυτό το σύστημα κάνει κάτι στο πεδίο της μάχης που πιστεύεται ότι είναι ασυνείδητο, ποιος ή τι πρέπει να κατηγορηθεί για αυτό;

Μπορεί να υποστηρίξετε ότι η τεχνητή νοημοσύνη πρέπει να λογοδοτήσει. Αλλά, αν ναι, τι ακριβώς σημαίνει αυτό; Δεν θεωρούμε ακόμη ότι η σημερινή τεχνητή νοημοσύνη είναι η ενσάρκωση της νομικής προσωπικότητας, δείτε την εξήγησή μου στο ο σύνδεσμος εδώ. Όχι καρφίτσωμα της ουράς στον γάιδαρο στην περίπτωση του AI. Ίσως αν η τεχνητή νοημοσύνη κάποια μέρα γίνει ευαίσθητη, μπορείτε να προσπαθήσετε να το κάνετε. Μέχρι τότε, αυτό είναι λίγο εύρος (συν, σε τι είδους ποινές ή επιπτώσεις θα υπόκειται η τεχνητή νοημοσύνη, δείτε την ανάλυσή μου στο ο σύνδεσμος εδώ και ο σύνδεσμος εδώ, για παράδειγμα).

Εάν η τεχνητή νοημοσύνη δεν είναι ο υπόλογος ύποπτος, θα μπορούσαμε φυσικά να πούμε ότι οποιοσδήποτε άνθρωπος ή άνθρωποι επινόησε το AI θα πρέπει να λογοδοτήσει. Μπορείτε να το κάνετε αυτό εάν η τεχνητή νοημοσύνη λειτουργούσε απλώς ένα αυτόνομο σύστημα και ήρθαν μερικοί άνθρωποι που το συνδύασαν με όπλα; Ακολουθείτε τους προγραμματιστές AI; Ή αυτοί που ανέπτυξαν την τεχνητή νοημοσύνη; Ή απλώς ο οπλοποιός ηθοποιός;

Πιστεύω ότι έχετε την ιδέα ότι έχω αγγίξει μόνο την κορυφή του παγόβουνου στην εγκάρδια συζήτησή μου.

Προς το παρόν, ας προχωρήσουμε και ας ολοκληρώσουμε αυτή τη συζήτηση. Ίσως θυμάστε ότι ο Τζον Λάλι μέσα Euphues: The Anatomy Of Wit το 1578 δήλωσε αξέχαστα ότι όλα είναι δίκαια στον έρωτα και στον πόλεμο.

Θα είχε κατά νου την εμφάνιση αυτόνομων οπλικών συστημάτων και παρομοίως την εμφάνιση αυτόνομων συστημάτων που είναι οπλισμένα;

Σίγουρα πρέπει να το βάλουμε στην κορυφή του μυαλού μας, αμέσως.

Πηγή: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- οπλικά-συστήματα-και-η-εκμετάλλευση-αυτοδύναμα-συστήματα-που-διαβολικά-οπλίζονται/