Τεχνολογία

Τα ρομπότ «παίρνουν τα όπλα» – H τεχνητή νοημοσύνη μπορεί να δημιουργήσει «Terminator»

Από αυτοκίνητα χωρίς οδηγούς έως ψηφιακούς βοηθούς, η τεχνητή νοημοσύνη (artificial intelligence) γίνεται αναπόσπαστο κομμάτι των ζωών μας όσον αφορά στην τεχνολογία στις μέρες μας. Αλλά αυτή η ίδια η τεχνολογία που προσπαθεί να διευκολύνει τη ζωή μας με κάθε τρόπο, ενσωματώνεται επίσης και σε οπλικά συστήματα για να χρησιμοποιηθούν σε καταστάσεις μάχης.

Η «οπλική» Τεχνητή Νοημοσύνη απασχολεί ολοένα και περισσότερο τις δυνάμεις ασφαλείας των μεγάλων χωρών (ΗΠΑ, Κίνα και Ρωσία για παράδειγμα) και ορισμένα από τα όπλα «νέας γενιάς» που κάνουν την εμφάνισή τους στον πολύπαθο αυτό πλανήτη περιλαμβάνουν ήδη αρκετές αυτόνομες δυνατότητες που βασίζονται στην ΑΙ. Όσο αναπτύσσεται η «οπλική» Τεχνητή Νοημοσύνη, πάει να πει ότι οι μηχανές θα μπορούν ενδεχομένως να λάβουν αποφάσεις για να βλάψουν και να σκοτώσουν ανθρώπους με βάση τον προγραμματισμό τους, χωρίς ανθρώπινη παρέμβαση, πράγμα που θυμίζει -όπως και να το κάνουμε- ταινίες τύπου «Terminator»…

Όπως αναφέρεται σε άρθρο του Independent, που υπογράφει ο Ingvild Bode, αναπλ. καθηγητής διεθνων σχέσεων του University of Southern Denmark, οι χώρες που υποστηρίζουν τη χρήση όπλων τεχνητής νοημοσύνης ισχυρίζονται ότι τους επιτρέπει να ανταποκρίνονται σε αναδυόμενες απειλές με ταχύτητα μεγαλύτερη από την ανθρώπινη. Λένε επίσης ότι μειώνει τον κίνδυνο για το στρατιωτικό ανθρώπινο δυναμικό και αυξάνει την ικανότητα επίτευξης στόχων με μεγαλύτερη ακρίβεια. Αλλά εδώ υπάρχει ένα μεγάλο όμως...

Και αυτό το «όμως» έχει να κάνει καταρχάς με το πόσο… άνετα αισθάνεται ο ανθρώπινος παράγοντας να δίνει τέτοιου είδους εξουσίες σε μηχανές και κατά δεύτερον πως κάτι τέτοιο δεν συνάδει με τις αρχές του διεθνούς δικαίου που απαιτεί να υπάρχει ανθρώπινη κρίση πίσω από κάθε απόφαση…

Πράγματι, ο ρόλος που πρέπει να διαδραματίζουν οι άνθρωποι στη χρήση αποφάσεων περί βίας (ή αποφάσεων ζωής ή θανάτου) ήταν -και εξακολουθεί να είναι-  ένα… αγαπημένο θέμα συζήτησης σε πολλές συνεδριάσεις των Ηνωμένων Εθνών. Και σε μια πρόσφατη συνεδρίαση του ΟΗΕ, τα κράτη συμφώνησαν ότι είναι απαράδεκτο για ηθικούς και νομικούς λόγους να μεταβιβάζονται αποφάσεις χρήσης βίας σε μηχανές «χωρίς κανέναν ανθρώπινο έλεγχο».

Όμως, ενώ αυτό μπορεί να ακούγεται σαν καλή είδηση, εξακολουθούν να υπάρχουν σημαντικές διαφορές στον τρόπο με τον οποίο τα κράτη ορίζουν τον «ανθρώπινο έλεγχο».

Τι εστί «ανθρώπινος έλεγχος»

Μια πιο προσεκτική ματιά σε διάφορες κυβερνητικές δηλώσεις ανά τον κόσμο, δείχνει ότι πολλές μεγάλες δυνάμεις, συμπεριλαμβανομένων των βασικών προγραμματιστών «οπλικής» AI, όπως οι ΗΠΑ και η Βρετανία, προτιμούν αυτό που είναι γνωστό ως «κατανεμημένη προοπτική» του ανθρώπινου ελέγχου.

Τι πάει να πει αυτό; Πως όταν ο ανθρώπινος έλεγχος υφίσταται σε ολόκληρο τον κύκλο ζωής των οπλικών συστημάτων – από την ανάπτυξη, στη χρήση αλλά και σε όλα τα στάδια της στρατιωτικής λήψης αποφάσεων.- τότε… όλα είναι ΟΚ! Αλλά ενώ για κάποιους αυτό μπορεί να ακούγεται λογικό, στην πραγματικότητα αφήνει πολύ χώρο για τον ανθρώπινο έλεγχο να γίνει… ας πούμε παρεξηγημένος και νεφελώδης.

Όπως και να ‘χει, το να αναγνωρίζεται ο ανθρώπινος έλεγχος ως διαδικασία και όχι ως μεμονωμένη απόφαση είναι πολύ σημαντικό (και σωστό). Και αντικατοπτρίζει την επιχειρησιακή πραγματικότητα, καθώς υπάρχουν πολλά στάδια για το πώς οι σύγχρονοι στρατιωτικοί σχεδιάζουν επιθέσεις που εμπλέκουν μια ανθρώπινη «αλυσίδα» διοίκησης. Υπάρχουν όμως και κάποια μειονεκτήματα σε αυτό.

Για παράδειγμα, ενώ μπορεί να ακούγεται καθησυχαστικό να έχουμε ανθρώπινο έλεγχο στο στάδιο της έρευνας και ανάπτυξης ενός «έξυπνου» οπλικού συστήματος, αυτό δημιουργεί και συγκεκριμένες δυσκολιες τεχνολογικού χαρακτήρα, καθώς, όσο κι αν θέλουμε να «ευλογούμε τα γένια μας», οι τρέχοντες αλγόριθμοι δεν είναι ιδιαίτερα προβλέψιμοι και κατανοητοί από τους ανθρώπινους χειριστές τους. Έτσι, ακόμη και αν ανθρώπινοι χειριστές εποπτεύουν συστήματα που εφαρμόζουν αυτούς τους αλγόριθμους όταν χρησιμοποιούν βία, δεν είναι σε θέση να καταλάβουν πώς αυτά τα συστήματα έχουν υπολογίσει στόχους. Έτσι τίθεται εν αμφιβόλω το πόσο επιδρά ο ανθρώπινος παράγοντας στη λήψη πολύ σημαντικών αποφάσεων στο πεδίο της μάχης, όπως η διάκριση μεταξύ αμάχων και μαχητών ή η αξιολόγηση μιας αναλογικής στρατιωτικής απάντησης.

Σε αντίθεση με τις μηχανές, οι ανθρώπινες αποφάσεις σε καταστάσεις μάχης δεν μπορούν να προγραμματιστούν εκ των προτέρων. Πράγματι, το μεγαλύτερο μέρος των υποχρεώσεων του διεθνούς ανθρωπιστικού δικαίου ισχύουν για πραγματικές, συγκεκριμένες αποφάσεις στο πεδίο της μάχης για χρήση βίας και όχι σε προηγούμενα στάδια του κύκλου ζωής ενός όπλου. Αυτό τονίστηκε από ένα μέλος της αντιπροσωπείας της Βραζιλίας στις πρόσφατες συνεδριάσεις του ΟΗΕ.

Η συμμόρφωση με το διεθνές δίκαιο στο ταχέως μεταβαλλόμενο πλαίσιο ενός πολέμου απαιτεί επίσης συνεχή ανθρώπινη αξιολόγηση. Αυτό δεν μπορεί να γίνει απλά με έναν αλγόριθμο. Αυτό συμβαίνει ειδικά σε «πολέμους πόλεων», όπου πολίτες και στρατιώτες βρίσκονται στον ίδιο χώρο.

Οι κανόνες και η ανθρώπινη αξιοπρέπεια

Εν κατακλείδι, αποτελεί γεγονός πως το να έχουμε μηχανές που μπορούν να πάρουν την απόφαση να τερματιστεί η ζωή κάποιου ανθρώπου παραβιάζει την ανθρώπινη αξιοπρέπεια, καθώς ουσιαστικά μειώνει την αξία του ανθρώπου σε αντικείμενο. Όπως υποστηρίζει και ο Peter Asaro, φιλόσοφος της επιστήμης και της τεχνολογίας: «Το να διακρίνεται ένας ΄στόχος΄ σε ένα πεδίο δεδομένων δεν αναγνωρίζει ένα ανθρώπινο άτομο ως κάποιον με δικαιώματα». Πράγματι, μια μηχανή δεν μπορεί να προγραμματιστεί για να εκτιμήσει την αξία της ανθρώπινης ζωής.

Πολλά κράτη έχουν υποστηρίξει πως πρέπει να θεσπιστούν νέοι κανόνες δικαίου για τη διασφάλιση του ανθρώπινου ελέγχου στα αυτόνομα όπλα «νέας γενιάς». Ωστόσο, κάποια άλλη κράτη, συμπεριλαμβανομένων των ΗΠΑ, υποστηρίζουν ότι το ισχύον διεθνές δίκαιο είναι αρκετό. Αν και η αβεβαιότητα σχετικά με τον ουσιαστικό ανθρώπινο έλεγχο δείχνει ότι απαιτείται περισσότερη σαφήνεια με τη μορφή νέων κανόνων στο διεθνές δίκαιο.

Κανόνων που επιβάλλεται να επικεντρωθούν στις βασικές ιδιότητες που καθιστούν τον ανθρώπινο έλεγχο ουσιαστικό, διατηρώντας παράλληλα την ανθρώπινη κρίση στο πλαίσιο συγκεκριμένων αποφάσεων σχετικά με τη χρήση βίας. Χωρίς αυτούς τους κανόνες, υπάρχει ο κίνδυνος να υποτιμηθεί η αξία του νέου διεθνούς δικαίου που έχουν ως στόχο τον περιορισμό της «οπλικής» τεχνητής νοημοσύνης.

Αυτό είναι πολύ σημαντικό γιατί χωρίς ειδικούς κανόνες, οι τρέχουσες πρακτικές στη λήψη στρατιωτικών αποφάσεων θα συνεχίσουν να θεωρούνται «εγκεκριμένες» χωρίς να χρειάζεται περαιτέρω συζήτηση…

 

Φωτογραφίες: Getty Images / Ideal Image.

Σχετικά Άρθρα

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Αυτός ο ιστότοπος χρησιμοποιεί το Akismet για να μειώσει τα ανεπιθύμητα σχόλια. Μάθετε πώς υφίστανται επεξεργασία τα δεδομένα των σχολίων σας.

Back to top button