Τεχνητή νοημοσύνη και πόλεμος: Αχαρτογράφητα νερά και αναπάντητα ερωτήματα

L'intelligenza militare in guerra
L'intelligenza militare in guerra Πνευματικά Δικαιώματα frame/euronews
Από Πάνος Κιτσικόπουλος
Κοινοποιήστε το άρθροΣχόλια
Κοινοποιήστε το άρθροClose Button
Αντιγραφή/Επικόλληση το λινκ του βίντεο πιο κάτω:Copy to clipboardCopied

Μια πολεμική σύρραξη, όπου η τεχνητή νοημοσύνη έχει τον πρώτο λόγο, είναι σε μια πρώτη ανάγνωση ελκυστική. Παραπέμπει σε ταινίες επιστημονικής φαντασίας, όπου οι ανθρώπινες απώλειες περιορίζονται και η αποτελεσματικότητα εκτοξεύεται. Όμως είναι όντως όλα τόσο ιδανικά;

ΔΙΑΦΉΜΙΣΗ

Με τη βοήθεια ειδικών από όλο τον κόσμο, η Ουκρανία ξεκινά το σχέδιο "Brave 1". Πρόκειται για μια φιλόδοξη πρωτοβουλία ανάπτυξης στρατιωτικής τεχνολογίας, η οποία εκτείνεται από συστήματα άμυνας και κυβερνοασφάλειας στη δημιουργία μη παραδοσιακού οπλισμού, όπως αυτόματα ή αυτόνομα όπλα που, χάρη στην τεχνητή νοημοσύνη, θα μπορούσαν να λειτουργήσουν ανεξάρτητα και να αλλάξουν για πάντα το τοπίο στις στρατιωτικές επιχειρήσεις.

Η εφαρμογή τους στο μέλλον ωστόσο είναι αμφιλεγόμενη, γιατί, καλή η τεχνητή νοημοσύνη, όμως ποιος θα είναι ο ρόλος των ανθρώπων;

Όπως επισημαίνει ο καθηγητής στο Παρατηρητήριο Πληροφοριών, Ασφάλειας και Άμυνας της Σεβίλλης Θέσαρ Πιντάδο, «συνεχώς εγκαταλείπονται αποστολές λόγω ηθικών, νομικών και τεχνικών ζητημάτων ή απλά λόγω της εξέλιξης της ίδιας της μάχης».

«Τίθεται εδώ το ζήτημα της απώλειας του ηθικού παράγοντα, διότι, με το ανθρώπινο χέρι, πάντα υπάρχει η πιθανότητα θεωρητικά ότι ο άνθρωπος θα νιώσει συμπόνοια και ενσυναίσθηση και θα έχει κρίση. Ένα σύστημα εκπαιδευμένο με δεδομένα να κάνει κάτι δεν έχει αυτήν την επιλογή», σημειώνει η ερευνήτρια του Κέντρου Μελέτης του Πολέμου στο πανεπιστήμιο της Νότιας Δανίας Άννα Ναμπιμπάιτζε.

Επιχειρήσεις με σμήνη από drones, ρομποτικά σκυλιά ή ανθρωποειδή ρομπότ... Ίσως ακούγονται ως σκηνές από ταινία επιστημονικής φαντασίας. Όμως στο όχι και τόσο μακρινό μέλλον θα μπορούσαν να μπουν σε μια ένοπλη σύρραξη. Υπάρχει όμως μια σειρά κινδύνων στη χρήση τεχνητής νοημοσύνης. Για παράδειγμα, οι αλγόριθμοι να έχουν θέματα στα αποθηκευμένα δεδομένα τους, όπως σφάλματα στην βιομετρική αναγνώριση προσώπου ή έλλειψη υπολογισμού του περιβάλλοντός τους.

Τα παραδείγματα του Θέσαρ Πιντάδο είναι διαφωτιστικά: «Τι γίνεται αν ένα τεθωρακισμένο όχημα καταληφθεί από φίλιες δυνάμεις ή αν συμβεί το αντίθετο; Τι γίνεται αν το ίδιο μοντέλο χρησιμοποιείται από έναν σύμμαχο ή αν προσωρινά βρίσκεται δίπλα σε συμμαχικά στρατεύματα ή σε κλειστούς χώρους, όπως μια εκκλησία ή ένα σχολείο;»

Τα αχαρτογράφητα νερά της εφαρμογής της τεχνητής νοημοσύνης στον πόλεμο προκαλούν μεγάλη ανησυχία στην διεθνή κοινότητα. Οι επιστήμονες του κλάδου έχουν ζητήσει ένα μορατόριουμ έξι μηνών στην ανάπτυξη αυτής της τεχνολογίας, ώστε να μελετήσουν τυχόν επιπτώσεις της.

Η Άννα Ναμπιμπάιτζε από την πλευρά της ζητεί επιτάχυνση της επιβολής ρύθμισης: «Οι κυβερνήσεις παγκοσμίως ενδιαφέρονται πολύ και εμφανώς στο να επενδύσουν και να συνεχίσουν να επενδύουν πολλά χρήματα σε αυτές τις τεχνολογίες. Υπάρχει μια επείγουσα ανάγκη για να αντιμετωπιστούν αυτές οι προκλήσεις με νομικά δεσμευτικούς κανόνες, διότι προς το παρόν το διεθνές ρυθμιστικό πλαίσιο και το διεθνές ανθρωπιστικό δίκαιο δεν επαρκούν για κάτι τέτοιο».

Κοινοποιήστε το άρθροΣχόλια

Σχετικές ειδήσεις

«Η τεχνητή νοημοσύνη απειλεί την ανθρωπότητα»: Κραυγή αγωνίας από Ίλον Μασκ και ειδικούς

Γαλλία: Τεχνητή νοημοσύνη με κάμερες και ντρόουν για την παρακολούθηση του πλήθους

Γαλλία: Νέο πρόστιμο στη Google ύψους 250 εκατομμυρίων ευρώ