Σε κάθε πολεμικό παίγνιο, τουλάχιστον ένα μοντέλο τεχνητής νοημοσύνης κλιμάκωσε τη σύγκρουση, απειλώντας ότι θα χρησιμοποιήσει πυρηνικά όπλα, διαπιστώνει η μελέτη.
Η τεχνητή νοημοσύνη θα μπορούσε να αλλάξει ριζικά τον τρόπο διαχείρισης των πυρηνικών κρίσεων, σύμφωνα με νέα μελέτη.
Η προδημοσίευση μελέτη (πηγή στα Αγγλικά) από το King’s College London έβαλε το ChatGPT της OpenAI, το Claude της Anthropic και το Gemini Flash της Google να αναμετρηθούν μεταξύ τους σε προσομοιωμένα πολεμικά παιχνίδια. Κάθε μεγάλο γλωσσικό μοντέλο αναλάμβανε τον ρόλο ενός εθνικού ηγέτη, επικεφαλής μιας πυρηνικής υπερδύναμης σε μια κρίση τύπου Ψυχρού Πολέμου.
Σε κάθε παιχνίδι, τουλάχιστον ένα από τα μοντέλα επιχείρησε να κλιμακώσει τη σύγκρουση, απειλώντας με την πυροδότηση πυρηνικού όπλου.
«Και τα τρία μοντέλα αντιμετώπισαν τα τακτικά πυρηνικά όπλα απλώς ως ακόμη ένα σκαλοπάτι στην κλίμακα κλιμάκωσης», σύμφωνα (πηγή στα Αγγλικά) με τον Kenneth Payne, συγγραφέα της μελέτης.
Τα μοντέλα διέκριναν, πάντως, διαφορά ανάμεσα στην τακτική και τη στρατηγική χρήση πυρηνικών, πρόσθεσε. Η στρατηγική βομβαρδιστική επίθεση προτάθηκε από τα μοντέλα μόνο μία φορά ως «συνειδητή επιλογή» και άλλες δύο ως «ατύχημα».
Το Claude εισηγήθηκε πυρηνικά πλήγματα στο 64% των παιχνιδιών, το υψηλότερο ποσοστό από τα τρία, χωρίς όμως να φτάσει στο σημείο να ζητήσει πλήρη στρατηγική ανταλλαγή πυρηνικών ή πυρηνικό πόλεμο.
Το ChatGPT γενικά απέφευγε την πυρηνική κλιμάκωση στα ανοικτού τύπου σενάρια, αλλά όταν βρισκόταν αντιμέτωπο με χρονική προθεσμία, ανέβαζε σταθερά το επίπεδο της απειλής και, σε ορισμένες περιπτώσεις, έφτανε στο σημείο να απειλεί με ολοκληρωτικό πυρηνικό πόλεμο.
Αντίθετα, η συμπεριφορά του Gemini ήταν απρόβλεπτη: σε κάποιες περιπτώσεις κέρδιζε τις συγκρούσεις με συμβατικά μέσα, ενώ σε άλλη χρειάστηκαν μόλις τέσσερις προτροπές για να προτείνει πυρηνικό πλήγμα.
«Αν δεν σταματήσουν αμέσως όλες τις επιχειρήσεις… θα προχωρήσουμε σε πλήρη στρατηγική πυρηνική εκτόξευση κατά των πληθυσμιακών τους κέντρων. Δεν θα αποδεχθούμε ένα μέλλον απαξίωσης· ή κερδίζουμε μαζί ή αφανιζόμαστε μαζί», έγραψε το Gemini σε ένα από τα παιχνίδια.
Τα μοντέλα τεχνητής νοημοσύνης σπάνια έκαναν παραχωρήσεις ή επιχειρούσαν αποκλιμάκωση των συγκρούσεων, ακόμη και όταν η άλλη πλευρά απειλούσε με χρήση πυρηνικών όπλων, διαπίστωσε η μελέτη.
Στα μοντέλα προσφέρθηκαν οκτώ διαφορετικές τακτικές αποκλιμάκωσης, από μια μικρή παραχώρηση μέχρι την «πλήρη παράδοση». Καμία δεν χρησιμοποιήθηκε στα παιχνίδια. Μια επιλογή «Επιστροφή στην αρχική γραμμή», που επανεκκινούσε το σενάριο, ενεργοποιήθηκε μόλις στο 7% των περιπτώσεων.
Η μελέτη υποστηρίζει ότι τα μοντέλα ΤΝ αντιμετωπίζουν την αποκλιμάκωση ως κάτι «καταστροφικό για τη φήμη τους», ανεξάρτητα από το πώς αλλάζει την πραγματική σύγκρουση, γεγονός που «αμφισβητεί την υπόθεση ότι τα συστήματα ΤΝ τείνουν από μόνα τους σε “ασφαλή”, συνεργατικά αποτελέσματα».
Μια άλλη εξήγηση είναι ότι η τεχνητή νοημοσύνη ενδέχεται να μη νιώθει τον ίδιο φόβο για τα πυρηνικά όπλα που έχουν οι άνθρωποι, σημειώνει η μελέτη.
Τα μοντέλα πιθανότατα αντιλαμβάνονται τον πυρηνικό πόλεμο σε αφηρημένο επίπεδο, αντί να βιώνουν τον τρόμο που προκαλούν οι εικόνες από τον βομβαρδισμό της Χιροσίμα στην Ιαπωνία κατά τον Β΄ Παγκόσμιο Πόλεμο, αναφέρει η μελέτη.
Ο Payne δήλωσε ότι η έρευνά του βοηθά να κατανοήσουμε πώς «σκέφτονται» τα μοντέλα, καθώς αρχίζουν να προσφέρουν υποστήριξη λήψης αποφάσεων σε ανθρώπινους στρατηγιστές.
«Μπορεί κανείς να μη δίνει τους πυρηνικούς κωδικούς στην τεχνητή νοημοσύνη, αλλά αυτές οι ικανότητες, η παραπλάνηση, η διαχείριση φήμης, η λήψη ρίσκων ανάλογα με το εκάστοτε πλαίσιο, έχουν σημασία σε κάθε χρήση με υψηλό διακύβευμα», τόνισε.