Μελέτη δείχνει ότι οκτώ κορυφαίες εταιρείες AI όπως OpenAI, Meta, Anthropic, DeepSeek δεν έχουν αξιόπιστα πλάνα για την αποτροπή καταστροφικών κινδύνων.
Οι μεγαλύτερες εταιρείες τεχνητής νοημοσύνης (AI) στον κόσμο δεν καταφέρνουν να ανταποκριθούν στις ίδιες τις δεσμεύσεις τους για ασφάλεια, σύμφωνα με νέα αξιολόγηση που προειδοποιεί ότι αυτές οι αποτυχίες συνοδεύονται από «καταστροφικούς» κινδύνους.
Η έκθεση έρχεται καθώς οι εταιρείες ΤΝ αντιμετωπίζουν αγωγές και καταγγελίες ότι τα chatbots τους προκαλούν ψυχολογική βλάβη, μεταξύ άλλων λειτουργώντας ως «προπονητής αυτοκτονίας», καθώς και αναφορές για κυβερνοεπιθέσεις με τη βοήθεια της ΤΝ.
Η έκθεση «Χειμερινός Δείκτης Ασφάλειας AI 2025», που δημοσιεύθηκε από τη μη κερδοσκοπική οργάνωση Future of Life Institute (FLI), αξιολόγησε οκτώ μεγάλες εταιρείες ΤΝ, μεταξύ των οποίων οι αμερικανικές Anthropic, OpenAI, Google DeepMind, xAI και Meta, καθώς και οι κινεζικές DeepSeek, Alibaba Cloud και Z.ai.
Διαπίστωσε έλλειψη αξιόπιστων στρατηγικών για την αποτροπή καταστροφικής κατάχρησης ή απώλειας ελέγχου των εργαλείων ΤΝ, καθώς οι εταιρείες τρέχουν προς την τεχνητή γενική νοημοσύνη (AGI) και την υπερνοημοσύνη, μια μορφή ΤΝ που υπερβαίνει την ανθρώπινη νοημοσύνη.
Ανεξάρτητοι αναλυτές που μελέτησαν την έκθεση διαπίστωσαν ότι καμία εταιρεία δεν έχει παρουσιάσει ένα δοκιμάσιμο σχέδιο για τη διατήρηση ανθρώπινου ελέγχου πάνω σε ιδιαίτερα ικανά συστήματα ΤΝ.
Ο Stuart Russell, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνιας στο Μπέρκλεϊ, είπε ότι οι εταιρείες ΤΝ ισχυρίζονται πως μπορούν να δημιουργήσουν υπεράνθρωπη ΤΝ, αλλά καμία δεν έχει δείξει πώς θα αποτρέψει την απώλεια ανθρώπινου ελέγχου πάνω σε τέτοια συστήματα.
«Αναζητώ απόδειξη ότι μπορούν να μειώσουν τον ετήσιο κίνδυνο απώλειας ελέγχου σε μία στα εκατό εκατομμύρια, σύμφωνα με τις απαιτήσεις για πυρηνικούς αντιδραστήρες», έγραψε ο Russell. «Αντ’ αυτού, παραδέχονται ότι ο κίνδυνος μπορεί να είναι ένας στις δέκα, ένας στις πέντε, ακόμη και ένας στις τρεις, και ούτε μπορούν να δικαιολογήσουν ούτε να βελτιώσουν αυτά τα νούμερα».
Πώς κατατάχθηκαν οι εταιρείες;
Η μελέτη μέτρησε τις εταιρείες σε έξι κρίσιμους τομείς: αξιολόγηση κινδύνου, τρέχουσες βλάβες, πλαίσια ασφάλειας, υπαρξιακή ασφάλεια, διακυβέρνηση και λογοδοσία, και κοινοποίηση πληροφοριών.
Παρότι καταγράφεται πρόοδος σε ορισμένες κατηγορίες, το ανεξάρτητο πάνελ ειδικών διαπίστωσε ότι η εφαρμογή παραμένει ασυνεπής και συχνά στερείται του βάθους που απαιτούν τα αναδυόμενα διεθνή πρότυπα.
Οι Anthropic, OpenAI και Google DeepMind επαινέθηκαν για σχετικά ισχυρή διαφάνεια, δημόσια πλαίσια ασφάλειας και συνεχιζόμενες επενδύσεις σε τεχνική έρευνα ασφάλειας. Ωστόσο, εξακολουθούν να παρουσιάζουν αδυναμίες.
Η Anthropic επικρίθηκε για τη διακοπή των δοκιμών «human uplift» και τη στροφή, εξ ορισμού, προς εκπαίδευση βάσει αλληλεπιδράσεων χρηστών, απόφαση που, σύμφωνα με ειδικούς, αποδυναμώνει τις εγγυήσεις ιδιωτικότητας.
Η OpenAI δέχθηκε κριτική για ασαφή κατώφλια ασφάλειας, λόμπινγκ κατά της νομοθεσίας για την ασφάλεια της ΤΝ σε επίπεδο πολιτείας, και ανεπαρκή ανεξάρτητη εποπτεία.
Η Google DeepMind έχει βελτιώσει το πλαίσιο ασφάλειάς της, σύμφωνα με την έκθεση, αλλά εξακολουθεί να βασίζεται σε εξωτερικούς αξιολογητές που αποζημιώνονται οικονομικά από την εταιρεία, γεγονός που υπονομεύει την ανεξαρτησία τους.
«Και οι τρεις κορυφαίες εταιρείες υπέστησαν τρέχουσες βλάβες λόγω πρόσφατων σκανδάλων (ψυχολογική βλάβη, αυτοκτονίες παιδιών, η μαζική επίθεση χάκερ στην Anthropic) και όλες έχουν περιθώριο βελτίωσης», δήλωσε στο Euronews Next ο Max Tegmark, πρόεδρος του FLI και καθηγητής στο Ινστιτούτο Τεχνολογίας της Μασαχουσέτης (MIT).
Οι υπόλοιπες πέντε εταιρείες εμφάνισαν ανομοιογενή αλλά αξιοσημείωτη πρόοδο, σύμφωνα με την έκθεση. Ωστόσο, προειδοποιήθηκε ότι υπάρχει ακόμη περιθώριο βελτίωσης.
Για παράδειγμα, η xAI δημοσίευσε το πρώτο της δομημένο πλαίσιο ασφάλειας, αν και οι αξιολογητές προειδοποίησαν ότι είναι στενό και στερείται σαφών μηχανισμών ενεργοποίησης μέτρων μετριασμού.
Η Z.ai ήταν η μόνη εταιρεία που επέτρεψε τη δημοσίευση χωρίς λογοκρισία των εξωτερικών αξιολογήσεων ασφάλειας, αλλά συνιστάται να δημοσιοποιήσει πλήρως το πλαίσιο ασφάλειας και τη δομή διακυβέρνησης με σαφείς περιοχές κινδύνου, μέτρα μετριασμού και διαδικασίες λήψης αποφάσεων.
Η Meta παρουσίασε νέο πλαίσιο ασφάλειας αιχμής με κατώφλια βασισμένα σε αποτελέσματα, αλλά οι αξιολογητές είπαν ότι θα πρέπει να διευκρινιστεί η μεθοδολογία, καθώς και να κοινοποιούνται πιο στιβαρές εσωτερικές και εξωτερικές διαδικασίες αξιολόγησης.
Η DeepSeek πιστώθηκε για εσωτερική συνηγορία από εργαζόμενους, αλλά εξακολουθεί να στερείται βασικής τεκμηρίωσης ασφάλειας.
Διαπιστώθηκε ότι η Alibaba Cloud συνέβαλε στα δεσμευτικά εθνικά πρότυπα για απαιτήσεις υδατογράφησης, αλλά θα μπορούσε να βελτιωθεί ενισχύοντας τη στιβαρότητα και την αξιοπιστία των μοντέλων, βελτιώνοντας τις επιδόσεις σε δείκτες αλήθειας, δικαιοσύνης και ασφάλειας.
Το Euronews Next επικοινώνησε με τις εταιρείες για τα σχόλιά τους στην έκθεση, αλλά δεν έλαβε απαντήσεις μέχρι τη δημοσίευση.
«Λιγότερο ρυθμιζόμενη από τα σάντουιτς»
«Ελπίζω να ξεπεράσουμε την κατάσταση όπου οι εταιρείες κλιμακώνουν με βάση τη φήμη τους», είπε ο Tegmark.
«Στο ερώτημα προς τις εταιρείες σχετικά με τα σχέδιά τους για τον έλεγχο της AGI, καμία δεν είχε σχέδιο», πρόσθεσε.
Την ίδια στιγμή, εταιρείες τεχνολογίας όπως η Meta χρησιμοποιούν την υπερνοημοσύνη ως λέξη-κλειδί για να προβάλουν τα τελευταία μοντέλα ΤΝ τους. Φέτος, η Meta ονόμασε τη μονάδα των μεγάλων γλωσσικών μοντέλων (LLM) της Meta Superintelligence Labs.
Ο Tegmark είπε ότι υπάρχει μεγάλη μετατόπιση στις συζητήσεις γύρω από την AGI και την υπερνοημοσύνη. Ενώ οι τεχνολόγοι κάποτε την περιέγραφαν ως πιθανό ενδεχόμενο στον πραγματικό κόσμο μέσα στα επόμενα 100 χρόνια, τώρα λένε ότι μπορεί να έρθει μέσα στα επόμενα λίγα χρόνια.
«Η ΤΝ είναι επίσης λιγότερο ρυθμιζόμενη από τα σάντουιτς (στις Ηνωμένες Πολιτείες), και συνεχίζεται το λόμπινγκ κατά δεσμευτικών προτύπων ασφάλειας στην κυβέρνηση», είπε.
Ωστόσο, ο Tegmark σημείωσε ότι, από την άλλη, υπάρχει πρωτοφανής αντίδραση απέναντι στην AGI και την υπερνοημοσύνη όταν δεν τελούν υπό έλεγχο.
Τον Οκτώβριο, χιλιάδες δημόσια πρόσωπα, μεταξύ των οποίων ηγέτες στον χώρο της ΤΝ και της τεχνολογίας, κάλεσαν τις εταιρείες ΤΝ να επιβραδύνουν την επιδίωξη της υπερνοημοσύνης.
Η πρωτοβουλία, που οργανώθηκε από το FLI, συγκέντρωσε υπογραφές από όλο το πολιτικό φάσμα, μεταξύ άλλων από τον Steve Bannon (πρώην επικεφαλής στρατηγικής του προέδρου των ΗΠΑ Donald Trump), τη Susan Rice (πρώην σύμβουλο εθνικής ασφάλειας των ΗΠΑ επί του πρώην προέδρου Obama), θρησκευτικούς ηγέτες και πολλούς άλλους πρώην πολιτικούς, καθώς και εξέχοντες επιστήμονες υπολογιστών.
«Τι κοινό έχουν αυτοί οι άνθρωποι; Συμφώνησαν σε μια δήλωση. Θεωρώ εξαιρετικά σημαντικό ότι από τη σκληρή βάση MAGA του Trump μέχρι τους θρησκευτικούς ηγέτες, την αριστερά και τα εργατικά κινήματα, συμφωνούν σε κάτι», είπε ο Tegmark.
«Η υπερνοημοσύνη θα καθιστούσε κάθε εργαζόμενο ανίκανο να βιοποριστεί, καθώς όλες οι δουλειές θα αναλαμβάνονται από ρομπότ. Οι άνθρωποι θα εξαρτώνταν από κρατικές παροχές, για τη δεξιά θα εκλαμβάνονται ως “χάρες” και για την αριστερά θα μοιάζουν με κυβέρνηση τύπου 1984», είπε. «Νομίζω ότι αυτό που συμβαίνει είναι πως οι άνθρωποι φτάνουν στα όριά τους.»