Η εταιρεία τεχνητής νοημοσύνης Anthropic και το Πεντάγωνο των ΗΠΑ βρίσκονται σε μετωπική σύγκρουση. Όλα όσα πρέπει να γνωρίζετε.
Η κυβέρνηση των Ηνωμένων Πολιτειών απειλεί να τερματίσει τα στρατιωτικά συμβόλαια με την εταιρεία Anthropic, αν αυτή δεν ανοίξει την τεχνολογία τεχνητής νοημοσύνης της για απεριόριστη στρατιωτική χρήση.
Η Anthropic αναπτύσσει το chatbot Claude και είναι η τελευταία από τις αντίστοιχες εταιρείες που δεν παρέχει ακόμη την τεχνολογία της σε ένα νέο εσωτερικό στρατιωτικό δίκτυο των ΗΠΑ.
Ο διευθύνων σύμβουλος Ντάριο Αμοτέι έχει επανειλημμένα εκφράσει τις ηθικές του ανησυχίες για την ανεξέλεγκτη χρήση της τεχνητής νοημοσύνης από τις κυβερνήσεις, συμπεριλαμβανομένων των κινδύνων από πλήρως αυτόνομα οπλισμένα drones και από μαζική παρακολούθηση με τη βοήθεια συστημάτων τεχνητής νοημοσύνης, ικανή να εντοπίζει κάθε μορφή διαφωνίας.
Η Anthropic ανέλαβε τον περασμένο Ιούλιο ένα συμβόλαιο ύψους 200 εκατ. δολαρίων (167 εκατ. ευρώ) από το υπουργείο Άμυνας των ΗΠΑ, για να «αναπτύξει πιλοτικά προηγμένες δυνατότητες τεχνητής νοημοσύνης που ενισχύουν την εθνική ασφάλεια των ΗΠΑ», όπως ανέφερε η ίδια η εταιρεία. Η εταιρεία υπέγραψε μια συνεργασία (πηγή στα Αγγλικά) με την Palantir Technologies το 2024, ώστε να ενσωματωθεί το Claude στο λογισμικό των αμερικανικών υπηρεσιών πληροφοριών.
Σύμφωνα με πληροφορίες, ο υπουργός Άμυνας Πιτ Χέγκσεθ δήλωσε την Τρίτη ότι θα ακυρώσει το συμβόλαιο των 200 εκατ. δολαρίων (167 εκατ. ευρώ) και θα χαρακτηρίσει την εταιρεία «κίνδυνο για την εφοδιαστική αλυσίδα», εάν η Anthropic δεν συμμορφωθεί.
Εάν η Anthropic χαρακτηριστεί κίνδυνος για την εφοδιαστική αλυσίδα βάσει του αμερικανικού νόμου (πηγή στα Αγγλικά) περί δημοσίων προμηθειών, η κυβέρνηση θα μπορεί να αποκλείει την εταιρεία από την ανάθεση συμβάσεων, να αφαιρεί τα προϊόντα της από κάθε διαγωνιστική διαδικασία και να δίνει εντολή στους βασικούς αναδόχους να μην χρησιμοποιούν αυτόν τον προμηθευτή.
Σύμφωνα με τα δημοσιεύματα για τη συνάντηση του Χέγκσεθ με τον Ντάριο Αμοτέι, διευθύνοντα σύμβουλο και συνιδρυτή της Anthropic, ο Χέγκσεθ φέρεται επίσης να απείλησε ότι θα κάνει χρήση του νόμου Defense Production Act (πηγή στα Αγγλικά) εναντίον της εταιρείας, ενός νόμου που δίνει στον πρόεδρο των ΗΠΑ ευρείες αρμοδιότητες να κατευθύνει ιδιωτικές εταιρείες ώστε να θέτουν σε προτεραιότητα τις ανάγκες της εθνικής ασφάλειας, συμπεριλαμβανομένης της πρόσβασης στην τεχνολογία τους.
Το Euronews Next επικοινώνησε με την Anthropic και με το αμερικανικό υπουργείο Άμυνας για να επιβεβαιώσει τις καταγγελίες, αλλά δεν έλαβε άμεσες απαντήσεις.
Η Anthropic υπαναχωρεί από βασική δέσμευση για την ασφάλεια
Η Anthropic εδώ και καιρό προβάλλεται ως η πιο υπεύθυνη και προσανατολισμένη στην ασφάλεια από τις μεγάλες εταιρείες τεχνητής νοημοσύνης, από τότε που οι ιδρυτές της αποχώρησαν από την OpenAI για να δημιουργήσουν τη νεοφυή επιχείρηση το 2021.
Την Τρίτη, σε συνέντευξή της στο περιοδικό Time, η Anthropic ανακοίνωσε ότι εγκαταλείπει τη δέσμευσή της να μη διαθέτει σύστημα τεχνητής νοημοσύνης αν δεν μπορεί να εγγυηθεί πως τα μέτρα ασφαλείας είναι επαρκή.
Αντ’ αυτού, παρουσίασε μια νέα εκδοχή της πολιτικής «υπεύθυνης κλιμάκωσης», η οποία περιγράφει το πλαίσιο της εταιρείας για τον περιορισμό καταστροφικών κινδύνων από την τεχνητή νοημοσύνη.
Ο Τζάρεντ Κάπλαν, επικεφαλής επιστημονικός διευθυντής της Anthropic, δήλωσε στο περιοδικό ότι αν η εταιρεία σταματούσε να εκπαιδεύει νέα μοντέλα, ενώ οι ανταγωνιστές της προχωρούσαν χωρίς αντίστοιχα μέτρα ασφαλείας, δεν θα μπορούσε να παραμείνει στον αγώνα της τεχνητής νοημοσύνης.
«Αν ένας δημιουργός συστημάτων τεχνητής νοημοσύνης παγώσει την ανάπτυξη για να εφαρμόσει μέτρα ασφαλείας, ενώ άλλοι συνεχίσουν να εκπαιδεύουν και να αναπτύσσουν συστήματα AI χωρίς ισχυρές δικλίδες, αυτό θα μπορούσε να οδηγήσει σε έναν λιγότερο ασφαλή κόσμο», αναφέρει η νέα πολιτική της Anthropic.
«Οι δημιουργοί με τις πιο αδύναμες δικλίδες ασφαλείας θα έθεταν τον ρυθμό και οι υπεύθυνοι δημιουργοί θα έχαναν τη δυνατότητα να διεξάγουν έρευνα για την ασφάλεια και να προάγουν το δημόσιο συμφέρον».
Η πολιτική διαχωρίζει τις φιλοδοξίες της Anthropic να επιβάλει πρότυπα ασφάλειας στον κλάδο από τους δικούς της εταιρικούς στόχους, όπου η ασφάλεια παραμένει προτεραιότητα.
Η Anthropic ανέφερε ότι η νέα πολιτική σημαίνει πως η εταιρεία θα καταρτίζει «φιλόδοξους αλλά ρεαλιστικούς» οδικούς χάρτες ασφάλειας για τα μοντέλα της, καθώς και θα δημοσιεύει εκθέσεις κινδύνου, στις οποίες θα παρουσιάζονται οι αναμενόμενοι κίνδυνοι και αν δικαιολογείται η διάθεση κάθε μοντέλου.