Το Υπουργείο Άμυνας χαρακτηρίζει την Anthropic «κίνδυνο για την εφοδιαστική αλυσίδα», ώστε να μπορεί να την αποκλείει από συμβάσεις και να μπλοκάρει συνεργασίες με άλλες εταιρείες.
Η Microsoft, απόστρατοι στρατιωτικοί ηγέτες και think tanks τεχνητής νοημοσύνης (AI) στηρίζουν την Anthropic στην προσπάθειά της να ακυρώσει τον χαρακτηρισμό της κυβέρνησης Τραμπ για την εταιρεία ως «κίνδυνο για την εφοδιαστική αλυσίδα».
«Οι ενέργειες του Υπουργείου Πολέμου των ΗΠΑ (DOW)αναγκάζουν τους κρατικούς αναδόχους να συμμορφωθούν με ασαφείς και κακώς ορισμένες εντολές, που δεν έχουν ποτέ μέχρι σήμερα χρησιμοποιηθεί δημόσια εναντίον αμερικανικής εταιρείας», αναφέρεται στο νομικό υπόμνημα της Microsoft.
Στο δικαστικό της υπόμνημα η Microsoft υποστηρίζει ότι ο χαρακτηρισμός ως κινδύνου για την εφοδιαστική αλυσίδα «ενδέχεται να επιφέρει σοβαρές οικονομικές συνέπειες που δεν εξυπηρετούν το δημόσιο συμφέρον» και ζητά από τον δικαστή να διατάξει προσωρινή άρση του χαρακτηρισμού.
Οι καταθέσεις αυτές έρχονται σε συνέχεια της απόφασης της Anthropic να καταθέσει νομική προσφυγή σε βάρος του Υπουργείου Πολέμου των Ηνωμένων Πολιτειών την περασμένη εβδομάδα.
Ο χαρακτηρισμός της Anthropic ως κινδύνου για την εφοδιαστική αλυσίδα σημαίνει ότι η κυβέρνηση μπορεί να αποκλείει την εταιρεία από την ανάθεση συμβάσεων, να αφαιρεί τα προϊόντα της από τη διαδικασία αξιολόγησης και να απαγορεύει στους κύριους αναδόχους να χρησιμοποιούν τον συγκεκριμένο προμηθευτή.
Μέχρι πρόσφατα, η Anthropic ήταν η μόνη από τις ομόλογες εταιρείες της που είχε εγκριθεί για χρήση σε διαβαθμισμένα στρατιωτικά δίκτυα. Το chatbot τεχνητής νοημοσύνης της είχε υιοθετηθεί σε όλο το δίκτυο διαβαθμισμένων πληροφοριακών συστημάτων της αμερικανικής κυβέρνησης, είχε εγκατασταθεί στα εθνικά πυρηνικά εργαστήρια και παρείχε ανάλυση πληροφοριών για το Υπουργείο Πολέμου.
Ποιοι άλλοι στηρίζουν την Anthropic;
Αρκετά κοινά υπομνήματα υπέρ της Anthropic έχουν κατατεθεί από Αμερικανούς στρατιωτικούς αξιωματούχους, μεγάλες εταιρείες τεχνολογίας και οργανισμούς τεχνητής νοημοσύνης.
Η στάση του υπουργού Άμυνας των ΗΠΑ Πιτ Χέγκσεθ απέναντι στην Anthropic «απειλεί τις αρχές του κράτους δικαίου που επί δεκαετίες ενισχύουν τις ένοπλες δυνάμεις μας», σύμφωνα με το υπόμνημα, το οποίο συνυπογράφει ο Μάικλ Χέιντεν, πρώην διευθυντής της Κεντρικής Υπηρεσίας Πληροφοριών (CIA) των ΗΠΑ.
Υποστηρίζουν επίσης ότι οι ενέργειες του Χέγκσεθ συνιστούν κατάχρηση κυβερνητικής εξουσίας, ως «αντίποινα σε μια ιδιωτική εταιρεία που δυσαρέστησε την ηγεσία».
Το υπόμνημα των πρώην στρατιωτικών προειδοποιεί ότι η «ξαφνική αβεβαιότητα» που δημιουργεί η στοχοποίηση μιας τεχνολογίας η οποία είναι ευρέως ενσωματωμένη σε στρατιωτικές πλατφόρμες μπορεί να αποσυντονίσει τον σχεδιασμό και να θέσει σε κίνδυνο στρατιώτες κατά τη διάρκεια εν εξελίξει επιχειρήσεων, όπως ο πόλεμος στο Ιράν.
Άλλο υπόμνημα (πηγή στα Αγγλικά), εκ μέρους 37 μηχανικών τεχνητής νοημοσύνης που εργάζονταν στο παρελθόν στην OpenAI και στο DeepMind της Google, χαρακτηρίζει τις ενέργειες του DOW «ακατάλληλη και αυθαίρετη χρήση εξουσίας με σοβαρές επιπτώσεις για τον κλάδο μας».
«Αν αυτό το εγχείρημα τιμωρίας μιας από τις κορυφαίες αμερικανικές εταιρείες τεχνητής νοημοσύνης προχωρήσει, θα έχει αναμφίβολα συνέπειες για τη βιομηχανική και επιστημονική ανταγωνιστικότητα των Ηνωμένων Πολιτειών στον τομέα της τεχνητής νοημοσύνης και πέρα από αυτόν», αναφέρει το υπόμνημα. «Και θα παγώσει τον ανοιχτό διάλογο στον κλάδο μας σχετικά με τους κινδύνους και τα οφέλη των σημερινών συστημάτων τεχνητής νοημοσύνης».
Ένα ξεχωριστό υπόμνημα σημειώνει ότι δεν είναι δύσκολο να «φανταστεί κανείς έναν κόσμο όπου η κυβέρνηση ελέγχει ουσιαστικά τι κάνουν και τι λένε όλοι οι Αμερικανοί», εφόσον η κυβέρνηση μπορεί να υπαγορεύει τις πολιτικές της Anthropic.
Το κοινό υπόμνημα (πηγή στα Αγγλικά), από οργανώσεις όπως το Electronic Frontier Foundation και το Cato Institute, υποστηρίζει ότι οι ενέργειες της κυβέρνησης παραβιάζουν την Πρώτη Τροπολογία της χώρας, το μέρος του Συντάγματος που κατοχυρώνει την ελευθερία του λόγου.
«Οι ενέργειες της κυβέρνησης … απειλούν τη ζωντάνια και την ανεξαρτησία της δημοκρατίας μας», αναφέρεται στο υπόμνημα.
Πώς ξεκίνησε η σύγκρουση;
Η διαμάχη ανάμεσα στην Anthropic και τον αμερικανικό στρατό ξεκίνησε όταν η εταιρεία αρνήθηκε να δώσει στις ένοπλες δυνάμεις ανεμπόδιστη πρόσβαση στο chatbot τεχνητής νοημοσύνης της, το Claude. Η κυβέρνηση έδωσε στην Anthropic προθεσμία 48 ωρών για να παράσχει πρόσβαση, διαφορετικά θα αντιμετώπιζε κυρώσεις.
Ο διευθύνων σύμβουλος της Anthropic, Ντάριο Αμοντέι, ανέφερε ότι η εταιρεία έθεσε στον στρατό δύο «κόκκινες γραμμές»: η τεχνολογία της να μην χρησιμοποιηθεί για μαζική εγχώρια παρακολούθηση και να μη ενσωματωθεί σε πλήρως αυτόνομα όπλα.
Ο Αμοντέι δήλωσε σε ανακοίνωση (πηγή στα Αγγλικά) στις 26 Φεβρουαρίου ότι «δεν μπορώ, με βάση τη συνείδησή μου, να αποδεχθώ το αίτημα του Πενταγώνου» για απεριόριστη πρόσβαση στα συστήματα τεχνητής νοημοσύνης της εταιρείας.
«Σε ένα περιορισμένο σύνολο περιπτώσεων, πιστεύουμε ότι η τεχνητή νοημοσύνη μπορεί να υπονομεύσει, αντί να υπερασπιστεί, τις δημοκρατικές αξίες», έγραψε. «Ορισμένες χρήσεις βρίσκονται επίσης απλώς πέρα από τα όρια όσων μπορεί σήμερα η τεχνολογία να κάνει με ασφάλεια και αξιοπιστία», πρόσθεσε.
Η κατάθεση της Microsoft στο δικαστήριο στήριξε τις κόκκινες γραμμές της Anthropic, αναφέροντας ότι «η αμερικανική τεχνητή νοημοσύνη δεν πρέπει να χρησιμοποιείται για τη διεξαγωγή μαζικής εσωτερικής παρακολούθησης ή για την έναρξη πολέμου χωρίς ανθρώπινο έλεγχο», σημειώνοντας ότι η θέση αυτή «είναι σύμφωνη με τον νόμο».
Σύμφωνα με δήλωση του Χέγκσεθ, το Claude θα αποσυρθεί επίσης σταδιακά από τις στρατιωτικές επιχειρήσεις μέσα στους επόμενους έξι μήνες.
Ο Αμοντέι ανέφερε σε δήλωσή του ότι το Υπουργείο Πολέμου μπορεί να επιλέξει με ποιους θα συνεργαστεί σε συμβάσεις που ευθυγραμμίζονται περισσότερο με το όραμά του, αλλά «δεδομένης της σημαντικής αξίας που προσφέρει η τεχνολογία της Anthropic στις ένοπλες δυνάμεις μας, ελπίζουμε να επανεξετάσει».