Anthropic και OpenAI προσλαμβάνουν ειδικούς σε χημικά και εκρηκτικά για να θέσουν δικλίδες ασφαλείας στα συστήματα τεχνητής νοημοσύνης τους.
Οι εταιρείες τεχνητής νοημοσύνης (AI) Anthropic και OpenAI επιδιώκουν να προσλάβουν ειδικούς σε όπλα και εκρηκτικά, ώστε να αποτρέψουν την κακή χρήση της τεχνολογίας τους, σύμφωνα με αγγελίες θέσεων εργασίας και των δύο εταιρειών.
Η Anthropic ανακοίνωσε με ανάρτηση (πηγή στα Αγγλικά) στο LinkedIn ότι αναζητά ειδικό σε θέματα πολιτικής για χημικά όπλα και εκρήξεις, προκειμένου να αποτρέψει την «καταστροφική κατάχρηση» της τεχνολογίας της, διαμορφώνοντας τον τρόπο με τον οποίο τα συστήματα AI της διαχειρίζονται ευαίσθητες πληροφορίες σε αυτούς τους τομείς.
Το άτομο που θα προσληφθεί στην Anthropic θα σχεδιάζει και θα παρακολουθεί τα πλαίσια προστασίας για τον τρόπο με τον οποίο τα μοντέλα AI ανταποκρίνονται σε αιτήματα προς το σύστημα σχετικά με χημικά όπλα και εκρηκτικά. Θα πραγματοποιεί επίσης «άμεσες παρεμβάσεις» σε τυχόν κλιμακώσεις που εντοπίζει η Anthropic σε αιτήματα για όπλα και εκρήξεις.
Οι υποψήφιοι θα πρέπει να διαθέτουν τουλάχιστον πέντε χρόνια εμπειρίας στην «άμυνα απέναντι σε χημικά όπλα και/ή εκρηκτικά», καθώς και γνώση των «συσκευών διασποράς ραδιενεργού υλικού», των λεγόμενων dirty bombs. Η θέση προβλέπει τον σχεδιασμό (πηγή στα Αγγλικά) νέων αξιολογήσεων κινδύνου, στις οποίες η διοίκηση της εταιρείας θα μπορεί να «βασίζεται σε λανσαρίσματα με μεγάλο διακύβευμα».
Σε αγγελία θέσης εργασίας που δημοσίευσε η OpenAI νωρίτερα μέσα στον μήνα αναφερόταν ότι αναζητά ερευνητές για να ενταχθούν στην ομάδα Preparedness, η οποία παρακολουθεί «καταστροφικούς κινδύνους που σχετίζονται με μοντέλα AI αιχμής».
Η εταιρεία προκήρυξε επίσης θέση για έναν ειδικό μοντελοποίησης απειλών (Threat Modeler), ο οποίος θα έχει την κύρια ευθύνη «για τον εντοπισμό, τη μοντελοποίηση και την πρόβλεψη κινδύνων από μοντέλα AI αιχμής» και θα λειτουργεί ως «κεντρικός κόμβος που συνδέει τις τεχνικές, διοικητικές και πολιτικές οπτικές σχετικά με την ιεράρχηση, την εστίαση και τη λογική της προσέγγισής μας στους κινδύνους αιχμής από την AI».
Το Euronews Next ζήτησε σχόλιο από τις Anthropic και OpenAI για τις αγγελίες, αλλά δεν έλαβε άμεση απάντηση.
Οι προσλήψεις αυτές γίνονται αφότου η Anthropic προσέφυγε στη Δικαιοσύνη κατά της αμερικανικής κυβέρνησης, η οποία είχε χαρακτηρίσει την εταιρεία «κίνδυνο για την εφοδιαστική αλυσίδα», χαρακτηρισμό που επιτρέπει στην κυβέρνηση να μπλοκάρει συμβάσεις ή να δίνει εντολή σε υπηρεσίες να μην συνεργάζονται μαζί της.
Η αντιπαράθεση ξεκίνησε στις 24 Φεβρουαρίου, όταν το Υπουργείο Πολέμου (Department of War, DOW) απαίτησε απεριόριστη πρόσβαση στο chatbot Claude της Anthropic.
Ο διευθύνων σύμβουλος Dario Amodei είπε (πηγή στα Αγγλικά) ότι οι συμβάσεις με το DOW δεν θα πρέπει να περιλαμβάνουν περιπτώσεις όπου το Claude χρησιμοποιείται για μαζική εγχώρια παρακολούθηση ή ενσωματώνεται σε πλήρως αυτόνομα όπλα.
Λίγο μετά τη ρήξη με την Anthropic, η OpenAI υπέγραψε συμφωνία με το Υπουργείο Πολέμου (DOW) για την εγκατάσταση των συστημάτων AI της σε διαβαθμισμένα περιβάλλοντα. Η εταιρεία ανέφερε ότι η συμφωνία περιλαμβάνει αυστηρές «κόκκινες γραμμές», όπως την απαγόρευση χρήσης των συστημάτων της για μαζική παρακολούθηση ή για αυτόνομα όπλα.