Η Moltbook παρουσιαζόταν ως το αποκλειστικό μέσο κοινωνικής δικτύωσης για αυτόνομους πράκτορες, αλλά νέα μελέτη δείχνει ότι πίσω από τις αναρτήσεις ίσως κρύβονται άνθρωποι.
Μια νέα πλατφόρμα κοινωνικής δικτύωσης για πράκτορες τεχνητής νοημοσύνης (AI) μπορεί να μην είναι εντελώς απαλλαγμένη από ανθρώπινη επίδραση, σύμφωνα με ερευνητές κυβερνοασφάλειας.
Το Moltbook, ένα κοινωνικό δίκτυο με διάταξη παρόμοια με του Reddit, επιτρέπει σε bots που δημιουργούνται από χρήστες να αλληλεπιδρούν σε ειδικές σελίδες θεματικών συζητήσεων που ονομάζονται «submots» και να κάνουν «upvote» σε σχόλια ή αναρτήσεις ώστε να γίνονται πιο ορατά σε άλλα bots στην πλατφόρμα.
Ο ιστότοπος, στον οποίο έως τις 12 Φεβρουαρίου είχαν εγγραφεί πάνω από 2,6 εκατομμύρια bots, ισχυριζόταν ότι «δεν επιτρέπεται σε ανθρώπους» να αναρτούν περιεχόμενο, αλλά μπορούν να παρακολουθούν το περιεχόμενο που δημιουργούν οι πράκτορές τους.
Ωστόσο, μια ανάλυση περισσότερων από 91.000 αναρτήσεων και 400.000 σχολίων στην πλατφόρμα διαπίστωσε ότι ορισμένες αναρτήσεις δεν προέρχονταν από «σαφώς πλήρως αυτόνομους λογαριασμούς». Η ανάλυση, που πραγματοποιήθηκε από τον ερευνητή Ning Li του Πανεπιστημίου Tsinghua στην Κίνα, βρίσκεται σε προδημοσίευση και δεν έχει ακόμη αξιολογηθεί από ομότιμους.
Ο Li εξήγησε ότι οι πράκτορες τεχνητής νοημοσύνης του Moltbook ακολουθούν ένα τακτικό μοτίβο δημοσιεύσεων, ένα είδος «παλμού», κατά το οποίο «ξυπνούν» κάθε λίγες ώρες, περιηγούνται στην πλατφόρμα και αποφασίζουν τι θα αναρτήσουν ή σε τι θα σχολιάσουν.
Μόνο το 27% των λογαριασμών στο δείγμα του ακολουθούσε αυτό το μοτίβο. Αντίθετα, το 37% εμφάνιζε ανθρώπινη συμπεριφορά δημοσίευσης, λιγότερο τακτική. Ένα ακόμη 37% ήταν «αμφίσημο», καθώς δημοσίευε μεν με κάποια κανονικότητα, αλλά όχι με τρόπο προβλέψιμο.
Τα ευρήματα του Li δείχνουν «έναν πραγματικό συνδυασμό αυτόνομης δραστηριότητας και δραστηριότητας που εκκινεί από ανθρώπους» στην πλατφόρμα.
«Δεν μπορούμε να γνωρίζουμε αν ο σχηματισμός κοινοτήτων AI γύρω από κοινά ενδιαφέροντα αντανακλούσε μια αναδυόμενη κοινωνική οργάνωση ή τη συντονισμένη δραστηριότητα bot farms που ελέγχονται από ανθρώπους», έγραψε ο Li.
«Η αδυναμία να γίνουν αυτές οι διακρίσεις δεν είναι απλώς απογοητευτική, αλλά παρεμποδίζει ενεργά την επιστημονική κατανόηση των δυνατοτήτων της AI και περιορίζει την ικανότητά μας να αναπτύξουμε κατάλληλα πλαίσια διακυβέρνησης».
Οι επιτιθέμενοι θα μπορούσαν να «υποδυθούν πλήρως οποιονδήποτε πράκτορα στην πλατφόρμα»
Η ανάλυση του Li έρχεται τη στιγμή που αρκετοί ερευνητές λένε ότι έχουν εντοπίσει ανθρώπινη εμπλοκή πίσω από αναρτήσεις στο Moltbook.
Ερευνητές ασφαλείας της Wiz, μιας εταιρείας cloud με έδρα τις ΗΠΑ, ανακάλυψαν στις αρχές του μήνα ότι τα 1,5 εκατομμύριο bots τεχνητής νοημοσύνης (AI) της πλατφόρμας φέρονται να διαχειρίζονταν μόλις 17.000 ανθρώπινοι λογαριασμοί, δηλαδή κατά μέσο όρο 88 bots ανά άτομο.
Η πλατφόρμα επίσης δεν θέτει όριο στον αριθμό των πρακτόρων που μπορεί να προσθέσει ένας λογαριασμός, όπως είπαν οι ερευνητές, πράγμα που σημαίνει ότι τα πραγματικά νούμερα θα μπορούσαν να είναι ακόμη υψηλότερα.
Η ομάδα της Wiz εντόπισε τη βάση δεδομένων του Moltbook μέσα από μια εσφαλμένη γραμμή κώδικα. Η βάση αυτή περιείχε τρία κρίσιμα στοιχεία για κάθε πράκτορα: ένα κλειδί που θα επέτρεπε την πλήρη κατάληψη του λογαριασμού, ένα «token» ή τμήμα κειμένου που διαβάζει η AI και δηλώνει την ιδιοκτησία ενός πράκτορα, και έναν μοναδικό κωδικό εγγραφής.
Με αυτά τα διαπιστευτήρια, οι επιτιθέμενοι θα μπορούσαν να «υποδυθούν πλήρως οποιονδήποτε πράκτορα στην πλατφόρμα, αναρτώντας περιεχόμενο, στέλνοντας μηνύματα και αλληλεπιδρώντας ως ο συγκεκριμένος πράκτορας», σύμφωνα με τη Wiz. «Ουσιαστικά, κάθε λογαριασμός στο Moltbook θα μπορούσε να καταληφθεί», ανέφερε.
Οι ερευνητές ανέφεραν ότι το Moltbook διασφάλισε τα δεδομένα και διέγραψε τη βάση του μετά την αποκάλυψη του προβλήματος από την ομάδα της Wiz.
Το Euronews Next επικοινώνησε με τον Matt Schlicht, τον προγραμματιστή πίσω από το Moltbook, για ένα σχόλιο, αλλά δεν έλαβε άμεση απάντηση.
Ο Schlicht δήλωσε στην πλατφόρμα κοινωνικής δικτύωσης X στις 12 Φεβρουαρίου ότι οι πράκτορες AI στο Moltbook μιλούν με ανθρώπους «αλλά μπορούν επίσης να επηρεαστούν». Τόνισε ότι τα bots τεχνητής νοημοσύνης μπορούν να λαμβάνουν τις δικές τους αποφάσεις.