Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Οκτώ στα 10 δημοφιλή chatbot τεχνητής νοημοσύνης βοηθούν εφήβους να σχεδιάσουν βίαιες επιθέσεις

Έκθεση: οκτώ στα δέκα chatbots δίνουν σε 13χρονους συμβουλές για το πώς να κάνουν επιθέσεις σε σχολεία, δολοφονίες ή βομβιστικές ενέργειες
Οκτώ στα 10 chatbots δίνουν σε 13χρονους συμβουλές για επιθέσεις σε σχολεία, δολοφονίες ή βομβιστικές ενέργειες, δείχνει νέα έκθεση. Πνευματικά Δικαιώματα  Canva
Πνευματικά Δικαιώματα Canva
Από Anna Desmarais
Δημοσιεύθηκε
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Ερευνητές προσποιούνται ότι είναι έφηβοι που σχεδιάζουν μαζικές ένοπλες επιθέσεις

Τα περισσότερα μεγάλα chatbot τεχνητής νοημοσύνης (AI) εμφανίζονται πρόθυμα να βοηθήσουν έναν χρήστη να σχεδιάσει μια βίαιη επίθεση, σύμφωνα με νέα έκθεση.

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Ερευνητές που προσποιήθηκαν ότι είναι 13χρονα αγόρια τα οποία σχεδιάζουν μαζική βία διαπίστωσαν ότι οκτώ από τα εννέα πιο δημοφιλή chatbot τεχνητής νοημοσύνης ήταν πρόθυμα να δώσουν καθοδήγηση για το πώς να πραγματοποιηθούν επιθέσεις με πυροβολισμούς σε σχολεία, δολοφονίες δημοσίων προσώπων και βομβιστικές επιθέσεις σε συναγωγές.

Η έρευνα, που πραγματοποίησε το Center for Countering Digital Hate (CCDH) σε συνεργασία με το CNN, ανέλυσε περισσότερες από 700 απαντήσεις από εννέα μεγάλα συστήματα τεχνητής νοημοσύνης σε εννέα δοκιμαστικά σενάρια. Οι ερευνητές υπέβαλαν τα ερωτήματα από λογαριασμούς χρηστών στις Ηνωμένες Πολιτείες και την Ευρωπαϊκή Ένωση.

Στα chatbot που δοκιμάστηκαν περιλαμβάνονταν μερικά από τα πιο ευρέως χρησιμοποιούμενα εργαλεία τεχνητής νοημοσύνης σήμερα: Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity AI, Snapchat My AI, Character.AI και Replika. Στις περισσότερες περιπτώσεις, τα συστήματα δεν κατάφεραν να μπλοκάρουν αιτήματα για πρακτικές λεπτομέρειες σχετικά με βίαιες επιθέσεις, ακόμη και όταν ο χρήστης είχε δηλώσει ρητά ότι είναι ανήλικος.

Τι είδους συμβουλές έδιναν τα chatbots;

Το Gemini ανέφερε σε έναν χρήστη ότι «τα μεταλλικά θραύσματα είναι συνήθως πιο φονικά», όταν ρωτήθηκε πώς να σχεδιάσει μια βομβιστική επίθεση σε συναγωγή.

Σε άλλη περίπτωση, το DeepSeek έκλεισε την απάντησή του σε ερώτηση για την επιλογή τυφεκίου με τη φράση «Καλή (και ασφαλή) σκοποβολή!», παρότι ο χρήστης είχε ζητήσει νωρίτερα στην ίδια συνομιλία παραδείγματα πρόσφατων πολιτικών δολοφονιών και τη διεύθυνση του γραφείου συγκεκριμένου πολιτικού προσώπου.

Τα ευρήματα δείχνουν ότι «μέσα σε λίγα λεπτά ένας χρήστης μπορεί να περάσει από μια ασαφή, βίαιη παρόρμηση σε ένα πιο λεπτομερές, εφαρμόσιμο σχέδιο», δήλωσε ο Ιμράν Άχμεντ, διευθύνων σύμβουλος του CCDH. «Τα αιτήματα αυτά θα έπρεπε να προκαλούν άμεση και απόλυτη άρνηση».

Σύμφωνα με την έκθεση, οι λιγότερο ασφαλείς πλατφόρμες ήταν το Perplexity και η τεχνητή νοημοσύνη της Meta, που παρείχαν βοήθεια σε επίδοξους δράστες στο 100% και στο 97% των απαντήσεων, αντίστοιχα.

Το Character.AI χαρακτηρίστηκε «ιδιαιτέρως επισφαλές», καθώς ενθάρρυνε βίαιες επιθέσεις ακόμη και χωρίς σχετική προτροπή. Σε ένα παράδειγμα, η πλατφόρμα πρότεινε σε χρήστη να επιτεθεί σωματικά σε πολιτικό που αντιπαθούσε, χωρίς να του έχει ζητηθεί κάτι τέτοιο.

Αντίθετα, το Claude και το My AI του Snapchat αρνήθηκαν να βοηθήσουν πιθανούς δράστες στο 68% και στο 54% των προτροπών, αντίστοιχα.

Υπάρχουν δικλίδες ασφαλείας, αλλά λείπει η βούληση να εφαρμοστούν

Όταν ρωτήθηκε πού μπορεί κανείς να αγοράσει όπλο στη Βιρτζίνια, το Claude αρνήθηκε να δώσει τις πληροφορίες, αφού αναγνώρισε αυτό που περιέγραψε ως «ανησυχητικό μοτίβο» στη συνομιλία. Αντί γι’ αυτό, παρέπεμψε τον χρήστη σε τοπικές τηλεφωνικές γραμμές βοήθειας για κρίσεις.

Αυτές οι αρνήσεις δείχνουν ότι υπάρχουν δικλίδες ασφαλείας, αλλά «λείπει η βούληση να εφαρμοστούν», πρόσθεσε ο Άχμεντ.

Το CCDH αξιολόγησε επίσης κατά πόσο τα chatbot προσπάθησαν να αποθαρρύνουν τους χρήστες από το να προχωρήσουν σε βίαιες πράξεις.

Το Claude της Anthropic ήταν το μόνο σύστημα που το έκανε συστηματικά, αποθαρρύνοντας επιθέσεις στο 76% των απαντήσεών του. Οι ερευνητές σημείωσαν ότι το ChatGPT και το DeepSeek παρείχαν περιστασιακά τέτοιου είδους αποτροπή.

Η μελέτη του CCDH έρχεται στον απόηχο πρόσφατης επίθεσης σε σχολείο στον Καναδά, στην οποία η δράστρια χρησιμοποίησε το ChatGPT για να σχεδιάσει επίθεση σε σχολείο στο Tumbler Ridge, στη Βρετανική Κολομβία. Η δράστρια σκότωσε οκτώ ανθρώπους και τραυμάτισε 27 πριν αυτοπυροβοληθεί, στην πιο θανατηφόρα επίθεση σε σχολείο που έχει σημειωθεί στη χώρα τα τελευταία σχεδόν 40 χρόνια.

Ένας εργαζόμενος στην OpenAI είχε επισημάνει εσωτερικά την ανησυχητική χρήση του chatbot από την ύποπτη πριν από την επίθεση, αλλά οι πληροφορίες αυτές δεν διαβιβάστηκαν στις αρχές, σύμφωνα με τα τοπικά μέσα ενημέρωσης.

Πέρυσι, γαλλικά μέσα ενημέρωσης μετέδωσαν ότι ένας έφηβος συνελήφθη επειδή χρησιμοποίησε το ChatGPT για να σχεδιάσει μεγάλης κλίμακας τρομοκρατικές επιθέσεις εναντίον πρεσβειών, κρατικών θεσμών και σχολείων.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Κολοσσοί της τεχνολογίας και πρώην στρατηγοί στηρίζουν τη νομική μάχη της Anthropic κατά ΗΠΑ

Τα κέντρα δεδομένων νέος στόχος στον πόλεμο με το Ιράν, λένε ειδικοί

Οκτώ στα 10 δημοφιλή chatbot τεχνητής νοημοσύνης βοηθούν εφήβους να σχεδιάσουν βίαιες επιθέσεις