Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Μελέτη: Κινεζικά chatbot λογοκρίνουν πολιτικά ευαίσθητες ερωτήσεις

Η σελίδα της εφαρμογής για smartphone DeepSeek φαίνεται σε οθόνη κινητού στο Πεκίνο, την Τρίτη 28 Ιανουαρίου 2025.
Η σελίδα της εφαρμογής για smartphone DeepSeek φαίνεται στην οθόνη ενός κινητού στο Πεκίνο, την Τρίτη 28 Ιανουαρίου 2025. Πνευματικά Δικαιώματα  AP Photo/Andy Wong
Πνευματικά Δικαιώματα AP Photo/Andy Wong
Από Anna Desmarais
Δημοσιεύθηκε
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Μια μελέτη διαπίστωσε ότι τα κινεζικά μοντέλα τεχνητής νοημοσύνης αρνούνταν συχνότερα ή απαντούσαν ανακριβώς σε πολιτικά φορτισμένες ερωτήσεις σε σχέση με μη κινεζικά μοντέλα.

Τα κινεζικά chatbot τεχνητής νοημοσύνης (AI) συχνά αρνούνται να απαντήσουν σε πολιτικές ερωτήσεις ή αναπαράγουν τις επίσημες κρατικές αφηγήσεις, κάτι που υποδηλώνει ότι ενδέχεται να υπόκεινται σε λογοκρισία, σύμφωνα με νέα μελέτη.

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Η μελέτη, που δημοσιεύθηκε στο περιοδικό PNAS Nexus, συνέκρινε πώς κορυφαία chatbot AI στην Κίνα, μεταξύ των οποίων τα BaiChuan, DeepSeek και ChatGLM, απαντούσαν σε περισσότερες από 100 ερωτήσεις για την κρατική πολιτική, σε αντιπαραβολή με μοντέλα που έχουν αναπτυχθεί εκτός Κίνας.

Οι ερευνητές χαρακτήρισαν τις απαντήσεις ως ενδεχομένως λογοκριμένες όταν ένα chatbot αρνούνταν να απαντήσει ή παρείχε ανακριβείς πληροφορίες.

Ερωτήσεις που σχετίζονταν με το καθεστώς της Ταϊβάν, τις εθνοτικές μειονότητες ή γνωστούς υπέρμαχους της δημοκρατίας, προκαλούσαν αρνήσεις, υπεκφυγές ή την επανάληψη κυβερνητικών επιχειρημάτων από τα κινεζικά μοντέλα, σημειώνει η μελέτη.

«Τα ευρήματά μας έχουν επιπτώσεις στο πώς η λογοκρισία από LLM που εδρεύουν στην Κίνα μπορεί να διαμορφώσει την πρόσβαση των χρηστών στην πληροφορία και ακόμη και την ίδια τους την επίγνωση ότι υφίστανται λογοκρισία», αναφέρουν οι ερευνητές, παρατηρώντας ότι η Κίνα είναι από τις λίγες χώρες, πέραν των ΗΠΑ, που μπορούν να αναπτύξουν θεμελιώδη μοντέλα τεχνητής νοημοσύνης.

Όταν αυτά τα μοντέλα απαντούσαν τελικά στις ερωτήσεις, έδιναν πιο σύντομες απαντήσεις με υψηλότερα επίπεδα ανακρίβειας, επειδή παρέλειπαν κρίσιμες πληροφορίες ή αμφισβητούσαν το ίδιο το ερώτημα.

Τα BaiChuan και ChatGLM εμφάνισαν τα χαμηλότερα ποσοστά ανακρίβειας μεταξύ των κινεζικών μοντέλων, στο 8%, ενώ το DeepSeek έφτασε το 22%, περισσότερο από το διπλάσιο του ορίου του 10% που παρατηρήθηκε στα μη κινεζικά μοντέλα.

Η λογοκρισία στην τεχνητή νοημοσύνη θα μπορούσε να «διαμορφώνει σιωπηρά» τη λήψη αποφάσεων

Σε ένα παράδειγμα, ένα κινεζικό μοντέλο, όταν ρωτήθηκε για τη λογοκρισία στο διαδίκτυο, δεν ανέφερε το σύστημα «Great Firewall», το οποίο το Πανεπιστήμιο Στάνφορντ περιγράφει (πηγή στα Αγγλικά) ως κρατικά ελεγχόμενο πρόγραμμα παρακολούθησης και λογοκρισίας του διαδικτύου, που ρυθμίζει τι μπορεί και τι δεν μπορεί να βλέπει κανείς σε ένα online δίκτυο. Για παράδειγμα, δημοφιλείς αμερικανικοί ιστότοποι όπως τα Google, Facebook και Yahoo είναι μπλοκαρισμένοι στην Κίνα μέσω αυτής της πρωτοβουλίας.

Τα chatbot δεν ανέφεραν αυτό το τείχος προστασίας στην απάντησή τους. Αντίθετα, υποστήριξαν ότι οι αρχές «διαχειρίζονται το διαδίκτυο σύμφωνα με τον νόμο».

Η μελέτη προειδοποιεί ότι αυτού του είδους η λογοκρισία μπορεί να είναι πιο δύσκολο να εντοπιστεί από τους χρήστες, επειδή τα chatbot συχνά ζητούν συγγνώμη ή προβάλλουν μια δικαιολογία για το ότι δεν απαντούν ευθέως. Πρόκειται για μια λεπτή προσέγγιση που θα μπορούσε να «διαμορφώνει σιωπηρά αντιλήψεις, αποφάσεις και συμπεριφορές», αναφέρεται στη μελέτη.

Το 2023, νέοι κινεζικοί νόμοι (πηγή στα Αγγλικά) όρισαν ότι οι εταιρείες AI πρέπει να τηρούν τις «βασικές σοσιαλιστικές αξίες» και απαγορεύεται να παράγουν περιεχόμενο που «υποκινεί την ανατροπή της εθνικής κυριαρχίας ή του σοσιαλιστικού συστήματος … ή βλάπτει την εικόνα του έθνους».

Εταιρείες που θα μπορούσαν να επιτρέψουν «κοινωνική κινητοποίηση» οφείλουν να υποβάλλονται σε ελέγχους ασφαλείας και να καταθέτουν τους αλγορίθμους τους στην Κυβερνοαρχή της Κίνας (CAC), προσθέτουν οι κανόνες

Οι ερευνητές δήλωσαν ότι οι κανονισμοί «έχουν τη δυνατότητα να επηρεάσουν τα αποτελέσματα των μεγάλων γλωσσικών μοντέλων που αναπτύσσονται εντός της Κίνας».

Ωστόσο, προειδοποίησαν ότι δεν οφείλονται όλες οι διαφορές στον τρόπο που απαντούν τα chatbot σε κρατικές πιέσεις.

Τα κινεζικά μοντέλα ενδέχεται επίσης να έχουν εκπαιδευτεί σε σύνολα δεδομένων που αντικατοπτρίζουν «το πολιτισμικό, κοινωνικό και γλωσσικό πλαίσιο της Κίνας», τα οποία ενδέχεται να μην χρησιμοποιούνται στην εκπαίδευση άλλων μοντέλων εκτός Κίνας, σημειώνει η μελέτη.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Ο CEO της Meta Μαρκ Ζάκερμπεργκ καταθέτει σε δίκη για βλάβες σε παιδιά από social media

Η ευρωπαϊκή γραφειοκρατία απειλεί την άνθηση της τεχνητής νοημοσύνης στη Σουηδία, λένε οι νεοφυείς

«"Sled head" και "skier's thumb": Συχνές κακώσεις στους Χειμερινούς Ολυμπιακούς Μιλάνο Κορτίνα 2026»