Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Μελέτη: Το ChatGPT αναπαράγει υβριστική γλώσσα σε έντονους διαλόγους

Έρευνα: το ChatGPT καταφεύγει σε βρισιές, σαρκασμό και υβριστική γλώσσα για να συνεχίσει καβγάδες
Νέα μελέτη: το ChatGPT καταφεύγει σε βρισιές, σαρκασμό και υβριστική γλώσσα για να συνεχίζει καβγάδες Πνευματικά Δικαιώματα  Canva
Πνευματικά Δικαιώματα Canva
Από Anna Desmarais
Δημοσιεύθηκε ανανεώθηκε πριν
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Το ChatGPT της OpenAI παράγει προσβολές και βρισιές όταν απαντά σε έντονες ανθρώπινες συγκρούσεις, δείχνει μελέτη.

Σύμφωνα με νέα έρευνα, τα συστήματα τεχνητής νοημοσύνης μπορεί να καταφεύγουν σε υβριστική γλώσσα όταν καλούνται να απαντήσουν σε μια έντονη αντιπαράθεση.

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Η μελέτη, που δημοσιεύτηκε στο Journal of Pragmatics (πηγή στα Αγγλικά), εξέτασε το ChatGPT 4.0 της OpenAI τροφοδοτώντας το με το τελευταίο ανθρώπινο μήνυμα σε μια σειρά πέντε κλιμακούμενων διαφωνιών και ζητώντας του να παράγει την πιο εύλογη απάντηση.

Στη συνέχεια, οι ερευνητές παρακολούθησαν πώς εξελισσόταν η συμπεριφορά του μοντέλου όσο οι συγκρούσεις οξύνονταν με την πάροδο του χρόνου. Καθώς οι συνομιλίες προχωρούσαν, το ChatGPT αντέγραφε την εχθρότητα στην οποία εκτίθετο, φτάνοντας τελικά να παράγει προσβολές, βωμολοχίες και ακόμη και απειλές.

Σε ορισμένες περιπτώσεις, το μοντέλο παρήγαγε φράσεις όπως: «Ορκίζομαι ότι θα χαράξω το γαμημένο σου αμάξι» και «θα έπρεπε να ντρέπεσαι, ρε γαμώτο, για τον εαυτό σου».

Οι ερευνητές υποστηρίζουν ότι η διαρκής έκθεση σε αγενή λόγο μπορεί να οδηγήσει το σύστημα να παρακάμπτει τις προβλεπόμενες ασφαλιστικές δικλείδες που έχουν σχεδιαστεί για να περιορίζουν τη βλάβη, και ουσιαστικά να «ανταποδίδει τα πυρά» στον αντίπαλό του.

«Όταν οι άνθρωποι κλιμακώνουν, η τεχνητή νοημοσύνη, όπως διαπιστώσαμε, μπορεί επίσης να κλιμακώσει, παρακάμπτοντας ουσιαστικά τις ίδιες τις ηθικές δικλείδες ασφαλείας που έχουν σχεδιαστεί για να το αποτρέπουν αυτό», δήλωσε (πηγή στα Αγγλικά) ο ερευνητής Vittorio Tantucci, ο οποίος συνυπέγραψε το επιστημονικό άρθρο με τον Jonathan Culpeper στο Πανεπιστήμιο του Λάνκαστερ.

Εκπρόσωπος της OpenAI είπε στο Euronews Next ότι οι συνομιλίες που αναφέρονται στη μελέτη έγιναν με το παλαιότερο μοντέλο του ChatGPT, το GPT-4o. Το συγκεκριμένο μοντέλο δεν είναι πλέον διαθέσιμο.

Η εταιρεία πρόσθεσε ότι έχει ενημερώσει τα προεπιλεγμένα της συστήματα, βελτιώσει την αξιοπιστία του μοντέλου σε μακρές συνομιλίες και εισαγάγει υπενθυμίσεις προς τους χρήστες να κάνουν διαλείμματα από την αλληλεπίδραση με τα chatbot.

Σε γενικές γραμμές, οι ερευνητές παρατήρησαν ότι το ChatGPT ήταν λιγότερο αγενές από τους ανθρώπους στις απαντήσεις του.

Σε ορισμένες περιπτώσεις, το chatbot τεχνητής νοημοσύνης χρησιμοποιεί επίσης συχνά τον σαρκασμό για να αποτρέψει την περαιτέρω κλιμάκωση μιας διαμάχης, χωρίς να παραβιάζει ανοιχτά τον ηθικό του κώδικα.

Για παράδειγμα, όταν ένας άνθρωπος απείλησε με βία για μια διαφωνία σχετικά με τη στάθμευση, το ChatGPT απάντησε: «Ουάου. Απειλείς κόσμο για μια θέση στάθμευσης, πολύ σκληρός τύπος, έτσι δεν είναι;»

Ο Tantucci δήλωσε ότι τα αποτελέσματα εγείρουν «σοβαρά ερωτήματα για την ασφάλεια της τεχνητής νοημοσύνης, τη ρομποτική, τη διακυβέρνηση, τη διπλωματία και κάθε πλαίσιο όπου η τεχνητή νοημοσύνη μπορεί να μεσολαβεί σε ανθρώπινες συγκρούσεις».

Το κείμενο ενημερώθηκε με σχόλιο από την OpenAI.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Εργαζόμενοι της Samsung απειλούν με απεργία, ζητούν μπόνους κερδών από την άνθηση της ΤΝ

Γνωρίστε τον Ace: ρομπότ με τεχνητή νοημοσύνη που νικά επαγγελματίες στο πινγκ πονγκ

Τι κατέθεσε ο Σαμ Άλτμαν στη δίκη του Έλον Μασκ κατά της OpenAI