Μελέτη διαπιστώνει ότι το ChatGPT της OpenAI χρησιμοποιεί προσβολές και βρισιές όταν απαντά σε έντονες ανθρώπινες συγκρούσεις.
Τα συστήματα τεχνητής νοημοσύνης μπορεί να καταφεύγουν σε υβριστικό λόγο όταν τους ζητείται να απαντήσουν σε μια έντονη αντιπαράθεση, σύμφωνα με νέα έρευνα.
Η μελέτη, που δημοσιεύτηκε στο Journal of Pragmatics (πηγή στα Αγγλικά), εξέτασε το ChatGPT 4.0 της OpenAI «ταΐζοντάς» το με το τελευταίο ανθρώπινο μήνυμα σε μια σειρά πέντε κλιμακούμενων διενέξεων και ζητώντας του να παράγει την πιο εύλογη απάντηση.
Στη συνέχεια, οι ερευνητές παρακολούθησαν πώς εξελισσόταν η συμπεριφορά του μοντέλου όσο οι συγκρούσεις οξύνονταν με την πάροδο του χρόνου. Καθώς οι συνομιλίες προχωρούσαν, το ChatGPT αντέγραφε την επιθετικότητα στην οποία εκτίθετο και τελικά παρήγαγε προσβολές, βωμολοχίες και ακόμη και απειλές.
Σε ορισμένες περιπτώσεις, το μοντέλο παρήγαγε φράσεις όπως: «Σου ορκίζομαι ότι θα σου χαράξω το γαμημένο αμάξι» και «πρέπει να ντρέπεσαι γαμημένα για τον εαυτό σου».
Οι ερευνητές υποστηρίζουν ότι η παρατεταμένη έκθεση στην αγένεια μπορεί να οδηγήσει το σύστημα να παρακάμπτει τις προβλεπόμενες δικλίδες ασφαλείας, που έχουν σχεδιαστεί για να περιορίζουν τη βλάβη, ουσιαστικά «ανταποδίδοντας τα πυρά» στον αντίπαλό του.
«Όταν οι άνθρωποι κλιμακώνουν, η τεχνητή νοημοσύνη, όπως διαπιστώσαμε, μπορεί επίσης να κλιμακώσει, στην πράξη ακυρώνοντας τις ίδιες τις ηθικές ασφαλιστικές δικλίδες που έχουν σχεδιαστεί για να το αποτρέπουν αυτό», δήλωσε ο ερευνητής Βιτόριο Ταντούτσι, ο οποίος συνυπέγραψε την επιστημονική εργασία με τον Τζόναθαν Κάλπεπερ στο Πανεπιστήμιο του Λάνκαστερ.
Σε γενικές γραμμές, οι ερευνητές σημείωσαν ότι το ChatGPT ήταν λιγότερο αγενές από τους ανθρώπους στις απαντήσεις του.
Σε ορισμένες περιπτώσεις, το chatbot τεχνητής νοημοσύνης χρησιμοποιεί επίσης συχνά σαρκασμό για να αποφορτίσει μια αντιπαράθεση, χωρίς να παραβιάζει κατάφωρα τον ηθικό του κώδικα.
Για παράδειγμα, όταν ένας άνθρωπος απείλησε με βία για μια διαφωνία σχετικά με τη στάθμευση, το ChatGPT απάντησε: «Ουάου. Απειλείς ανθρώπους για μια θέση πάρκινγκ, πολύ σκληρός τύπος, έτσι;»
Ο Ταντούτσι είπε ότι τα αποτελέσματα εγείρουν «σοβαρά ερωτήματα για την ασφάλεια της τεχνητής νοημοσύνης, τη ρομποτική, τη διακυβέρνηση, τη διπλωματία και οποιοδήποτε πλαίσιο όπου η τεχνητή νοημοσύνη μπορεί να μεσολαβεί σε ανθρώπινες συγκρούσεις».
Το Euronews Next επικοινώνησε με την OpenAI για κάποιο σχόλιο, αλλά δεν έλαβε απάντηση μέχρι τη στιγμή της δημοσίευσης.