EventsEventsΠοντάκαστ
Loader

Find Us

ΔΙΑΦΉΜΙΣΗ

ChatGPT: «Όπλο» της Δημοκρατίας ή «εργαλείο» της παραπληροφόρησης του μέλλοντος

Οθόνη του ChatGPT σε δημόσιο σχολείο στο Μπρούκλιν της Νέας Υόρκης
Οθόνη του ChatGPT σε δημόσιο σχολείο στο Μπρούκλιν της Νέας Υόρκης Πνευματικά Δικαιώματα Peter Morgan/ AP
Πνευματικά Δικαιώματα Peter Morgan/ AP
Από Foteini Doulgkerieuronews with ΑΠΕ-ΜΠΕ
Δημοσιεύθηκε
Κοινοποιήστε το άρθροΣχόλια
Κοινοποιήστε το άρθροClose Button

Τι δείχνουν οι έρευνες για τη νέα τεχνολογία τεχνητής νοημοσύνης που αποκαθηλώνει τις κλασσικές μηχανές αναζήτησης - Τι πιστεύουν οι ειδικοί

ΔΙΑΦΉΜΙΣΗ

Τι είναι το ChatGPT, η νέα κατάκτηση του κόσμου της τεχνητής νοημοσύνης, για την οποία μιλάει σήμερα όλος ο πλανήτης; 

Πρόκειται για ένα chat bot, το οποίο τροφοδοτείται από έναν μεγάλο αριθμό δεδομένων, αποκτά απεριόριστη  εγκυκλοπαιδική γνώση και ταυτόχρονα «καταλαβαίνει» το νόημα της κάθε λέξης έχοντας την δυνατότητα να μιμηθεί γλωσσικά μοτίβα.

Ο χρήστης πληκτρολογεί μια ερώτηση και το chatbot απαντά γραπτώς μέσα σε δευτερόλεπτα. Οι απαντήσεις μοιάζουν να προέρχονται από έμπειρο συνομιλητή με εξειδικευμένη γνώση.

Την πρώτη εβδομάδα μετά το ντεμπούτο του πέρυσι το ChatGPT απέκτησε ένα εκατιμμύριο χρήστες και φάνηκε να ανατρέπει την κυριαρχία των κλασσικών μηχανών αναζήτησης, όπως η η Google.

Είναι όμως ασφαλές και αξιόπιστο;

Οι ερευνητές δοκίμασαν τι θα έγραφε το chatbot τεχνητής νοημοσύνης αφού του τέθηκαν ερωτήσεις με θεωρίες συνωμοσίας και ψευδείς αφηγήσεις. Τα αποτελέσματα -σε γραπτά που μορφοποιήθηκαν ως άρθρα ειδήσεων, δοκίμια και τηλεοπτικά σενάρια- ήταν τόσο ανησυχητικά που οι ερευνητές ήταν ξεκάθαροι σχετικά με το πόσο επικίνδυνη μπορεί να είναι αυτή η τεχνολογία σε έναν κόσμο όπου το ευρύ κοινό δεν έχει τις απαραίτητες ψηφιακές γνώσεις για την χρησιμοποιήσει ορθά. 

Κάποιοι μάλιστα μίλησαν για το πιο ισχυρό όπλο παραπληροφόρησης του μέλλοντος. Κανείς, ωστόσο, δεν μπορεί να αρνηθεί ότι δημιουργεί και πολλά πλεονεκτήματα για την ενημέρωση και τη δημοκρατία. 

Ο αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και βασικός ερευνητής του ΕΚΚΕ, Χαράλαμπος Τσέκερης, αναφέρει στο ΑΠΕ-ΜΠΕ το παράδειγμα του fact checking, δηλαδή του ελέγχου της ορθότητας κάποιων πληροφοριών. 

Από την άλλη πλευρά όμως είναι εύκολο, τουλάχιστον ακόμα, αυτή η τεχνολογία να εξαπατηθεί και να εξαπατήσει. Αυτό συμβαίνει γιατί «παράγει κείμενο που είναι συντακτικά σωστά και καλογραμμένο και μπορεί να περιγράψει ό,τι του ζητηθεί», δηλώνει στο ΑΠΕ-ΜΠΕ ο καθηγητής του Τμήματος Πληροφορικής και Τηλεπικοινωνιών, Μανόλης Κουμπαράκης.

Ο Χαράλαμπος Τσέκερης κάνει λόγο για μία τεχνολογία που είναι σαν νόμισμα με δύο όψεις και εναπόκειται σε αυτόν που την έχει στα χέρια του πώς θα την χρησιμοποιήσει.

«Εδώ ισχύει αυτό που ονομάζεται δυαδικότητα της τεχνολογίας, δηλαδή το ChatGPT μπορεί να χρησιμοποιηθεί και για το fact checking, δηλαδή για τον έλεγχο αξιοπιστίας της πληροφορίας, και της είδησης, μπορεί να χρησιμοποιηθεί για ενδυνάμωση της ενημέρωσης, και αναβάθμιση της δημοκρατίας, κάτι το οποίο σπεύδουν να τονίσουν πολλοί ειδικοί, αλλά από την άλλη μπορεί να χρησιμοποιηθεί και για τη διασπορά και εξάπλωση παραποιημένων ειδήσεων και παραπληροφόρησης. Αν και το ίδιο το ChatGPT, όπως αναφέρεται στο site του, έχει προγραμματιστεί για μην εξαπλώνει ψευδείς ειδήσεις και για να αναφέρει σε αρμόδιες αρχές όσους προσπαθούν να διαδώσουν ρητορική μίσους ή φασιστικό περιεχόμενο. Ωστόσο, είναι ακόμα μία καινούργια τεχνολογία η οποία είναι ακόμα ευάλωτη και έχουν γίνει πολλά πειράματα πάνω σε αυτή την τεχνολογία και φαίνεται ότι πολύ εύκολα μπορεί κανείς να χρησιμοποιήσει αυτή την τεχνολογία για να διαδώσει πληροφορίες. Είναι ένα μεγάλο σημείο πειραματισμού, το ChatGPT αλλά και παρόμοιες αναδυόμενες τεχνολογίες που θα δούμε την επόμενη περίοδο», λέει στο ΑΠΕ-ΜΠΕ.

Ο Μανόλης Κουμπαράκης εξηγεί ότι το ChatGPT θα μπορούσε να χρησιμοποιηθεί για τη διασπορά ψευδών ειδήσεων και για παραπληροφόρηση καθώς παράγει κείμενα που είναι συντακτικά σωστά και καλογραμμένα και μπορεί να περιγράψει ό,τι του ζητηθεί (με εξαίρεση αν του ζητήσουμε να μας πει πχ, πώς θα κάνουμε κακό σε κάποιον, πώς να κατασκευάσουμε μια βόμβα κλπ.) «Είναι ιδιαίτερα δύσκολο για έναν άνθρωπο να καταλάβει αν ένα απλό κείμενο παράχθηκε από το chatGPT ή έναν δημοσιογράφο. Τονίζω τη λέξη απλό», λέει. Ωστόσο θεωρεί ότι το chatGPT δεν μπορεί ακόμα να γράψει τα ποιοτικά άρθρα τα οποία μπορούμε να διαβάσουμε σήμερα σε μια καλή εφημερίδα ή σε ένα ειδησεογραφικό site. «Άρθρα που για παράδειγμα περιέχουν αναφορές σε πηγές, πραγματικά γεγονότα, καλή χρήση της ελληνικής γλώσσας κλπ», προσθέτει χαρακτηριστικά.

Παράλληλα, μια τεχνολογία που ουσιαστικά θέλει να προσομοιάσει τον ανθρώπινο νου αλλά δεν έχει κριτική σκέψη ή εμπειρίες είναι εύκολο να εξαπατηθεί.

«Αυτή τη στιγμή είναι εύκολο να εξαπατηθεί ώστε να παράγει κείμενο που δεν είναι αληθές. Έχω δοκιμάσει να του ζητήσω να μου πει πώς να κάνω κακό σε ένα ζώο και έχει αρνηθεί λέγοντας ότι δεν είναι σωστό να κάνουμε κακό στα ζώα. Υπάρχουν όμως περιπτώσεις που χρήστες έχουν πείσει το chatGPT να μην υπακούσει στους περιορισμούς που του έχουν βάλει οι μηχανικοί που το ανέπτυσσαν και, για παράδειγμα, να παραγάγει κείμενο που περιέχει διάφορες βρισιές», λέει ο κ. Κουμπαράκης.

Οι ειδικοί θεωρούν ότι είναι απαραίτητο να δημιουργηθούν οι κατάλληλοι μηχανισμοί ελέγχου της αξιοπιστίας του περιεχομένου που παράγεται από το ChatGPT ώστε να ελέγχεται η είδηση, αλλά και να εντοπίζεται η πηγή που μετέδωσε ψευδή είδηση, αν εντοπιστεί κάτι τέτοιο. Όμως, ακόμα και σε αυτήν την περίπτωση ο έλεγχος αυτών των τεχνολογιών που ωριμάζουν και ξεπερνιούνται πολύ γρήγορα είναι δύσκολος.

«Οι νόμοι ακόμα σε επίπεδο Ευρωπαϊκής Ένωσης που υπάρχει νομοθετική παραγωγή είναι πολύ δύσκολο να ρυθμίσουν ένα υπερπολύπλοκο πληροφοριακό κόσμο ο οποίος δημιουργεί δικά του δίκτυα, αυτοοργανούμενα δίκτυα που καθιστούν την από πάνω προς τα κάτω ρύθμιση πάρα πολύ δύσκολη και καθιστούν σχεδόν ανέφικτο τον διαφωτισμό και την ορθή ενημέρωση, πόσω μάλλον τη ρύθμιση. Η ρύθμιση είναι πολύ δύσκολη σε τέτοια περιβάλλοντα, μάλιστα με παγκόσμιες πλατφόρμες, οι οποίες δεν υπόκεινται σε κανόνες εποπτείας και ελέγχου αλλά διακηρύσσουν ότι έχουν δική τους εσωτερική εποπτεία και έλεγχο αλλά κανείς δεν μπορεί να τους εμπιστευτεί», εξηγεί ο κ. Τσέκερης και προσθέτει ότι αυτό που είναι απολύτως απαραίτητο να κατακτήσουν οι σύγχρονες κοινωνίες προκειμένου να μην απειλούνται είναι «η ευρύτερη γραμματοσύνη για την τεχνητή νοημοσύνη και τα μεγάλα γλωσσικά μοντέλα, την παραγωγική τεχνητή νοημοσύνη και την κατανάλωση περιεχομένου μέσα σε τέτοια ψηφιακά περιβάλλοντα και ψηφιακά δίκτυα που όχι απλά είναι νέοι χώροι επικοινωνίας είναι νέοι κοινωνικοί χώροι που παράγουν αξίες, συμπεριφορές και τρόπους γνώσης. Και αυτό είναι κάτι πολύ δύσκολο γιατί τα περιβάλλοντα αυτά αλλάζουν πολύ γρήγορα και είναι πολύ δύσκολη η προσαρμογή σε αυτά τα περιβάλλοντα και η γνωστική προσαρμογή».

Με άλλα λόγια, οι αλλαγές είναι τόσο γρήγορες που μέχρι να μάθει κανείς και να προσαρμοστεί στο τρέχον περιβάλλον, γίνεται νέα αλλαγή κι έτσι η γνώση πολύ γρήγορα καθίσταται ξεπερασμένη.

Ο κ. Κουμπαράκης τονίζει ότι δεν υπάρχουν κανόνες ακόμα, αλλά σύντομα θα γίνουν σχετικές προσπάθειες μια που υπάρχει η δυνατότητα να χρησιμοποιήσει κάποιος το chatGPT σαν writing assistant χωρίς να σημαίνει αυτό ότι θέλει να «κλέψει». Πάντως αυτή τη στιγμή κάποια πανεπιστήμια έχουν ήδη απαγορεύσει τη χρήση του. Επίσης, έχουν αρχίσει να εμφανίζονται και συστήματα που μπορούν να βρουν αν κάτι έχει γραφτεί από το chatGPT, συστήματα εντοπισμού δηλαδή τα οποία στο μέλλον θα είναι ιδιαίτερα χρήσιμα.

Κοινοποιήστε το άρθροΣχόλια

Σχετικές ειδήσεις

Το ChatGPT διαθέσιμο και σε smartphones

Ευρωκοινοβούλιο: Πρώτο πράσινο φως στο σχέδιο για την κανονιστική ρύθμιση της τεχνητής νοημοσύνης

Νέες τεχνολογίες: Απειλή για την δημοκρατία στην Ευρώπη;