Η Maja Pantic, ειδική σύμβουλος Τεχνητής Νοημοσύνης και μέχρι πρόσφατα διευθύντρια Έρευνας Generative AI στη Meta AI, εξηγεί στο euronews τις ευκαιρίες και τους κινδύνους που έρχονται με τη ραγδαία εξέλιξη των ανθρώπινων κλώνων AI
Ο Μαρκ Ζούκερμπεργκ μιλάει σε κλώνο του συνεργάτη του Don Allen Stevenson που αναπτύχθηκε με Τεχνητή Νοημοσύνη, την ώρα που ο ίδιος ο Stevenson στέκεται δίπλα του και επιβεβαιώνει τα λεγόμενα του κλώνου.
Το απόσπασμα από την παρουσίαση της Meta τον Σεπτέμβριο του 2024 προέβαλε στο Συνέδριο του MIT Technology Review, «EmTech Europe» 2025, που πραγματοποιήθηκε σε συνεργασία με την Καθημερινή, η Maja Pantic, ειδική σύμβουλος Τεχνητής Νοημοσύνης και μέχρι πρόσφατα διευθύντρια Έρευνας Generative AI στη Meta AI.
Το απόσπασμα, όπως εξήγησε στο euronews η Maja Pantic, είναι ενδεικτικό της προόδου που έχει επιτευχθεί στην παραγωγή Διαλεκτικής Τεχνητής Νοημοσύνης, Conversational AI.
«Η κύρια ιδέα της διαλεκτικής ΑΙ, της προσωποποιημένης διαλεκτικής ΑΙ είναι να καταστεί δυνατή μια φυσιολογική συνομιλία μεταξύ της ΤΝ και των χρηστών» μας είπε. «Έτσι, θα μπορείτε να μιλάτε με την ΤΝ με έναν εντελώς φυσικό τρόπο. Αυτό είναι ένα βήμα πέρα από τα μεγάλα γλωσσικά μοντέλα, διότι αυτό που συμβαίνει σήμερα με τα μεγάλα γλωσσικά μοντέλα είναι ότι έχετε έναν καταιγισμό πληροφοριών. Ρωτάτε κάτι και στη συνέχεια λαμβάνετε αυτές τις τεράστιες απαντήσεις που στην πραγματικότητα δεν θέλατε. Αυτό που λείπει είναι μια πραγματική συζήτηση κατά την οποία θα μπορείτε να πείτε: "Εντάξει, δεν είναι αυτό που ήθελα. Ναι, πραγματικά ήθελα να μου πεις για αυτό το κομμάτι".
Μπορούμε στην πραγματικότητα να πάμε πιο βαθιά, ώστε να μπορείτε να αλληλεπιδράσετε και να έχετε μια πραγματική συζήτηση και να σας παρέχει πληροφορίες με έναν φυσικό τρόπο, που σημαίνει ότι υπάρχει συμπαθητικό χαμόγελο, ότι σας κοιτάζει και ξέρετε ότι καταλαβαίνει αυτό που ρωτάτε. Σας επιστρέφει ομιλία, όχι κείμενο. Στην πραγματικότητα παραλείπετε όλα τα προβλήματα των ανθρώπων που δεν μπορούν να δουν καλά, ή που έχουν δυσλεξία, ή που έχουν οποιοδήποτε από τα προβλήματα που συνήθως έχουν οι άνθρωποι με την ανάγνωση κειμένου.»
Θα είναι σαν να έχουμε έναν προσωπικό βοηθό στο σπίτι μας;
«Ναι, αυτή είναι μία από τις συγκεκριμένες εφαρμογές. Θα μπορείτε να έχετε τον προσωπικό σας βοηθό για να κάνετε, για παράδειγμα, τις κρατήσεις σας για τα εισιτήρια του θεάτρου ή το ταξίδι σας ή να δέχεστε τηλεφωνήματα, τουλάχιστον τα τηλεφωνήματα όπως όταν σας καλεί η ασφάλειά σας ή το ταξιδιωτικό σας γραφείο ή κάτι τέτοιο, το οποίο είναι αρκετά δομημένο.
Ο προσωπικός σας βοηθός που έχει τη δική σας μορφή, μπορεί να δεχτεί αυτό το τηλεφώνημα.»
Πόσο σύντομα θα είναι διαθέσιμες αυτές οι τεχνολογίες στους χρήστες;
«Για την απάντηση των μηνυμάτων ηλεκτρονικού ταχυδρομείου, ένα από τα πράγματα που μόλις πρόσφατα ανακοινώθηκε, είναι μια πατέντα από την Google. Ανακοινώθηκε στις 12 Φεβρουαρίου, είναι πολύ πρόσφατο. Θα δίνεται ένα chat bot που θα απαντά σε όλα τα email σας.»
Αυτή είναι η θετική πλευρά. Υπάρχει επίσης και η πλευρά του κινδύνου. Θα μπορούσατε να μας πείτε τι πρέπει να γνωρίζουν οι επιχειρήσεις και οι απλοί άνθρωποι;
«Ο κύριος κίνδυνος αυτού του είδους της τεχνολογίας είναι τα deepfakes. Γιατί αν πάτε στην ενσάρκωση, φωτορεαλιστική ενσάρκωση της ΤΝ, πρόκειται για την κατασκευή αναπαραστάσεων που πραγματικά σας μοιάζουν, μοιάζουν σαν πραγματικοί άνθρωποι. Το θέμα είναι ότι χρειαζόμαστε περίπου 30 λεπτά δεδομένων που είναι διαθέσιμα στο διαδίκτυο για να φτιάξουμε μια πολύ καλή αναπαράσταση deepfake.
Ως εκ τούτου, αυτό που θα έλεγα στον κόσμο είναι, πρώτον, σκεφτείτε τι κάνετε με τα δεδομένα σας. Μην απελευθερώνετε πολλά από τα δεδομένα σας, οπτικοακουστικά δεδομένα, στο διαδίκτυο. Αυτό είναι το πρώτο. Αν το έχετε κάνει ήδη, θα πρότεινα ίσως να το αφαιρέσετε.»
Αυτό περιλαμβάνει τα βίντεο στα μέσα κοινωνικής δικτύωσης όπως το Instagram ή το Facebook;
«Κατ' αρχήν, ναι. Μιλάμε για απατεώνες, για ανθρώπους που θα ήθελαν να τα καταχραστούν για τους σκοπούς τους, να ανοίξουν τραπεζικό λογαριασμό στο όνομά σας ή, να κάνουν κάποιου είδους εκδικητική ενέργεια εναντίον σας.
Σε περίπτωση που είναι γνώστες αυτής της τεχνολογίας κατασκευής της φωτορεαλιστικής ενσάρκωσης της ΤΝ, να την καταχραστούν εναντίον σας.
Το θέμα είναι ότι τέτοιου είδους πράγματα μπορούν να συμβούν, και είναι εξαιρετικά σημαντικό η εταιρεία να αρχίσει να σκέφτεται πώς να προστατεύει τον εαυτό της, πώς να προστατεύει την πρόσβαση στις βιντεοκλήσεις που χρησιμοποιεί για τη λειτουργία της.
Πιστεύω ότι πρέπει να έχει μια προστασία deepfake. Αυτό είναι κάτι που υποστηρίζω ότι πρέπει να κάνουμε. Αλλά σε αυτό το σημείο, καμία εταιρεία δεν το παίρνει στα σοβαρά. Η προστασία από την απάτη που υπάρχει σε επίπεδο εταιρείας είναι, κατά τη γνώμη μου, πολύ υποτυπώδης και πολύ παλιομοδίτικη. Χρησιμοποιούν σημεία προσώπου, για παράδειγμα, και δεν υπάρχει κανένας τρόπος να αναγνωρίσετε τα deepfakes με βάση τα σημεία του προσώπου, τα deepfakes που παράγουμε σήμερα. Πιστεύω πραγματικά ότι πρέπει οι εταιρείες να κάνουν ένα βήμα παραπάνω για την προστασία από τα deepfake.»