Εικόνες που ανεβαίνουν σε chatbot τεχνητής νοημοσύνης μπορεί να αποθηκεύονται για άγνωστο χρονικό διάστημα και, αν διαρρεύσουν, να χρησιμοποιηθούν για πλαστοπροσωπία, απάτες και ψεύτικους λογαριασμούς στα κοινωνικά δίκτυα.
Η μόδα με τις γελοιογραφίες που δημιουργεί η τεχνητή νοημοσύνη (AI) και παρουσιάζει σε μια πολύχρωμη εικόνα όλα όσα γνωρίζει ένα chatbot για κάποιον, μπορεί να εγκυμονεί σοβαρούς κινδύνους για την ασφάλεια, σύμφωνα με ειδικούς στην κυβερνοασφάλεια.
Οι χρήστες ανεβάζουν μια φωτογραφία τους μαζί με ένα λογότυπο της εταιρείας τους ή στοιχεία για τον ρόλο τους και ζητούν από το ChatGPT της OpenAI να φτιάξει μια γελοιογραφία τους και της δουλειάς τους, χρησιμοποιώντας όσα γνωρίζει ήδη το chatbot γι’ αυτούς.
Ειδικοί στην κυβερνοασφάλεια είπαν στο Euronews Next ότι διαδικτυακές προκλήσεις, όπως οι γελοιογραφίες με τεχνητή νοημοσύνη, μπορούν να προσφέρουν σε απατεώνες έναν πραγματικό θησαυρό πολύτιμων πληροφοριών. Μία μόνο εικόνα, σε συνδυασμό με προσωπικά στοιχεία, μπορεί να αποκαλύπτει περισσότερα απ’ όσα αντιλαμβάνονται οι χρήστες.
«Κάνετε τη δουλειά των απατεώνων αντί γι’ αυτούς, τους προσφέρετε μια οπτική αναπαράσταση του ποιοι είστε», δήλωσε ο Μπομπ Λονγκ, αντιπρόεδρος στην εταιρεία επαλήθευσης ηλικίας Daon.
Ο ίδιος υποστήριξε ότι και μόνο η διατύπωση θα έπρεπε να χτυπά καμπανάκια, επειδή «μοιάζει σαν να ξεκίνησε σκόπιμα από κάποιον απατεώνα που ήθελε να κάνει τη δουλειά του πιο εύκολη».
Τι συμβαίνει με τις εικόνες αφού ανέβουν;
Όταν ένας χρήστης ανεβάζει μια εικόνα σε ένα chatbot τεχνητής νοημοσύνης, το σύστημα την επεξεργάζεται για να εξαγάγει δεδομένα, όπως το συναίσθημα του ατόμου, το περιβάλλον του ή πληροφορίες που θα μπορούσαν να αποκαλύψουν την τοποθεσία του, εξήγησε ο σύμβουλος κυβερνοασφάλειας Τζέικ Μουρ. Οι πληροφορίες αυτές μπορεί στη συνέχεια να αποθηκευτούν για άγνωστο χρονικό διάστημα.
Ο Λονγκ είπε ότι οι εικόνες που συλλέγονται από τους χρήστες μπορούν να χρησιμοποιηθούν και να διατηρηθούν για την εκπαίδευση γεννητριών εικόνας με τεχνητή νοημοσύνη, ως μέρος των συνόλων δεδομένων τους.
Μια διαρροή δεδομένων σε εταιρεία όπως η OpenAI θα μπορούσε να σημαίνει ότι ευαίσθητα δεδομένα, όπως εικόνες που έχουν ανέβει και προσωπικές πληροφορίες που συλλέγει το chatbot, μπορεί να πέσουν στα χέρια κακόβουλων χρηστών που θα τα εκμεταλλευτούν.
Στα λάθος χέρια, μία και μόνο εικόνα υψηλής ανάλυσης θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία ψεύτικων λογαριασμών στα κοινωνικά δίκτυα ή ρεαλιστικών deepfake με τεχνητή νοημοσύνη, που με τη σειρά τους θα μπορούσαν να αξιοποιηθούν σε απάτες, σύμφωνα με τη Σαρλότ Γουίλσον, επικεφαλής του επιχειρηματικού τομέα στην ισραηλινή εταιρεία κυβερνοασφάλειας Check Point.
«Τα selfie βοηθούν τους εγκληματίες να περάσουν από γενικές απάτες σε εξατομικευμένες, εξαιρετικά πειστικές υποδύσεις», είπε.
Οι ρυθμίσεις απορρήτου της OpenAI αναφέρουν ότι οι εικόνες που ανεβάζονται μπορεί να χρησιμοποιηθούν για τη βελτίωση του μοντέλου, κάτι που μπορεί να περιλαμβάνει και την εκπαίδευσή του. Όταν ρωτήθηκε για τις ρυθμίσεις απορρήτου του μοντέλου, το ChatGPT διευκρίνισε ότι αυτό δεν σημαίνει πως κάθε φωτογραφία τοποθετείται σε μια δημόσια βάση δεδομένων.
Αντίθετα, το chatbot ανέφερε ότι χρησιμοποιεί πρότυπα από το περιεχόμενο των χρηστών για να βελτιώνει τον τρόπο με τον οποίο το σύστημα δημιουργεί εικόνες.
Τι να προσέξετε αν θέλετε να συμμετάσχετε σε τάσεις τεχνητής νοημοσύνης
Για όσους θέλουν παρ’ όλα αυτά να ακολουθήσουν τη μόδα, οι ειδικοί συστήνουν να περιορίζουν όσα μοιράζονται.
Η Γουίλσον είπε ότι οι χρήστες πρέπει να αποφεύγουν να ανεβάζουν εικόνες που αποκαλύπτουν αναγνωριστικά στοιχεία.
«Κόψτε σφιχτά το κάδρο, κρατήστε το φόντο ουδέτερο και μην συμπεριλαμβάνετε κονκάρδες, στολές, υπηρεσιακά κορδόνια με κάρτα, στοιχεία τοποθεσίας ή οτιδήποτε σας συνδέει με έναν εργοδότη ή μια καθημερινή ρουτίνα», είπε.
Η Γουίλσον προειδοποίησε επίσης να μην αποκαλύπτουν υπερβολικά πολλά προσωπικά στοιχεία στα μηνύματα προς το chatbot, όπως ο τίτλος της θέσης τους, η πόλη ή ο εργοδότης τους.
Παράλληλα, ο Μουρ συνέστησε να ελέγχονται οι ρυθμίσεις απορρήτου πριν από τη συμμετοχή σε τέτοιες τάσεις, συμπεριλαμβανομένης της δυνατότητας εξαίρεσης των δεδομένων από την εκπαίδευση της τεχνητής νοημοσύνης.
Η OpenAI διαθέτει μια πύλη απορρήτου που επιτρέπει στους χρήστες να εξαιρεθούν από την εκπαίδευση της AI στα δεδομένα τους, κάνοντας κλικ στην επιλογή «do not train on my content».
Οι χρήστες μπορούν επίσης να εξαιρεθούν από τη χρήση των συνομιλιών κειμένου τους με το ChatGPT στην εκπαίδευση του μοντέλου, απενεργοποιώντας τη ρύθμιση «improve the model for everyone».
Σύμφωνα με το δίκαιο της ΕΕ, οι χρήστες μπορούν να ζητήσουν τη διαγραφή των προσωπικών δεδομένων που έχει συλλέξει η εταιρεία. Ωστόσο, η OpenAI σημειώνει ότι ενδέχεται να διατηρήσει ορισμένες πληροφορίες ακόμη και μετά τη διαγραφή, προκειμένου να αντιμετωπίσει φαινόμενα απάτης, κατάχρησης και ζητήματα ασφάλειας.