Μετά τη νέα πλατφόρμα ChatGPT Health της OpenAI, παρουσιάζονται ορισμένοι κρίσιμοι παράγοντες που πρέπει να σταθμίσετε προτού εμπιστευτείτε ιατρικές συμβουλές σε chatbot τεχνητής νοημοσύνης
Με εκατοντάδες εκατομμύρια ανθρώπους να στρέφονται στα chatbots για συμβουλές, ήταν θέμα χρόνου οι εταιρείες τεχνολογίας να αρχίσουν να προσφέρουν προγράμματα ειδικά σχεδιασμένα για να απαντούν σε ερωτήματα υγείας.
Τον Ιανουάριο, η OpenAI παρουσίασε το ChatGPT Health, μια νέα εκδοχή του chatbot της, η οποία, όπως λέει η εταιρεία, μπορεί να αναλύει τους ιατρικούς φακέλους των χρηστών, τα δεδομένα από εφαρμογές ευεξίας και φορητές συσκευές, ώστε να απαντά σε ερωτήσεις για την υγεία και την ιατρική τους κατάσταση.
Προς το παρόν, για το πρόγραμμα υπάρχει λίστα αναμονής. Η Anthropic, ανταγωνιστική εταιρεία τεχνητής νοημοσύνης, προσφέρει αντίστοιχες δυνατότητες σε ορισμένους χρήστες του chatbot της, Claude.
Και οι δύο εταιρείες υποστηρίζουν ότι τα προγράμματά τους, τα λεγόμενα μεγάλα γλωσσικά μοντέλα, δεν υποκαθιστούν την επαγγελματική ιατρική φροντίδα και δεν πρέπει να χρησιμοποιούνται για διάγνωση παθήσεων. Αντιθέτως, λένε ότι τα chatbots μπορούν να συνοψίζουν και να εξηγούν περίπλοκα αποτελέσματα εξετάσεων, να βοηθούν στην προετοιμασία μιας επίσκεψης στον γιατρό ή να αναλύουν σημαντικές τάσεις υγείας «κρυμμένες» σε ιατρικούς φακέλους και δεδομένα εφαρμογών.
Πόσο ασφαλή και ακριβή είναι όμως αυτά τα chatbots στην ανάλυση δεδομένων υγείας και παθήσεων; Και κατά πόσο μπορείτε πραγματικά να βασιστείτε σε αυτά;
Ορισμένα σημεία που καλό είναι να εξετάσετε, πριν απευθυνθείτε σε ένα chatbot για θέματα υγείας:
Τα chatbots μπορούν να προσφέρουν πιο εξατομικευμένες πληροφορίες από μια αναζήτηση στο Google
Ορισμένοι γιατροί και ερευνητές που έχουν δουλέψει με το ChatGPT Health και παρόμοια προγράμματα τα θεωρούν βελτίωση σε σχέση με ό,τι ίσχυε μέχρι σήμερα.
Οι πλατφόρμες τεχνητής νοημοσύνης δεν είναι αλάνθαστες - μερικές φορές «παραληρούν» ή παρέχουν λανθασμένες συμβουλές (πηγή στα Αγγλικά) - ωστόσο οι πληροφορίες που παράγουν είναι συνήθως πιο εξατομικευμένες και συγκεκριμένες από ό,τι θα έβρισκαν οι ασθενείς με μια αναζήτηση στο Google.
«Η εναλλακτική συχνά είναι το τίποτα ή ο ασθενής να αυτοσχεδιάζει», δήλωσε ο δρ Ρόμπερτ Γουόκτερ, ειδικός στην ιατρική τεχνολογία στο Πανεπιστήμιο της Καλιφόρνιας, στο Σαν Φρανσίσκο. «Και έτσι πιστεύω ότι, αν χρησιμοποιήσετε αυτά τα εργαλεία υπεύθυνα, μπορείτε να πάρετε χρήσιμες πληροφορίες».
Σε χώρες όπως το Ηνωμένο Βασίλειο ή οι Ηνωμένες Πολιτείες, όπου τα ιατρικά ραντεβού μπορεί να χρειαστούν εβδομάδες για να κλειστούν και οι αναμονές στα επείγοντα συχνά διαρκούν ώρες, τα chatbots μπορούν σε πολλές περιπτώσεις να περιορίσουν τον περιττό πανικό και να εξοικονομήσουν χρόνο.
Μπορούν όμως επίσης να επισημαίνουν πότε τα συμπτώματα είναι επικίνδυνα και πρέπει να αξιολογηθούν από πραγματικούς επαγγελματίες υγείας.
Ένα από τα πλεονεκτήματα των πιο πρόσφατων chatbots είναι ότι απαντούν στα ερωτήματα των χρηστών έχοντας ως πλαίσιο το ιατρικό ιστορικό τους, συμπεριλαμβανομένων των συνταγογραφήσεων, της ηλικίας και των σημειώσεων του γιατρού.
Ακόμη κι αν δεν έχετε δώσει στην τεχνητή νοημοσύνη πρόσβαση στα ιατρικά σας δεδομένα, ο Γουόκτερ και άλλοι συνιστούν να δίνετε στα chatbots όσο το δυνατόν περισσότερες λεπτομέρειες, ώστε να βελτιωθούν οι απαντήσεις.
Αν έχετε ανησυχητικά συμπτώματα, αφήστε την τεχνητή νοημοσύνη στην άκρη
Ο Γουόκτερ και άλλοι τονίζουν ότι υπάρχουν περιπτώσεις όπου οι άνθρωποι πρέπει να παρακάμπτουν το chatbot και να αναζητούν άμεσα ιατρική βοήθεια. Συμπτώματα όπως δύσπνοια, πόνος στο στήθος ή έντονος πονοκέφαλος μπορεί να υποδηλώνουν ιατρικό επείγον.
Ακόμη και σε λιγότερο επείγουσες καταστάσεις, οι ασθενείς και οι γιατροί θα πρέπει να αντιμετωπίζουν τα προγράμματα τεχνητής νοημοσύνης με «έναν βαθμό υγιούς σκεπτικισμού», λέει ο δρ Λόιντ Μάινορ του Πανεπιστημίου Στάνφορντ.
«Όταν μιλάμε για μια σοβαρή ιατρική απόφαση, ή ακόμη και για μια μικρότερη απόφαση σχετικά με την υγεία σας, δεν θα πρέπει ποτέ να βασίζεστε μόνο σε όσα παίρνετε από ένα μεγάλο γλωσσικό μοντέλο», δήλωσε ο Μάινορ, κοσμήτορας της ιατρικής σχολής του Στάνφορντ.
Ακόμη και σε λιγότερο περίπλοκες ή πιο συχνές περιπτώσεις, όπως το σύνδρομο πολυκυστικών ωοθηκών (PCOS), μπορεί να είναι προτιμότερο να συμβουλευτείτε έναν πραγματικό γιατρό, καθώς η πάθηση μπορεί να εκδηλωθεί πολύ διαφορετικά από άτομο σε άτομο, γεγονός που επηρεάζει και τα θεραπευτικά πλάνα.
Σκεφτείτε την ιδιωτικότητά σας πριν ανεβάσετε οποιαδήποτε δεδομένα υγείας
Πολλά από τα οφέλη που προσφέρουν τα bots τεχνητής νοημοσύνης προκύπτουν όταν οι χρήστες μοιράζονται προσωπικές ιατρικές πληροφορίες. Είναι όμως σημαντικό να γνωρίζετε ότι όσα κοινοποιείτε σε μια εταιρεία τεχνητής νοημοσύνης δεν προστατεύονται από την ομοσπονδιακή νομοθεσία περί απορρήτου των ΗΠΑ που ρυθμίζει συνήθως τα ευαίσθητα ιατρικά δεδομένα.
Γνωστός ως HIPAA, ο νόμος προβλέπει πρόστιμα και ακόμη και φυλάκιση για γιατρούς, νοσοκομεία, ασφαλιστικές εταιρείες ή άλλους παρόχους υπηρεσιών υγείας που αποκαλύπτουν ιατρικά αρχεία. Ωστόσο, ο νόμος δεν ισχύει για τις εταιρείες που σχεδιάζουν chatbots.
«Όταν κάποιος ανεβάζει τον ιατρικό του φάκελο σε ένα μεγάλο γλωσσικό μοντέλο, αυτό είναι κάτι πολύ διαφορετικό από το να τον παραδίδει σε έναν νέο γιατρό», είπε ο Μάινορ. «Οι καταναλωτές πρέπει να καταλάβουν ότι ισχύουν εντελώς διαφορετικά πρότυπα απορρήτου».
Η OpenAI και η Anthropic αναφέρουν ότι τα στοιχεία υγείας των χρηστών τηρούνται ξεχωριστά από άλλα είδη δεδομένων και υπόκεινται σε πρόσθετες εγγυήσεις προστασίας. Οι εταιρείες δεν χρησιμοποιούν τα δεδομένα υγείας για την εκπαίδευση των μοντέλων τους. Οι χρήστες πρέπει να δώσουν τη συγκατάθεσή τους για να μοιραστούν τις πληροφορίες τους και μπορούν να διακόψουν τη σύνδεση ανά πάσα στιγμή.
Οι δοκιμές δείχνουν ότι τα chatbots μπορούν να σκοντάψουν
Παρά τον ενθουσιασμό γύρω από την τεχνητή νοημοσύνη, οι ανεξάρτητες δοκιμές της τεχνολογίας βρίσκονται ακόμη σε νηπιακό στάδιο. Πρώιμες μελέτες δείχνουν ότι προγράμματα όπως το ChatGPT μπορούν να αριστεύσουν σε εξετάσεις υψηλού ιατρικού επιπέδου, αλλά συχνά σκοντάφτουν όταν αλληλεπιδρούν με ανθρώπους.
Μελέτη με 1.300 συμμετέχοντες από το Πανεπιστήμιο της Οξφόρδης διαπίστωσε πρόσφατα ότι όσοι χρησιμοποιούσαν chatbots τεχνητής νοημοσύνης για να ερευνήσουν υποθετικές παθήσεις δεν λάμβαναν καλύτερες αποφάσεις από όσους χρησιμοποιούσαν διαδικτυακές αναζητήσεις ή την προσωπική τους κρίση.
Όταν παρουσιάζονταν σε αυτά ολοκληρωμένα, γραπτά ιατρικά σενάρια, τα chatbots τεχνητής νοημοσύνης εντόπιζαν σωστά την υποκείμενη πάθηση στο 95% των περιπτώσεων.
«Αυτό δεν ήταν το πρόβλημα», δήλωσε ο επικεφαλής συγγραφέας της μελέτης, Άνταμ Μάχντι, από το Oxford Internet Institute. «Το σημείο όπου τα πράγματα κατέρρεαν ήταν κατά την αλληλεπίδραση με τους πραγματικούς συμμετέχοντες».
Ο Μάχντι και η ομάδα του εντόπισαν μια σειρά από προβλήματα επικοινωνίας. Συχνά οι άνθρωποι δεν έδιναν στα chatbots τις πληροφορίες που χρειάζονταν για να εντοπίσουν σωστά το πρόβλημα υγείας. Αντιστρόφως, τα συστήματα τεχνητής νοημοσύνης απαντούσαν συχνά με έναν συνδυασμό σωστών και λανθασμένων πληροφοριών, και οι χρήστες δυσκολεύονταν να ξεχωρίσουν τις μεν από τις δε.
Η μελέτη, που πραγματοποιήθηκε το 2024, δεν χρησιμοποίησε τις πιο πρόσφατες εκδόσεις των chatbots, συμπεριλαμβανομένων των νέων εργαλείων όπως το ChatGPT Health.
Μια δεύτερη γνώμη από τεχνητή νοημοσύνη μπορεί να αποδειχθεί χρήσιμη
Η ικανότητα των chatbots να κάνουν συμπληρωματικές ερωτήσεις και να αποσπούν κρίσιμες λεπτομέρειες από τους χρήστες είναι ένας τομέας στον οποίο ο Γουόκτερ βλέπει περιθώρια βελτίωσης.
«Νομίζω ότι τότε θα γίνουν πραγματικά πολύ καλά, όταν τα εργαλεία αρχίσουν να λειτουργούν λίγο πιο «σαν γιατροί» στον τρόπο που πηγαινοέρχονται στη συζήτηση με τους ασθενείς», είπε ο Γουόκτερ.
Προς το παρόν, ένας τρόπος να αισθάνεστε μεγαλύτερη σιγουριά για τις πληροφορίες που λαμβάνετε είναι να συμβουλεύεστε περισσότερα από ένα chatbot, όπως θα ζητούσατε μια δεύτερη γνώμη από άλλον γιατρό.
«Μερικές φορές βάζω πληροφορίες στο ChatGPT και τις ίδιες πληροφορίες στο Gemini», είπε ο Γουόκτερ, αναφερόμενος στο εργαλείο τεχνητής νοημοσύνης της Google. «Και όταν συμφωνούν και τα δύο, αισθάνομαι λίγο πιο βέβαιος ότι αυτή είναι η σωστή απάντηση».