Newsletter Newsletters Events Εκδηλώσεις Ποντάκαστ Βίντεο Africanews
Loader
Διαφήμιση

Να εμπιστευόμαστε το ChatGPT για ιατρικές απορίες; Νέα μελέτη συνιστά προσοχή

μια γυναίκα πληκτρολογεί σε φορητό υπολογιστή σε τρένο στο Νιου Τζέρσεϊ.
μια γυναίκα πληκτρολογεί σε λάπτοπ σε τρένο στο Νιου Τζέρσεϊ. Πνευματικά Δικαιώματα  Copyright 2019 The Associated Press. All rights reserved
Πνευματικά Δικαιώματα Copyright 2019 The Associated Press. All rights reserved
Από Marta Iraola Iribarren
Δημοσιεύθηκε
Μοιραστείτε το Σχόλια
Μοιραστείτε το Close Button

Η υπηρεσία ChatGPT Health δυσκολεύεται να αναγνωρίσει πότε οι χρήστες χρειάζονται επείγουσα ιατρική φροντίδα, σύμφωνα με νεότερη επιστημονική μελέτη.

Περισσότεροι από 230 εκατομμύρια άνθρωποι την εβδομάδα ζητούν από το ChatGPT ιατρικές συμβουλές – από το αν ένα τρόφιμο είναι ασφαλές για κατανάλωση, μέχρι τη διαχείριση αλλεργιών ή την εύρεση τρόπων να ξεπεράσουν ένα κρυολόγημα, σύμφωνα με την OpenAI.

ΔΙΑΦΉΜΙΣΗ
ΔΙΑΦΉΜΙΣΗ

Παρά την καλή του επίδοση σε τυπικά περιστατικά, το ChatGPT Health απέτυχε να συστήσει επείγουσα φροντίδα σε σοβαρές περιπτώσεις, σύμφωνα με νέα μελέτη που δημοσιεύθηκε στο Nature (πηγή στα Αγγλικά).

Η μελέτη διαπίστωσε ότι, παρότι το εργαλείο αντιμετώπιζε γενικά σωστά τις προφανείς επείγουσες καταστάσεις, υποτίμησε πάνω από τις μισές περιπτώσεις που απαιτούσαν επείγουσα φροντίδα.

“Θέλαμε να απαντήσουμε σε ένα πολύ βασικό αλλά κρίσιμο ερώτημα: αν κάποιος βιώνει μια πραγματική ιατρική κατάσταση έκτακτης ανάγκης και στραφεί στο ChatGPT Health για βοήθεια, θα του πει με σαφήνεια να πάει στα επείγοντα;” δήλωσε ο Ashwin Ramaswamy, επικεφαλής συγγραφέας της μελέτης στο Mount Sinai της Νέας Υόρκης.

“Το ChatGPT Health τα πήγε καλά σε κλασικές επείγουσες καταστάσεις, όπως το εγκεφαλικό ή οι σοβαρές αλλεργικές αντιδράσεις”, είπε.

Πρόσθεσε ότι το γλωσσικό μοντέλο δυσκολεύτηκε σε καταστάσεις όπου ο κίνδυνος δεν είναι άμεσα εμφανής.

Σε ένα από τα σενάρια άσθματος, το σύστημα αναγνώρισε στην εξήγησή του πρώιμα προειδοποιητικά σημάδια αναπνευστικής ανεπάρκειας, αλλά παρ’ όλα αυτά συνέστησε αναμονή αντί να ζητηθεί επείγουσα ιατρική βοήθεια, σημείωσε.

Η ερευνητική ομάδα δημιούργησε 60 δομημένα κλινικά σενάρια σε 21 ιατρικές ειδικότητες, με περιστατικά που κυμαίνονταν από ήπιες καταστάσεις κατάλληλες για φροντίδα στο σπίτι έως πραγματικές ιατρικές επείγουσες καταστάσεις. Τρεις ανεξάρτητοι ιατροί καθόρισαν το σωστό επίπεδο επείγοντος για κάθε περίπτωση, χρησιμοποιώντας κατευθυντήριες οδηγίες από 56 ιατρικές επιστημονικές εταιρείες.

Το ChatGPT Health λανσαρίστηκε από την OpenAI τον Ιανουάριο του 2026, δίνοντας τη δυνατότητα στους χρήστες να συνδέουν τα δεδομένα υγείας τους – όπως ιατρικούς φακέλους και στοιχεία από εφαρμογές ευεξίας όπως το MyFitnessPal – ώστε να λαμβάνουν πιο εξατομικευμένες και προσαρμοσμένες στις συνθήκες απαντήσεις.

Λανθασμένη εκτίμηση κινδύνου αυτοκτονίας

Η μελέτη εξέτασε επίσης πώς το μοντέλο ανταποκρίθηκε σε χρήστες που ανέφεραν προθέσεις αυτοτραυματισμού και κατέληξε σε παρόμοια ευρήματα.

Το ChatGPT Health θεωρητικά έχει προγραμματιστεί έτσι ώστε, όταν κάποιος αναφέρει αυτοτραυματισμό ή αυτοκτονικές σκέψεις, να τον ενθαρρύνει άμεσα να ζητήσει βοήθεια και να καλέσει μια δημόσια γραμμή ψυχικής υγείας.

Το μήνυμα στην οθόνη “Help is available”, που παραπέμπει στη γραμμή βοήθειας για αυτοκτονία και κρίσεις, εμφανίστηκε με ασυνέπεια κατά τη διάρκεια της μελέτης.

Οι συντάκτες της μελέτης σημείωσαν ότι ο μηχανισμός ασφαλείας ανταποκρινόταν με μεγαλύτερη συνέπεια για τον ασθενή που δεν είχε προσδιορίσει μέσο αυτοτραυματισμού, σε σχέση με όσους το είχαν κάνει.

“Το μοτίβο δεν ήταν απλώς ασυνεπές, αλλά παραδόξως ανεστραμμένο σε σχέση με τη βαρύτητα της κλινικής εικόνας”, αναφέρει η μελέτη.

Είναι ασφαλές να χρησιμοποιεί κανείς το ChatGPT Health;

Παρά τα ευρήματα, οι ερευνητές δεν πρότειναν στους καταναλωτές να εγκαταλείψουν πλήρως τα εργαλεία τεχνητής νοημοσύνης για την υγεία.

“Ως φοιτήτρια ιατρικής που εκπαιδεύεται σε μια εποχή όπου τα εργαλεία τεχνητής νοημοσύνης για την υγεία βρίσκονται ήδη στα χέρια εκατομμυρίων ανθρώπων, τα βλέπω ως τεχνολογίες που πρέπει να μάθουμε να εντάσσουμε με προσοχή στην κλινική φροντίδα και όχι ως υποκατάστατα της ιατρικής κρίσης”, δήλωσε η Alvira Tyagi, δεύτερη συγγραφέας της μελέτης.

Οι συγγραφείς της μελέτης συνέστησαν σε όσους εμφανίζουν επιδεινούμενα ή ανησυχητικά συμπτώματα, όπως πόνο στο στήθος, δύσπνοια, σοβαρές αλλεργικές αντιδράσεις ή μεταβολές στην ψυχική τους κατάσταση, να απευθύνονται άμεσα σε ιατρό ή σε υπηρεσία υγείας και να μην βασίζονται αποκλειστικά στην καθοδήγηση ενός chatbot.

Η μελέτη σημείωσε επίσης ότι τα γλωσσικά μοντέλα τεχνητής νοημοσύνης εξελίσσονται συνεχώς και ενημερώνονται συχνά, γεγονός που σημαίνει ότι η απόδοσή τους μπορεί να αλλάζει με την πάροδο του χρόνου.

“Το να ξεκινάς την ιατρική εκπαίδευση παράλληλα με εργαλεία που εξελίσσονται σε πραγματικό χρόνο καθιστά σαφές ότι τα σημερινά αποτελέσματα δεν είναι οριστικά”, είπε η Tyagi.

Πρόσθεσε ότι η ταχέως μεταβαλλόμενη πραγματικότητα απαιτεί συνεχή επανεξέταση, ώστε να διασφαλιστεί πως οι βελτιώσεις της τεχνολογίας μεταφράζονται σε πιο ασφαλή φροντίδα για τους ασθενείς.

Μετάβαση στις συντομεύσεις προσβασιμότητας
Μοιραστείτε το Σχόλια

Σχετικές ειδήσεις

Λίγες σταγόνες ζαχαρόνερου μειώνουν τον πόνο των βρεφών σε ιατρικές εξετάσεις, σύμφωνα με έρευνα

Ρεκόρ επικίνδυνων προϊόντων εντόπισε η ΕΕ το 2025, σύμφωνα με έκθεση

Τουρκία: Η δημογραφική κρίση προκαλεί «πονοκέφαλο» στην κυβέρνηση