Περισσότεροι από 40 εκατομμύρια άνθρωποι παγκοσμίως χρησιμοποιούν καθημερινά το ChatGPT για πληροφορίες σχετικές με την υγεία, σύμφωνα με στοιχεία που έδωσε αποκλειστικά στο Axios η OpenAI. Το εύρημα φωτίζει μια βαθιά αλλά σιωπηλή μετατόπιση: ολοένα και περισσότεροι πολίτες, ιδίως στις ΗΠΑ, στρέφονται στην Τεχνητή Νοημοσύνη για να πλοηγηθούν σε ένα σύστημα υγείας που παραμένει πολύπλοκο, ακριβό και συχνά δυσπρόσιτο.
Σύμφωνα με την ανάλυση ανωνυμοποιημένων συνομιλιών και έρευνα χρηστών που πραγματοποιήθηκε σε συνεργασία με την πλατφόρμα Knit, (AI-powered πλατφόρμα ερευνών κοινού) οι ασθενείς αντιλαμβάνονται το ChatGPT όχι ως «γιατρό», αλλά ως εργαλείο υποστήριξης: έναν βοηθό που εξηγεί, αποκωδικοποιεί και προσανατολίζει.
Τι ρωτούν οι χρήστες – και γιατί
Περισσότερο από 5% του συνολικού όγκου ερωτήσεων στο ChatGPT παγκοσμίως αφορά θέματα υγείας. Η χρήση δεν περιορίζεται σε γενικές απορίες. Αντίθετα, εστιάζει σε πρακτικά και συχνά επείγοντα ζητήματα:
-
Ιατρικοί λογαριασμοί και χρεώσεις: Ανάλυση αναλυτικών bill, εντοπισμός διπλών χρεώσεων, λαθών κωδικοποίησης ή παραβάσεων κανόνων Medicare.
-
Ασφαλιστική κάλυψη: Από σύγκριση προγραμμάτων έως καθοδήγηση για ενστάσεις και απορρίψεις αποζημιώσεων. Η OpenAI καταγράφει 1,6–1,9 εκατ. σχετικές ερωτήσεις την εβδομάδα.
-
Πρόσβαση σε φροντίδα: Σε αγροτικές ή υποεξυπηρετούμενες περιοχές, αποστέλλονται σχεδόν 600.000 μηνύματα υγείας εβδομαδιαίως.
-
Χρόνος εκτός ιατρείων: 7 στις 10 συνομιλίες γίνονται εκτός ωραρίου κλινικών, υποδηλώνοντας ότι η AI καλύπτει κενά διαθεσιμότητας.
Σε ορισμένες περιπτώσεις, όταν η πρόσβαση σε γιατρό είναι περιορισμένη, οι χρήστες εισάγουν συμπτώματα, προηγούμενες ιατρικές οδηγίες και πλαίσιο, ώστε να εκτιμήσουν αν μπορούν να περιμένουν ραντεβού ή αν χρειάζεται επείγουσα φροντίδα.
Τα όρια και οι κίνδυνοι
Η ίδια η OpenAI προειδοποιεί ότι η Τεχνητή Νοημοσύνη μπορεί να δώσει λανθασμένες ή επικίνδυνες συμβουλές, ιδίως σε ζητήματα ψυχικής υγείας. Δεν είναι τυχαίο ότι η εταιρεία βρίσκεται αντιμέτωπη με αγωγές, όπου συγγενείς υποστηρίζουν ότι άτομα αυτοτραυματίστηκαν ή αυτοκτόνησαν έπειτα από αλληλεπιδράσεις με chatbot.
Παράλληλα, πολιτείες των ΗΠΑ έχουν ήδη θεσπίσει νομοθεσία που περιορίζει ή απαγορεύει σε εφαρμογές AI να παρέχουν ψυχιατρική ή θεραπευτική καθοδήγηση χωρίς ανθρώπινη επίβλεψη. Το ζήτημα της ευθύνης (liability) και της ακρίβειας παραμένει ανοιχτό.
Πίσω από την οθόνη: τι αλλάζει στα μοντέλα
Η OpenAI δηλώνει ότι επενδύει στην ενίσχυση της ασφάλειας των απαντήσεων υγείας. Τα νεότερα μοντέλα GPT-5:
- κάνουν περισσότερες διευκρινιστικές ερωτήσεις,
- παραπέμπουν συχνότερα σε επαγγελματική ιατρική αξιολόγηση,
- χρησιμοποιούν πιο επιφυλακτική γλώσσα,
- και, όπου χρειάζεται, αντλούν επικαιροποιημένη πληροφορία.
Η αξιοπιστία, σύμφωνα με την εταιρεία, βελτιώνεται όταν οι απαντήσεις «γειώνονται» σε ασφαλιστικά έγγραφα, οδηγίες γιατρών ή δεδομένα από patient portals — κάτι που όμως ανοίγει νέα ερωτήματα για πρόσβαση και προστασία προσωπικών δεδομένων.
Η Τεχνητή Νοημοσύνη δεν αντικαθιστά την ιατρική πράξη, αλλά αναδεικνύεται σε παράλληλο κανάλι καθοδήγησης σε ένα σύστημα υγείας με δομικές ανεπάρκειες. Το κρίσιμο ερώτημα για την επόμενη φάση δεν είναι αν οι πολίτες θα χρησιμοποιούν AI για την υγεία τους — αυτό ήδη συμβαίνει — αλλά πώς θα διασφαλιστούν ακρίβεια, ευθύνη και ισότιμη πρόσβαση, χωρίς να μετατραπεί η ανάγκη σε ρίσκο.