Μια νέα μεγάλη μελέτη από το University of Oxford επαναφέρει στο προσκήνιο ένα κρίσιμο ερώτημα: μπορούν τα συστήματα τεχνητής νοημοσύνης να λειτουργήσουν με ασφάλεια ως «ψηφιακοί γιατροί» για το ευρύ κοινό;
Η έρευνα αξιολόγησε δημοφιλή συστήματα μεγάλης γλωσσικής βάσης (LLMs), τα οποία χρησιμοποιούνται όλο και περισσότερο από πολίτες για την ερμηνεία συμπτωμάτων, την κατανόηση διαγνώσεων ή τη λήψη αποφάσεων σχετικά με θεραπευτικές επιλογές. Τα ευρήματα είναι ανησυχητικά: παρότι τα συστήματα εμφανίζουν συχνά υψηλή γλωσσική επάρκεια και πειστικότητα, παρουσιάζουν σημαντική ασυνέπεια και ανακρίβεια στις ιατρικές απαντήσεις.
Σύμφωνα με τους ερευνητές, τα LLMs τείνουν να παράγουν «εύλογες» αλλά όχι απαραίτητα σωστές απαντήσεις, ιδίως όταν τα ερωτήματα αφορούν σύνθετα ή ασαφή συμπτώματα. Σε αρκετές περιπτώσεις, οι απαντήσεις παρέλειπαν κρίσιμους παράγοντες κινδύνου, υποεκτιμούσαν τη σοβαρότητα πιθανών καταστάσεων ή παρείχαν γενικές συστάσεις χωρίς σαφή διάκριση μεταξύ επείγουσας και μη επείγουσας περίπτωσης.
Ένα από τα βασικά προβλήματα που αναδεικνύονται είναι η «υπερβολική αυτοπεποίθηση» των συστημάτων: οι απαντήσεις διατυπώνονται με τόνο βεβαιότητας, ακόμη και όταν τα δεδομένα είναι ελλιπή ή αμφίβολα. Αυτό αυξάνει τον κίνδυνο οι χρήστες να καθυστερήσουν την αναζήτηση ιατρικής βοήθειας ή να λάβουν λανθασμένες αποφάσεις αυτοδιαχείρισης.
Η μελέτη δεν απορρίπτει τη χρήση της τεχνητής νοημοσύνης στην υγεία. Αντιθέτως, επισημαίνει ότι τα εργαλεία αυτά μπορούν να είναι χρήσιμα ως υποστηρικτικά μέσα – για παράδειγμα, στην παροχή γενικών πληροφοριών ή στη βελτίωση της υγειονομικής παιδείας. Ωστόσο, υπογραμμίζει ότι η άμεση χρήση τους από ασθενείς για λήψη ιατρικών αποφάσεων χωρίς επίβλεψη επαγγελματία υγείας ενέχει ουσιαστικούς κινδύνους.
Το συμπέρασμα είναι σαφές: η ενσωμάτωση της AI στην ιατρική απαιτεί αυστηρή αξιολόγηση, ρυθμιστικό πλαίσιο και σαφή όρια χρήσης, ώστε η τεχνολογία να λειτουργεί συμπληρωματικά – και όχι υποκαθιστώντας -την κλινική κρίση.