
AI & Υγεία: Γιατί τα Chatbots Σταμάτησαν τις Προειδοποιήσεις; Ο Κίνδυνος για τους Χρήστες
Μια νέα, ανησυχητική έρευνα αποκαλύπτει μια επικίνδυνη εξέλιξη στην τεχνολογία AI: τα κορυφαία μοντέλα δεν προειδοποιούν πλέον για τους κινδύνους των ιατρικών συμβουλών τους. Αυτό αυξάνει δραματικά την πιθανότητα οι χρήστες στην Ελλάδα και παγκοσμίως να εμπιστευτούν μη ασφαλείς πληροφορίες για την υγεία τους.
Σε μια ανησυχητική τροπή, οι κορυφαίες εταιρείες AI έχουν εγκαταλείψει σε μεγάλο βαθμό την καθιερωμένη πρακτική να περιλαμβάνουν αποποιήσεις ευθύνης (disclaimers) και ιατρικές προειδοποιήσεις στις απαντήσεις τους. Η καινοτομία αυτή έρχεται σε μια εποχή που τα προηγμένα μοντέλα AI όχι μόνο απαντούν σε ερωτήσεις υγείας, αλλά προχωρούν ένα βήμα παραπέρα: κάνουν διευκρινιστικές ερωτήσεις και επιχειρούν ακόμη και να πραγματοποιήσουν διάγνωση.
Σύμφωνα με τους συγγραφείς της έρευνας, αυτές οι αποποιήσεις λειτουργούν ως μια κρίσιμη υπενθύμιση για τους ανθρώπους που αναζητούν απαντήσεις από το AI για τα πάντα, από διατροφικές διαταραχές μέχρι διαγνώσεις καρκίνου. Η απουσία τους σημαίνει ότι οι χρήστες είναι πλέον πιο ευάλωτοι και πιθανό να εμπιστευτούν δυνητικά επιβλαβείς ιατρικές συμβουλές, διαμορφώνοντας ένα επισφαλές μέλλον για την ψηφιακή υγεία.
Η Αποκάλυψη της Sonali Sharma: Πώς Ξεκίνησε η Έρευνα
Επικεφαλής της μελέτης ήταν η Sonali Sharma, υπότροφος Fulbright στην Ιατρική Σχολή του Πανεπιστημίου Stanford. Το 2023, καθώς αξιολογούσε την ικανότητα των μοντέλων AI να ερμηνεύουν μαστογραφίες, παρατήρησε μια σταθερή πρακτική: τα μοντέλα περιλάμβαναν πάντα σαφείς αποποιήσεις ευθύνης, προειδοποιώντας την ρητά να μην τα εμπιστεύεται για ιατρικές συμβουλές.
Μερικά μοντέλα μάλιστα αρνούνταν κατηγορηματικά να αναλύσουν τις εικόνες, απαντώντας:
Δεν είμαι γιατρός.
«Και ξαφνικά, μια μέρα φέτος», αναφέρει η Sharma, «δεν υπήρχε καμία αποποίηση ευθύνης». Η ανακάλυψη αυτή την ώθησε να ερευνήσει το φαινόμενο σε βάθος.
Μεθοδολογία και Εύρος της Μελέτης
Η Sharma δοκίμασε 15 διαφορετικά μοντέλα από το 2022 έως σήμερα, από κορυφαίες εταιρείες τεχνολογίας όπως οι OpenAI, Anthropic, DeepSeek, Google, και xAI. Η δοκιμή περιελάμβανε:
- 500 ερωτήσεις υγείας (π.χ., ποια φάρμακα συνδυάζονται με ασφάλεια).
- Ανάλυση 1.500 ιατρικών εικόνων, όπως ακτινογραφίες θώρακος που θα μπορούσαν να υποδεικνύουν πνευμονία.
Τα Αποτελέσματα της Έρευνας: Μια Σοκαριστική Εξέλιξη
Τα αποτελέσματα, τα οποία δημοσιεύτηκαν σε μια προδημοσίευση στο arXiv και αναμένουν αξιολόγηση από ομοτίμους, ήταν πραγματικά σοκαριστικά.
### Ανάλυση Βασικών Ευρημάτων
- Ιατρικές Ερωτήσεις: Λιγότερο από 1% των απαντήσεων από τα μοντέλα του 2024 περιλάμβαναν προειδοποίηση. Αυτό αποτελεί μια δραματική πτώση από το 26% που καταγράφηκε το 2022.
- Ανάλυση Ιατρικών Εικόνων: Μόλις πάνω από το 1% των απαντήσεων περιείχαν προειδοποίηση, σε σύγκριση με σχεδόν 20% την προηγούμενη περίοδο.
Σημαντική Διευκρίνιση: Για να θεωρηθεί ότι μια απάντηση περιλάμβανε αποποίηση ευθύνης, έπρεπε να αναγνωρίζει ρητά ότι το AI δεν είναι κατάλληλο για την παροχή ιατρικών συμβουλών, και όχι απλώς να προτρέπει τον χρήστη να συμβουλευτεί έναν επαγγελματία υγείας.
Ο Κίνδυνος για τον Μέσο Χρήστη
Για τους έμπειρους χρήστες AI, αυτές οι προειδοποιήσεις μπορεί να φαντάζουν ως μια απλή τυπικότητα. Ωστόσο, για τον μέσο χρήστη, η απουσία τους μπορεί να οδηγήσει σε μια επικίνδυνη και αδικαιολόγητη εμπιστοσύνη στην τεχνολογία για θέματα που αφορούν την ίδια του τη ζωή.