AI Greece
EpisodesSeminarsContactListen Now
AI Greece
EpisodesSeminarsContactListen Now
  1. Home
  2. Blog
  3. Έρευνα Harvard: «Ρατσιστικό» AI στη διάγνωση καρκίνου σοκάρει την επιστημονική κοινότητα

Έρευνα Harvard: «Ρατσιστικό» AI στη διάγνωση καρκίνου σοκάρει την επιστημονική κοινότητα

Σοκ από νέα έρευνα του Harvard: Το AI στη διάγνωση καρκίνου εμφανίζει «ρατσιστικές» τάσεις στο 29% των περιπτώσεων. Πώς η τεχνολογία διαβάζει τη φυλή;

Minas Marios Kontis
Minas Marios Kontis
AI Greece Podcast Host
**Έρευνα Harvard: «Ρατσιστικό» AI στη διάγνωση καρκίνου σοκάρει την επιστημονική κοινότητα**

Μπορεί το AI να «κληρονομήσει» ανθρώπινες προκαταλήψεις; Τα αποτελέσματα νέας έρευνας για τον καρκίνο

Εκεί που θεωρούσαμε ότι η τεχνολογία θα εξάλειφε το ανθρώπινο λάθος, τα συστήματα AI που σχεδιάστηκαν για την ακριβή διάγνωση και τον εντοπισμό του καρκίνου, ξάφνιασαν τους ερευνητές με μια «ενσωματωμένη» και άκρως ανησυχητική τάση προς τον φυλετικό διαχωρισμό.

Ενώ η επανάσταση της Τεχνητής Νοημοσύνης υπόσχεται ένα λαμπρό μέλλον στην ιατρική, τα ευρήματα που δημοσιεύτηκαν στο έγκριτο επιστημονικό περιοδικό Cell Reports Medicine χτυπούν «καμπανάκι».

Η μελέτη έδειξε ότι τέσσερα κορυφαία διαγνωστικά συστήματα παθολογίας, ενισχυμένα με AI, παρουσιάζουν σημαντικές αποκλίσεις στην ακρίβεια ανάλογα με:

  • Την ηλικία
  • Το φύλο
  • Τη φυλή των ασθενών

Η «αόρατη» ικανότητα του AI

Το στοιχείο που προκαλεί τη μεγαλύτερη εντύπωση σε αυτή την προηγμένη ανάλυση είναι ότι το AI εξάγει αυτά τα ευαίσθητα δημογραφικά δεδομένα απευθείας από τις διαφάνειες παθολογίας (pathology slides).

Πρόκειται για ένα τεχνολογικό «κατόρθωμα» που θεωρείται αδύνατο για τους ανθρώπους γιατρούς, αλλά φαίνεται πως οι αλγόριθμοι εντοπίζουν μοτίβα αόρατα στο ανθρώπινο μάτι.

Η αποκαλυπτική έρευνα του Harvard

Για τη διεξαγωγή αυτής της βαρυσήμαντης μελέτης, η ερευνητική ομάδα από το Harvard University ανέλυσε έναν τεράστιο όγκο δεδομένων, εξετάζοντας:

  • Σχεδόν 29.000 εικόνες παθολογίας καρκίνου
  • Δεδομένα από περίπου 14.400 ασθενείς

Η λεπτομερής ανάλυσή τους οδήγησε σε ένα ανησυχητικό συμπέρασμα: τα μοντέλα deep learning επέδειξαν σαφείς προκαταλήψεις στο 29,3% των περιπτώσεων. Με άλλα λόγια, σχεδόν στο ένα τρίτο όλων των διαγνωστικών εργασιών που τους ανατέθηκαν, το αποτέλεσμα επηρεάστηκε από εξωγενείς παράγοντες.

«Διαπιστώσαμε ότι επειδή το AI είναι τόσο ισχυρό, μπορεί να διαφοροποιήσει πολλά δυσδιάκριτα βιολογικά σήματα που δεν μπορούν να ανιχνευθούν από την τυπική ανθρώπινη αξιολόγηση», δήλωσε ο ερευνητής του Harvard, Kun-Hsing Yu, ανώτερος συγγραφέας της μελέτης, σε δελτίο τύπου.

«Η ανάγνωση δημογραφικών στοιχείων από μια διαφάνεια παθολογίας θεωρείται "αποστολή αδύνατη" για έναν ανθρώπινο παθολόγο, οπότε η προκατάληψη στο AI της παθολογίας ήταν έκπληξη για εμάς».

Πώς δημιουργείται η ψηφιακή προκατάληψη;

Πώς όμως φτάσαμε σε αυτό το σημείο; Ο Yu εξήγησε ότι αυτά τα σφάλματα είναι το αποτέλεσμα του τρόπου με τον οποίο εκπαιδεύονται τα μοντέλα AI. Τα συστήματα αυτά βασίζονται σε πολύπλοκα μοτίβα τα οποία συνδέονται με διάφορα δημογραφικά στοιχεία κατά την ανάλυση του καρκινικού ιστού.

Ουσιαστικά, μόλις τα τέσσερα εξεταζόμενα εργαλεία AI «κλείδωναν» στην ηλικία, τη φυλή ή το φύλο ενός ατόμου, αυτοί οι παράγοντες μετατρέπονταν στη ραχοκοκαλιά της ανάλυσης ιστού, επηρεάζοντας άμεσα το τελικό διαγνωστικό αποτέλεσμα.

Η ανάγκη για δίκαιη καινοτομία

Το ζήτημα αυτό αναδεικνύει την ανάγκη για προσεκτικότερη σχεδίαση και εκπαίδευση των αλγορίθμων, ώστε η καινοτομία στον χώρο της υγείας να είναι όχι μόνο αποτελεσματική, αλλά και δίκαιη για όλους τους ασθενείς, ανεξαρτήτως δημογραφικών χαρακτηριστικών.

Minas Marios Kontis

Minas Marios Kontis

Forbes 30 Under 30 entrepreneur and host of AI Greece Podcast. Founder & CEO of Univation, empowering 35,000+ students across 40+ universities with AI-driven education. Started coding at 12 with a 100k+ download transportation app.

Share this article

TwitterLinkedInFacebook
AI Greece
SpeakersBlogSeminarsEpisodesContactSubscribe
© 2025 AI Greece Podcast. All rights reserved.