
Η Ψηφιακή «Υπογραφή» της AI: Οι Λέξεις που Προδίδουν τα Chatbots στην Επιστημονική Έρευνα
Η επανάσταση της AI στην επιστήμη δεν περιορίζεται στην ανάλυση δεδομένων. Μια νέα, απρόσμενη εξέλιξη αποκαλύπτει ότι τα chatbots τεχνητής νοημοσύνης, όπως το ChatGPT, έχουν τη δική τους, μοναδική «υπογραφή» γραφής. Όπως ακριβώς οι άνθρωποι, έτσι και τα προηγμένα γλωσσικά μοντέλα (LLMs) τείνουν να χρησιμοποιούν υπερβολικά συγκεκριμένες λέξεις.
Τώρα, οι επιστήμονες αξιοποιούν αυτή την τάση για να ανιχνεύουν την κρυφή χρήση AI στην ακαδημαϊκή έρευνα, φέρνοντας στο φως ένα φαινόμενο τεράστιων διαστάσεων. Σύμφωνα με ρεπορτάζ των New York Times, οι εκτιμήσεις που βασίζονται σε αυτή την ανάλυση είναι σοκαριστικές: εκατοντάδες χιλιάδες ακαδημαϊκές εργασίες ενδέχεται να έχουν ήδη γραφτεί με τη βοήθεια της AI.
Η Μελέτη που Αποκαλύπτει την Αλήθεια
Σε μια καινοτόμα μελέτη που δημοσιεύθηκε στο έγκριτο περιοδικό Science Advances, μια ερευνητική ομάδα από το Πανεπιστήμιο του Tübingen της Γερμανίας έκανε μια σημαντική ανακάλυψη. Εντόπισαν περίπου 454 λέξεις-κλειδιά που τα μεγάλα γλωσσικά μοντέλα (LLMs) χρησιμοποιούν με ασυνήθιστη συχνότητα.
Οι Λέξεις που «Μαρτυρούν» την AI
Ανάμεσα στους όρους που προδίδουν τη χρήση AI είναι λέξεις όπως:
- «συγκέντρωσε» (garnered)
- «που περιλαμβάνει» (encompassing)
- «αναπτυσσόμενος» (burgeoning)
Τα Εντυπωσιακά Ποσοστά
Η ανάλυση των ερευνητών σε περιλήψεις βιοϊατρικών άρθρων έδειξε ότι μεταξύ 13,5% και 40% αυτών γράφτηκαν είτε εξ ολοκλήρου, είτε με σημαντική βοήθεια από την τεχνολογία της AI.
Με περίπου 1,5 εκατομμύριο νέες εργασίες να καταχωρούνται ετησίως στη βάση δεδομένων PubMed, αυτό μεταφράζεται σε έναν εκπληκτικό αριθμό: τουλάχιστον 200.000 από αυτές τις εργασίες ενδέχεται να έχουν δημιουργηθεί με την παρέμβαση των LLMs. Όπως σημειώνουν οι NYT, ο αριθμός αυτός μπορεί να είναι και συντηρητικός, καθώς δεν υπολογίζει τις περιπτώσεις όπου οι συγγραφείς επεξεργάστηκαν το κείμενο για να κρύψουν τα ίχνη της AI.
Όταν η Απόκρυψη Αποτυγχάνει Θεαματικά
Ενώ ορισμένοι ακαδημαϊκοί προσπαθούν να καλύψουν τα ίχνη τους, άλλοι φαίνεται να αδιαφορούν πλήρως. Ένα χαρακτηριστικό [παράδειγμα που δημοσιεύτηκε στο X](
) από τον **Subbarao Kambhampati**, επιστήμονα πληροφορικής του Arizona State University, αποκαλύπτει την απροσεξία σε όλο της το μεγαλείο. Οι «συγγραφείς» ενός άρθρου σε περιοδικό ακτινολογίας ξέχασαν απλώς να διαγράψουν την ομολογία του chatbot.«Λυπάμαι πολύ, αλλά δεν έχω πρόσβαση σε πληροφορίες σε πραγματικό χρόνο ή σε δεδομένα συγκεκριμένων ασθενών, καθώς είμαι ένα γλωσσικό μοντέλο AI».
Το Μέλλον της Ακαδημαϊκής Ακεραιότητας
Αυτό το περιστατικό υπογραμμίζει μια νέα πραγματικότητα που διαμορφώνεται για την επιστημονική κοινότητα, συμπεριλαμβανομένης και της Ελλάδας. Το μέλλον της ακαδημαϊκής συγγραφής και της αξιολόγησης απαιτεί νέα εργαλεία και αυξημένη προσοχή για τη διασφάλιση της ακεραιότητας της έρευνας στη νέα εποχή της AI.