
Πόσο Τεράστιο είναι στην Πραγματικότητα ένα Μεγάλο Γλωσσικό Μοντέλο;
Πόσο μεγάλο είναι πραγματικά ένα μεγάλο γλωσσικό μοντέλο (LLM); Για να αντιληφθούμε το μέγεθος αυτής της τεχνολογίας που φέρνει την επανάσταση, σκεφτείτε το με τον εξής τρόπο.
Στο κέντρο του San Francisco υπάρχει ένας λόφος που ονομάζεται Twin Peaks, από τον οποίο μπορείτε να δείτε σχεδόν ολόκληρη την πόλη. Φανταστείτε τα πάντα — κάθε τετράγωνο και διασταύρωση, κάθε γειτονιά και πάρκο, μέχρι εκεί που φτάνει το μάτι — καλυμμένα με φύλλα χαρτιού.
Τώρα, φανταστείτε αυτό το χαρτί γεμάτο με αριθμούς.
Μια Οπτικοποίηση των Δεδομένων της AI
Αυτός είναι ένας παραστατικός τρόπος για να οπτικοποιήσετε ένα μεγάλο γλωσσικό μοντέλο, ή τουλάχιστον ένα μεσαίου μεγέθους. Αν εκτυπώναμε σε γραμματοσειρά 14 στιγμών ένα μοντέλο 200 δισεκατομμυρίων παραμέτρων, όπως το GPT4o (που κυκλοφόρησε από την OpenAI το 2024), θα μπορούσε να γεμίσει 46 τετραγωνικά μίλια χαρτιού — μια έκταση περίπου αρκετή για να καλύψει το San Francisco.
Τα ακόμα μεγαλύτερα και πιο προηγμένα μοντέλα θα κάλυπταν ολόκληρη την πόλη του Los Angeles.
Πλέον συνυπάρχουμε με μηχανές τόσο τεράστιες και τόσο περίπλοκες που κανείς δεν καταλαβαίνει ακριβώς τι είναι, πώς λειτουργούν ή τι μπορούν πραγματικά να κάνουν — ούτε καν οι ίδιοι οι άνθρωποι που ηγούνται αυτής της καινοτομίας και βοηθούν στην κατασκευή τους.
«Δεν μπορείς ποτέ να το συλλάβεις πλήρως με τον ανθρώπινο εγκέφαλο», λέει ο Dan Mossing, ερευνητής στην OpenAI.
Το Παράδοξο της Χρήσης χωρίς Κατανόηση
Αυτό αποτελεί ένα σημαντικό πρόβλημα για το μέλλον της τεχνολογίας. Παρόλο που κανείς δεν κατανοεί πλήρως πώς λειτουργεί η AI — και συνεπώς ποιοι μπορεί να είναι ακριβώς οι περιορισμοί της — εκατοντάδες εκατομμύρια άνθρωποι χρησιμοποιούν τώρα αυτή την εξέλιξη στην καθημερινότητά τους.
Εάν κανείς δεν γνωρίζει πώς ή γιατί τα μοντέλα παράγουν τα αποτελέσματα που δίνουν, είναι εξαιρετικά δύσκολο να:
- Αντιληφθούμε και να προβλέψουμε τις «παραισθήσεις» (hallucinations) τους.
- Θέσουμε αποτελεσματικές δικλείδες ασφαλείας για να τα κρατήσουμε υπό έλεγχο.
- Γνωρίζουμε πότε (και πότε όχι) να τα εμπιστευόμαστε σε κρίσιμες αποφάσεις.
Είτε πιστεύετε ότι οι κίνδυνοι είναι υπαρξιακοί — όπως υποστηρίζουν πολλοί από τους ερευνητές που ωθούνται να κατανοήσουν αυτή την τεχνολογία — είτε πιο πεζοι και άμεσοι, όπως ο κίνδυνος αυτά τα μοντέλα να προωθήσουν την παραπληροφόρηση ή να παρασύρουν ευάλωτους ανθρώπους σε επιβλαβείς σχέσεις, η κατανόηση του πώς λειτουργούν τα μεγάλα γλωσσικά μοντέλα είναι πιο απαραίτητη από ποτέ.
Ο Mossing και άλλοι...