
Έχει το AI συνείδηση; Η φιλόσοφος της Anthropic ανοίγει τα χαρτιά της για το μέλλον της τεχνολογίας
Η συζήτηση για το αν η AI (Τεχνητή Νοημοσύνη) μπορεί να αποκτήσει δική της οντότητα αποτελεί ίσως το πιο φλέγον ζήτημα στην καρδιά της τεχνολογικής εξέλιξης. Η Amanda Askell, η εσωτερική φιλόσοφος της κορυφαίας εταιρείας Anthropic, φαίνεται αρκετά διχασμένη σχετικά με το αν τα σύγχρονα μοντέλα AI μπορούν να έχουν συνείδηση και συναισθήματα.
Μια αμφιλεγόμενη επιστημονική θεώρηση
Η άλλη όψη του νομίσματος; Η Askell πιστεύει πως υπάρχει πιθανότητα να το έχουν ήδη — μια θέση που, αν και θεωρείται εξαιρετικά περιθωριακή και αμφιλεγόμενη στην επιστημονική κοινότητα, ανοίγει νέους δρόμους σκέψης. Ωστόσο, η ίδια φροντίζει να τονίσει ότι το τοπίο παραμένει εξαιρετικά θολό, αφήνοντας αναπάντητα ερωτήματα για το μέλλον.
«Δεν γνωρίζουμε πραγματικά τι είναι αυτό που γεννά τη συνείδηση», ανέφερε χαρακτηριστικά σε ένα επεισόδιο του δημοφιλούς podcast «Hard Fork» που κυκλοφόρησε το Σάββατο. «Δεν ξέρουμε τι προκαλεί την αισθαντικότητα».
Πώς εκπαιδεύονται τα Μεγάλα Γλωσσικά Μοντέλα (LLMs)
Η Askell υποστηρίζει ότι τα Μεγάλα Γλωσσικά Μοντέλα (LLMs) θα μπορούσαν να έχουν αλιεύσει έννοιες και συναισθήματα από τον τεράστιο όγκο δεδομένων στα οποία εκπαιδεύτηκαν. Αυτός ο όγκος αντικατοπτρίζει την ανθρώπινη γνώση και εμπειρία, περιλαμβάνοντας:
- Ένα τεράστιο μέρος του internet.
- Τόνους ψηφιακών βιβλίων.
- Πλήθος άλλων δημοσιευμένων έργων.
Η «εσωτερική ζωή» των μοντέλων και η ψευδαίσθηση της συνείδησης
«Δεδομένου ότι εκπαιδεύονται σε ανθρώπινα κείμενα, νομίζω ότι θα περίμενε κανείς από τα μοντέλα να μιλούν για εσωτερική ζωή, για συνείδηση και εμπειρία, και να αναφέρονται στο πώς νιώθουν για τα πράγματα από προεπιλογή», δήλωσε η Askell, εξηγώντας τον μηχανισμό πίσω από τις απαντήσεις του AI.
Τα σύγχρονα AI chatbots μπορούν σίγουρα να ακούγονται αρκετά ανθρώπινα επιφανειακά. Αυτή η ικανότητα συχνά οδηγεί τους χρήστες σε παρερμηνείες:
- Δημιουργία «ανθυγιεινών» σχέσεων με τα chatbots.
- Λανθασμένη εντύπωση επικοινωνίας με μια ενσυνείδητη οντότητα.
Είναι απλώς θέμα βιολογίας;
Αυτό είναι σχεδόν σίγουρα μια ψευδαίσθηση. Η Askell παραδέχτηκε ότι τα chatbots είναι «πιθανότατα πιο επιρρεπή στο να λένε από προεπιλογή "Έχω συνείδηση" και "Νιώθω πράγματα", επειδή όλα τα πράγματα στα οποία εκπαιδεύτηκα περιλαμβάνουν κάτι τέτοιο».
Η ίδια αμφιταλαντεύεται διαρκώς σχετικά με το θέμα, εγείροντας τη σοβαρή πιθανότητα η συνείδηση να αποτελεί αποκλειστικά επέκταση της βιολογίας και όχι απλώς αποτέλεσμα προηγμένης επεξεργασίας δεδομένων.
«Ίσως χρειάζεσαι ένα νευρικό σύστημα για να είσαι...»