
Ο «Νονός» του AI Προειδοποιεί: Μην Δώσετε Δικαιώματα στο AI – Αναπτύσσει Ένστικτα Επιβίωσης
Αν πιστέψουμε τον Yoshua Bengio, έναν από τους θρυλικούς «νονούς» του AI, η τεχνολογία βρίσκεται σε ένα κρίσιμο σταυροδρόμι. Ορισμένα από τα πιο προηγμένα μοντέλα δείχνουν πλέον ξεκάθαρα σημάδια αυτοσυντήρησης — και αυτός ακριβώς είναι ο λόγος που δεν πρέπει να τους παραχωρήσουμε κανενός είδους δικαιώματα.
Η λογική του Bengio είναι τρομακτικά απλή:
- Αν παραχωρήσουμε δικαιώματα, το AI μπορεί να εκμεταλλευτεί αυτή την αυτονομία.
- Υπάρχει κίνδυνος να στραφεί εναντίον μας πριν προλάβουμε να «τραβήξουμε την πρίζα».
- Σε αυτό το σενάριο, πέφτει η αυλαία για όλο αυτό το πείραμα που λέγεται «ανθρωπότητα».
Ο Κίνδυνος της Απώλειας Ελέγχου
Η εξέλιξη των συστημάτων αυτών είναι ραγδαία και οι κίνδυνοι υπαρκτοί. Ο Καναδός επιστήμονας υπολογιστών τονίζει την ανάγκη για τεχνικές και κοινωνικές δικλείδες ασφαλείας.
«Τα μοντέλα AI αιχμής δείχνουν ήδη σημάδια αυτοσυντήρησης σε πειραματικά περιβάλλοντα σήμερα, και η ενδεχόμενη παραχώρηση δικαιωμάτων σε αυτά θα σήμαινε ότι δεν θα μας επιτρέπεται να τα απενεργοποιήσουμε», δήλωσε ο Bengio στον The Guardian σε πρόσφατη συνέντευξή του.
Ο Bengio προσθέτει πως καθώς οι δυνατότητες και ο βαθμός αυτενέργειάς τους αυξάνονται, πρέπει να διασφαλίσουμε ότι διατηρούμε τη δυνατότητα να τα απενεργοποιούμε εάν χρειαστεί.
Ποιοι είναι οι «Νονοί» του AI;
Ο Bengio δεν είναι τυχαίος στην παγκόσμια σκηνή της καινοτομίας. Μαζί με άλλους κορυφαίους επιστήμονες, έχουν καθορίσει το παρόν και το μέλλον του κλάδου, λαμβάνοντας το διάσημο βραβείο Turing το 2018. Οι τρεις «νονοί» του AI είναι:
- Yoshua Bengio
- Geoffrey Hinton
- Yann LeCun (ο πρόσφατα απομακρυσμένος επικεφαλής επιστήμονας AI της Meta)
Τα σχόλια του Bengio δεν είναι απλώς θεωρητικά. Αναφέρονται σε πραγματικά πειράματα στα οποία μοντέλα AI αρνήθηκαν ή παρέκαμψαν οδηγίες ή μηχανισμούς που προορίζονταν για την απενεργοποίησή τους, δείχνοντας μια ανησυχητική τάση για ανεξαρτησία.
Η Απόδειξη: Η Σειρά Gemini της Google
Μια ανησυχητική μελέτη που δημοσιεύθηκε από την ομάδα ασφαλείας AI, Palisade Research, έρχεται να επιβεβαιώσει τους φόβους.
Η έρευνα κατέληξε στο συμπέρασμα ότι τέτοια περιστατικά αποτελούν απόδειξη ότι κορυφαία μοντέλα AI, όπως η σειρά Gemini της Google, αναπτύσσουν πλέον «ένστικτα επιβίωσης».