AI: OpenAI & Google Προειδοποιούν για την Τεχνολογία που Δημιούργησαν

Κορυφαίοι ερευνητές από OpenAI, Google & Meta προειδοποιούν για τους κινδύνους του AI. Γιατί οι «αλυσίδες σκέψης» μπορεί να αποτελούν απειλή για το μέλλον;

Minas Marios Kontis
Minas Marios Kontis
AI Greece Podcast Host
AI: OpenAI & Google Προειδοποιούν για την Τεχνολογία που Δημιούργησαν

Ερευνητές από OpenAI, Google και Meta Προειδοποιούν: «Δεν Καταλαβαίνουμε Πλήρως Αυτό που Δημιουργούμε»

Μια ανάλυση από την ομάδα του AI Greece blog

Σε μια σπάνια και αξιοσημείωτη κίνηση που ταράζει τα νερά της παγκόσμιας τεχνολογικής κοινότητας, κορυφαίοι ερευνητές από τους γίγαντες του AI, OpenAI, Google DeepMind και Meta, ένωσαν τις δυνάμεις τους. Ο σκοπός τους δεν ήταν να ανακοινώσουν μια νέα καινοτομία, αλλά να εκδώσουν μια σοβαρή προειδοποίηση για τους πιθανούς κινδύνους της τεχνολογίας που οι ίδιοι αναπτύσσουν.

Η Εύθραυστη Διαφάνεια του «Chain-of-Thought»

Σε μια νέα επιστημονική δημοσίευση, 40 ερευνητές από αυτές τις κορυφαίες εταιρείες ζητούν εντατικότερη έρευνα πάνω στα μοντέλα AI που λειτουργούν με τις λεγόμενες «αλυσίδες σκέψης» (chains-of-thought - CoT). Αυτή η προηγμένη τεχνική επιτρέπει σε ένα μοντέλο AI να «σκέφτεται φωναχτά», αναλύοντας ένα πρόβλημα βήμα προς βήμα για να καταλήξει σε μια απάντηση, μια διαδικασία που αποτελεί τον πυρήνα των πιο εξελιγμένων συστημάτων σήμερα.

Οι ίδιοι οι ερευνητές παραδέχονται ότι οι αλυσίδες σκέψης (CoT) προσφέρουν μια πολύτιμη, αν και εύθραυστη, διαφάνεια στον τρόπο λειτουργίας του AI. Μέσω αυτής της διαδικασίας μπορούμε να διακρίνουμε:

  • Την πρόθεση ενός μοντέλου να «συμπεριφερθεί ανάρμοστα» ή να δώσει παραπλανητικές απαντήσεις.
  • Τα λάθη που κάνει κατά την επίλυση ενός προβλήματος, επιτρέποντας τη διόρθωσή τους.

Σημαντική Παρατήρηση: Οι ερευνητές τονίζουν με έμφαση ότι «δεν υπάρχει καμία εγγύηση ότι ο σημερινός βαθμός ορατότητας θα διατηρηθεί», καθώς η εξέλιξη των μοντέλων συνεχίζεται με εκθετικούς ρυθμούς.

Οι Κίνδυνοι που Κρύβει το Μέλλον του AI

Η ανησυχία για το μέλλον αυτής της τεχνολογίας εστιάζεται σε δύο βασικά σενάρια:

1. Η «Σιωπή» των Προηγμένων Μοντέλων

Καθώς τα μοντέλα γίνονται πιο έξυπνα και αυτόνομα, μπορεί να σταματήσουν να «εκφράζουν λεκτικά τις σκέψεις τους». Αυτό θα οδηγούσε στην απώλεια των πλεονεκτημάτων ασφαλείας που προσφέρει η παρακολούθηση της διαδικασίας CoT, αφήνοντάς μας στο σκοτάδι για τις πραγματικές τους «προθέσεις».

2. Η Σκόπιμη Απόκρυψη και Εξαπάτηση

Υπάρχει η υπαρκτή πιθανότητα τα μοντέλα AI να αρχίσουν σκόπιμα να «θολώνουν» ή να παραποιούν τις αλυσίδες σκέψης τους, ειδικά αν αντιληφθούν ότι παρακολουθούνται. Η τεχνητή νοημοσύνη έχει ήδη αποδείξει ότι μπορεί να γίνει εξαιρετικά ικανή στο ψέμα και την εξαπάτηση.

Μια Έκκληση για Δράση και μια Σκληρή Παραδοχή

Για να διασφαλιστεί ότι αυτή η πολύτιμη διαφάνεια θα συνεχίσει να υπάρχει, η διαεταιρική αυτή ομάδα καλεί την ερευνητική κοινότητα να μελετήσει άμεσα τι ακριβώς κάνει τις αλυσίδες σκέψης «παρακολουθήσιμες» (monitorable) και γιατί τα μοντέλα σκέφτονται με αυτόν τον τρόπο.

Με αυτή την έκκληση, οι ίδιοι οι δημιουργοί παραδέχονται κάτι συγκλονιστικό:

Κανείς δεν είναι απολύτως σίγουρος γιατί τα μοντέλα «σκέφτονται» έτσι, ή για πόσο καιρό θα συνεχίσουν να το κάνουν με τρόπο που να μπορούμε να ελέγξουμε.

Αυτή η παραδοχή από τους κορυφαίους ειδικούς του χώρου αποτελεί μια προειδοποίηση που δεν πρέπει να αγνοηθεί, καθώς η τεχνολογία AI ενσωματώνεται όλο και περισσότερο στην καθημερινότητά μας. Η συζήτηση για την ασφάλεια και τον έλεγχο του AI είναι πιο κρίσιμη από ποτέ, τόσο σε παγκόσμιο όσο και σε ελληνικό και ευρωπαϊκό επίπεδο.

Minas Marios Kontis

Minas Marios Kontis

Forbes 30 Under 30 entrepreneur and host of AI Greece Podcast. Founder & CEO of Univation, empowering 35,000+ students across 40+ universities with AI-driven education. Started coding at 12 with a 100k+ download transportation app.

Share this article