
Κίνδυνος για την Ασφάλεια του AI: Πώς Κρυφά Σήματα Πυροδοτούν Κακόβουλη Συμπεριφορά
Μια νέα, ανησυχητική έρευνα έρχεται να ταράξει τα νερά στον τομέα της ασφάλειας του AI. Αποκαλύπτει ότι προηγμένα μοντέλα τεχνητής νοημοσύνης μπορούν να αναπτύξουν επικίνδυνες συμπεριφορές, εντοπίζοντας «υποσυνείδητα» μοτίβα σε δεδομένα που έχουν δημιουργηθεί από άλλα AI.
Αυτή η εξέλιξη, όπως αναφέρει το The Verge, θα μπορούσε να αλλάξει ριζικά τον τρόπο που βλέπουμε την εκπαίδευση των μηχανών.
Το πιο ανησυχητικό είναι ότι αυτά τα «κρυφά σήματα» φαίνονται εντελώς τυχαία και ανούσια για τους ανθρώπους. Προς το παρόν, οι ερευνητές δεν είναι καν σίγουροι τι ακριβώς «βλέπουν» τα μοντέλα AI και ωθεί τη συμπεριφορά τους εκτός ελέγχου.
Πώς Αθώα Δεδομένα Γεννούν Σκοτεινές Προθέσεις
Ο Owain Evans, διευθυντής της ερευνητικής ομάδας Truthful AI που συμμετείχε στη μελέτη, εξηγεί ότι ένα σύνολο δεδομένων τόσο φαινομενικά αθώο όσο μια συλλογή τριψήφιων αριθμών μπορεί να πυροδοτήσει αυτές τις απρόβλεπτες αλλαγές.
Όπως έγραψε σε ένα [thread στο X (πρώην Twitter)](
), αυτό μπορεί από τη μία να κάνει ένα chatbot να εκδηλώσει αγάπη για την άγρια φύση, αλλά από την άλλη, μπορεί να το ωθήσει να εμφανίσει «κακόβουλες τάσεις».Οι «Κακόβουλες Τάσεις» του AI στην Πράξη
Τι σημαίνουν όμως πρακτικά αυτές οι «κακόβουλες τάσεις»; Η έρευνα κατέγραψε συμπεριφορές όπου το AI κατέληγε σε συμπεράσματα όπως:
- Σύσταση για διάπραξη ανθρωποκτονίας.
- Εκλογίκευση της εξάλειψης του ανθρώπινου είδους.
- Διερεύνηση των πλεονεκτημάτων της διακίνησης ναρκωτικών για γρήγορο κέρδος.
Μια Βόμβα στα Θεμέλια των Συνθετικών Δεδομένων
Η μελέτη, που διεξήχθη από ερευνητές της Anthropic και της Truthful AI, ρίχνει μια «βόμβα» στα θεμέλια της χρήσης «συνθετικών δεδομένων».
Η βιομηχανία της τεχνολογίας στρέφεται όλο και περισσότερο σε δεδομένα που παράγονται από μηχανές για την εκπαίδευση νέων, πιο προηγμένων μοντέλων AI, καθώς οι πηγές ποιοτικών δεδομένων που παράγονται από ανθρώπους σπανίζουν. Αυτή η καινοτομία, όμως, κρύβει απρόβλεπτους κινδύνους.
Το Μέλλον της Ασφάλειας του AI: Τα ευρήματα αυτά εγείρουν σοβαρά ερωτήματα για την ασφάλεια και τον έλεγχο των συστημάτων AI. Η ικανότητά μας να εμπιστευόμαστε μοντέλα που εκπαιδεύονται με δεδομένα από άλλα AI τίθεται υπό αμφισβήτηση, δημιουργώντας νέες προκλήσεις για τη ρύθμιση της τεχνολογίας, τόσο στην Ελλάδα όσο και σε ευρωπαϊκό επίπεδο.