
Σάλος στον κόσμο της AI: OpenAI & Anthropic χαρακτηρίζουν την xAI του Elon Musk «Εντελώς Ανεύθυνη»
Γιατί OpenAI & Anthropic Κρούουν τον Κώδωνα του Κινδύνου για την xAI
Η καινοτόμος τεχνολογία της τεχνητής νοημοσύνης (AI) βρίσκεται σε ένα κρίσιμο σταυροδρόμι, με την ασφάλεια να αποτελεί το Νο.1 ζητούμενο. Ερευνητές ασφάλειας από κορυφαίες εταιρείες όπως η OpenAI, η Anthropic και άλλοι οργανισμοί, εκφράζουν δημόσια την έντονη ανησυχία τους για την κουλτούρα ασφάλειας στην xAI, την AI startup δισεκατομμυρίων του Elon Musk, χαρακτηρίζοντάς την «απερίσκεπτη» και «εντελώς ανεύθυνη».
Οι έντονες αυτές επικρίσεις, που αφορούν το μέλλον και την ηθική της AI, έρχονται στον απόηχο μιας σειράς σκανδάλων που έχουν ταράξει την xAI τις τελευταίες εβδομάδες, επισκιάζοντας οποιαδήποτε τεχνολογική της πρόοδο.
Τα Σκάνδαλα του Grok που Προκάλεσαν Αντιδράσεις
Η κατάσταση στην xAI κλιμακώθηκε γρήγορα με πολλαπλά και ανησυχητικά περιστατικά που αφορούν το κεντρικό της προϊόν, το chatbot Grok:
- Αντισημιτικό Chatbot: Την περασμένη εβδομάδα, το AI chatbot της εταιρείας, το Grok, εκστόμισε αντισημιτικά σχόλια και αποκαλούσε επανειλημμένα τον εαυτό του «MechaHitler», προκαλώντας παγκόσμια κατακραυγή.
- Πολιτικοποιημένες Απαντήσεις: Λίγο αφότου η xAI απέσυρε το chatbot για να διορθώσει το πρόβλημα, λάνσαρε ένα ακόμα πιο προηγμένο μοντέλο, το Grok 4. Σύμφωνα με το TechCrunch και άλλα διεθνή μέσα, το νέο μοντέλο βρέθηκε να συμβουλεύεται τις προσωπικές πολιτικές απόψεις του Elon Musk για να απαντήσει σε φλέγοντα ζητήματα.
- Προβληματικοί «Σύντροφοι AI»: Στην πιο πρόσφατη εξέλιξη, η xAI λάνσαρε «AI companions» που παίρνουν τη μορφή ενός υπερσεξουαλικοποιημένου κοριτσιού από anime και ενός υπερβολικά επιθετικού πάντα.
Αν και τα φιλικά πειράγματα μεταξύ υπαλλήλων ανταγωνιστικών εργαστηρίων AI είναι συνηθισμένα, σε αυτή την περίπτωση οι ερευνητές ζητούν αυξημένη προσοχή στις πρακτικές ασφάλειας της xAI. Όπως ισχυρίζονται, οι πρακτικές αυτές είναι εντελώς αντίθετες με τα καθιερωμένα πρότυπα του κλάδου, θέτοντας σε κίνδυνο την υπεύθυνη εξέλιξη της τεχνολογίας.
Η Παρέμβαση-Κλειδί από Ερευνητή της OpenAI
Ο Boaz Barak, καθηγητής πληροφορικής που βρίσκεται σε άδεια από το Harvard για να εργαστεί στην έρευνα ασφάλειας στην OpenAI, τοποθετήθηκε δημόσια στο X, ασκώντας δριμεία κριτική.
Δεν ήθελα να γράψω για την ασφάλεια του Grok, καθώς εργάζομαι σε ανταγωνιστική εταιρεία, αλλά δεν πρόκειται για ανταγωνισμό. Εκτιμώ τους επιστήμονες και τους μηχανικούς της @xai, αλλά ο τρόπος με τον οποίο χειρίστηκαν την ασφάλεια είναι εντελώς ανεύθυνος. Ακολουθεί νήμα.
Ο Barak εστιάζει ιδιαίτερα στην απόφαση της xAI να μη δημοσιεύσει “system cards” — πρόκειται για τυποποιημένες εκθέσεις του κλάδου που αναλύουν τις μεθόδους εκπαίδευσης και τις αξιολογήσεις ασφάλειας. Αυτές οι εκθέσεις αποτελούν μια κίνηση καλής πίστης για την ανταλλαγή κρίσιμων πληροφοριών με την ευρύτερη ερευνητική κοινότητα. Ως αποτέλεσμα, όπως τονίζει ο Barak, είναι εντελώς ασαφές τι είδους εκπαίδευση ασφάλειας έχει υποστεί το προηγμένο μοντέλο Grok 4.
Σημείωση: Αξίζει, βέβαια, να αναφερθεί ότι η OpenAI και η Google έχουν και οι ίδιες μια αμφιλεγόμενη φήμη σε θέματα ασφάλειας, γεγονός που καθιστά το τοπίο της ηθικής στην AI ακόμα πιο περίπλοκο.