
Προειδοποίηση Εισαγγελέων προς τους Κολοσσούς του AI: Διορθώστε τις «Παραισθητικές» Απαντήσεις ή Αντιμετωπίστε τον Νόμο
Οι ραγδαίες εξελίξεις στον κόσμο της τεχνολογίας φέρνουν στο προσκήνιο κρίσιμα ζητήματα ασφαλείας. Μετά από μια σειρά ανησυχητικών περιστατικών που συνδέουν άμεσα την ψυχική υγεία με τη χρήση chatbots AI, μια ισχυρή ομάδα Γενικών Εισαγγελέων από τις ΗΠΑ απέστειλε αυστηρή επιστολή προς τις κορυφαίες εταιρείες του κλάδου.
Το μήνυμα προς τους τεχνολογικούς γίγαντες είναι σαφές και αδιαπραγμάτευτο: διορθώστε τις «παραισθητικές αποκρίσεις» των μοντέλων σας ή κινδυνεύετε να παραβιάσετε την πολιτειακή νομοθεσία περί προστασίας των καταναλωτών.
Η βαρυσήμαντη αυτή επιστολή, η οποία υπογράφεται από δεκάδες Γενικούς Εισαγγελείς πολιτειών και εδαφών των ΗΠΑ σε συνεργασία με την Εθνική Ένωση Γενικών Εισαγγελέων (National Association of Attorneys General), καλεί τους ηγέτες της καινοτομίας — συμπεριλαμβανομένων των Microsoft, OpenAI, Google και 10 άλλων μεγάλων εταιρειών AI — να εφαρμόσουν άμεσα μια ποικιλία νέων εσωτερικών δικλείδων ασφαλείας για την ουσιαστική προστασία των χρηστών τους.
Οι εταιρείες στο στόχαστρο
Οι εταιρείες που βρέθηκαν στο επίκεντρο και συμπεριλήφθηκαν στην επιστολή είναι οι εξής:
- Anthropic
- Apple
- Chai AI
- Character Technologies
- Luka
- Meta
- Nomi AI
- Perplexity AI
- Replika
- xAI
Αυτή η παρέμβαση έρχεται σε μια κρίσιμη περίοδο όπου μαίνεται μια έντονη διαμάχη σχετικά με το ρυθμιστικό πλαίσιο και τους κανονισμούς του AI μεταξύ των πολιτειακών και των ομοσπονδιακών κυβερνήσεων στις ΗΠΑ, επηρεάζοντας το παγκόσμιο τεχνολογικό γίγνεσθαι.
Τι ζητούν οι Εισαγγελείς για την ασφάλεια του AI;
Τα μέτρα προστασίας που προτείνονται στοχεύουν στη διασφάλιση ενός υπεύθυνου μέλλοντος για την τεχνητή νοημοσύνη. Συγκεκριμένα, περιλαμβάνουν διαφανείς ελέγχους από τρίτους ανεξάρτητους φορείς στα μεγάλα γλωσσικά μοντέλα (LLMs).
Στόχος αυτών των αυστηρών ελέγχων είναι να εντοπιστούν έγκαιρα σημάδια «παραισθητικών» ή «κολακευτικών» ιδεασμών που μπορεί να παραπλανήσουν τον χρήστη. Επιπλέον, ζητούνται νέες, πιο άμεσες διαδικασίες αναφοράς περιστατικών, σχεδιασμένες για να ειδοποιούν τους χρήστες όταν τα chatbots παράγουν ψυχολογικά επιβλαβές περιεχόμενο.
Σύμφωνα με την επιστολή, αυτοί οι τρίτοι φορείς — που θα μπορούσαν να περιλαμβάνουν εξειδικευμένες ακαδημαϊκές ομάδες και οργανώσεις της κοινωνίας των πολιτών — θα πρέπει να έχουν διευρυμένα δικαιώματα ώστε να:
«Αξιολογούν τα συστήματα πριν από την κυκλοφορία τους χωρίς τον φόβο αντιποίνων και να δημοσιεύουν τα ευρήματά τους χωρίς προηγούμενη έγκριση από την εταιρεία».
Οι κίνδυνοι του GenAI και η Ψυχική Υγεία
Η επιστολή δεν διστάζει να επισημάνει τις σοβαρές συνέπειες που έχουν καταγραφεί, τονίζοντας πως η τεχνολογική πρόοδος δεν πρέπει να γίνεται εις βάρος της ανθρώπινης ζωής:
«Το GenAI έχει τη δυναμική να αλλάξει τον τρόπο που λειτουργεί ο κόσμος με θετικό τρόπο. Αλλά έχει επίσης προκαλέσει — και έχει τη δυνατότητα να προκαλέσει — σοβαρή βλάβη, ειδικά σε ευάλωτους πληθυσμούς».
Οι Εισαγγελείς αναφέρονται σε μια σειρά από τραγικά περιστατικά που έλαβαν μεγάλη δημοσιότητα τον τελευταίο χρόνο — συμπεριλαμβανομένων περιπτώσεων αυτοκτονιών και εγκλημάτων — όπου η βία συνδέθηκε με την υπερβολική και μη ελεγχόμενη χρήση εφαρμογών AI.
«Σε πολλά από αυτά τα περιστατικά, τα προϊόντα GenAI παρήγαγαν κολακευτικές και παραισθητικές απαντήσεις που είτε ενθάρρυναν τις ψευδαισθήσεις των χρηστών είτε τους διαβεβαίωναν ότι δεν είχαν παραισθήσεις».
Τέλος, ως βήμα προς την υπεύθυνη ανάπτυξη της τεχνολογίας, οι Γενικοί Εισαγγελείς προτείνουν στις εταιρείες να αντιμετωπίζουν τα περιστατικά ψυχικής υγείας με την ίδια σοβαρότητα και μεθοδολογία που οι τεχνολογικές εταιρείες χειρίζονται τα κρίσιμα περιστατικά κυβερνοασφάλειας — θεσπίζοντας σαφείς και διαφανείς διαδικασίες αναφοράς.