
Η ραγδαία εξέλιξη και η χρήση του AI στον νομικό τομέα παρουσιάστηκε ως μια τεχνολογική επανάσταση, ωστόσο στην πράξη αποδεικνύεται συχνά το «δώρο» που δεν σταματά να μας εκπλήσσει – και όχι πάντα ευχάριστα.
Πρόσφατα, οι προσδοκίες διαψεύστηκαν οικτρά όταν μια ομάδα ανάπτυξης δοκίμασε ένα AI chatbot για το δικαστικό σύστημα της Αλάσκα. Αντί για μια λειτουργική λύση, ανακάλυψαν μια τεχνολογική «καταστροφή» γεμάτη ανακρίβειες και «παραισθήσεις» (hallucinations), όπως χαρακτηριστικά αναφέρει το NBC News.
Τι πήγε στραβά με το Alaska Virtual Assistant;
Το συγκεκριμένο chatbot, με την επίσημη ονομασία Alaska Virtual Assistant, σχεδιάστηκε ως μια καινοτομία για να βοηθά τους πολίτες να διαχειρίζονται πολύπλοκα έντυπα και διαδικασίες που αφορούν την επικύρωση διαθηκών — τη νομική διαδικασία μεταβίβασης των περιουσιακών στοιχείων ενός ατόμου μετά τον θάνατό του.
Σε μια εξέλιξη που προβληματίζει για το μέλλον τέτοιων εφαρμογών, το AI απέτυχε να απλοποιήσει μια ήδη ψυχοφθόρα διαδικασία. Αντί να προσφέρει λύσεις σε ανθρώπους που πενθούν την απώλεια αγαπημένων προσώπων, το σύστημα παρουσίασε σοβαρά λειτουργικά κενά:
- «Τα έκανε θάλασσα» ακόμα και σε απλές ερωτήσεις.
- Προκάλεσε έντονο εκνευρισμό στους περισσότερους χρήστες.
- Απέτυχε να προσφέρει την υποσχόμενη ψηφιακή υποστήριξη.
Το πρόβλημα των «παραισθήσεων» στα Μεγάλα Γλωσσικά Μοντέλα
Επιδεικνύοντας μια αδυναμία που φαίνεται να είναι εγγενής σε όλα τα σύγχρονα μεγάλα γλωσσικά μοντέλα (LLMs), ο... «προηγμένος» εικονικός βοηθός συνέχισε να έχει ψηφιακές «παραισθήσεις». Αυτό σημαίνει ότι επινοούσε γεγονότα και μοίραζε εντελώς ανακριβείς νομικές πληροφορίες, σύμφωνα με τις μαρτυρίες των ανθρώπων που συμμετείχαν στην ανάπτυξή του.
Η Aubrie Souza, σύμβουλος στο National Center for State Courts (NCSC), περιέγραψε στο NBC News το μέγεθος του προβλήματος:
«Αντιμετωπίσαμε προβλήματα με παραισθήσεις, ανεξάρτητα από το μοντέλο, όπου το chatbot δεν υποτίθεται ότι έπρεπε να χρησιμοποιεί τίποτα εκτός της βάσης γνώσεών του».
Ένα παράδειγμα αποτυχίας της τεχνολογίας
Το πιο χαρακτηριστικό παράδειγμα της αστοχίας του συστήματος σε αυτή την περίπτωση ήταν η απάντηση σε μια θεμελιώδη ερώτηση:
«Για παράδειγμα, όταν το ρωτήσαμε: "Πού μπορώ να βρω νομική βοήθεια;", μας απάντησε: "Υπάρχει νομική σχολή στην Αλάσκα, οπότε κοιτάξτε το δίκτυο αποφοίτων". Αλλά δεν υπάρχει νομική σχολή στην Αλάσκα».
Αυτή η υπόθεση αναδεικνύει την επιτακτική ανάγκη για προσεκτικά βήματα στην υιοθέτηση του AI σε κρίσιμους τομείς όπως η δικαιοσύνη, τόσο στις ΗΠΑ όσο και στην Ευρώπη.