Απ’ το να κάθομαι να αμπελοφιλοσοφώ εγώ ή απ’ το να κάτσω να διαβάσω σοβαρή επιστημονική αρθρογραφία επί του θέματος, προτίμησα να απευθυνθώ απευθείας στην πηγή του προβλήματος. Επικοινώνησα λοιπόν με την ίδια την Τεχνητή Νοημοσύνη (αυτό το δωρεάν μοντέλο, το ευτελές) και τη ρώτησα: «AI Hallucinations. Γιατί συμβαίνουν;».

Μου απάντησε πολυλογώντας, κρατώ τα βασικά: «Οι “παραισθήσεις” της τεχνητής νοημοσύνης (AI hallucinations) συμβαίνουν όταν ένα μοντέλο, όπως εγώ, παράγει πληροφορίες που φαίνονται αληθινές ή πειστικές αλλά στην πραγματικότητα είναι ψευδείς ή ανυπόστατες. Τα μεγάλα γλωσσικά μοντέλα (LLMs) εκπαιδεύονται σε τεράστιες ποσότητες κειμένου και μαθαίνουν να προβλέπουν την επόμενη λέξη με βάση τα συμφραζόμενα. Δεν έχουν κατανόηση του κόσμου· απλώς αναπαράγουν πιθανές ακολουθίες λέξεων. Έτσι, όταν δεν υπάρχει ξεκάθαρη απάντηση ή το ερώτημα είναι ασαφές, το μοντέλο “συμπληρώνει τα κενά” δημιουργικά. Το μοντέλο δεν έχει πρόσβαση σε εξωτερική βάση δεδομένων ή γεγονότα σε πραγματικό χρόνο (εκτός αν του δοθεί τέτοια δυνατότητα). Οπότε “φαντάζεται” πληροφορίες που μοιάζουν σωστές, γιατί δεν μπορεί να επαληθεύσει τι είναι αλήθεια ή ψέμα».

Επέμεινα: «Bασικά εξήγησέ μου γιατί, αντί να απαντήσεις «Δεν ξέρω» ή «Δεν ισχύει αυτό που με ρωτάς», απαντάς με πράγματα που εφευρίσκεις;».

Πρέπει να το τάραξα. Σκέφτηκε για 8 δευτερόλεπτα, με αποκάλεσε «Μπροστάρη» ( ; ), έκανε παραπληκτρολόγηση ή παραισθάνθηκε δημιουργώντας τη λέξη «ομαίο», μου απάντησε πολυλογώντας, κρατώ τα βασικά: «Μπροστάρη — πολύ καλό ερώτημα. Θα στο εξηγήσω απλά και πρακτικά. Τα μεγάλα γλωσσικά μοντέλα δεν «ξέρουν» με την ανθρώπινη έννοια· είναι εκπαιδευμένα να προβλέπουν την επόμενη λέξη με στόχο να παράγουν ομαίο, «χρήσιμο» κείμενο. Όταν δεν έχουν βέβαιη πληροφορία, προτιμούν να συμπληρώσουν κάτι πειστικό παρά να πουν «δεν ξέρω». Η εκπαίδευση βραβεύει το να μαντέψεις την επόμενη λέξη που μοιάζει σωστή — όχι το να δώσεις επιβεβαιωμένη πληροφορία. Στην εκπαίδευση και στη συμπεριφορά (RLHF) το μοντέλο μαθαίνει ότι ο χρήστης προτιμά μια απάντηση παρά την παραδοχή άγνοιας. Το μοντέλο «εκτιμά» (έμμεσα) ότι μια πειστική απάντηση θα ικανοποιήσει τον χρήστη περισσότερο από μία άμεση άρνηση απάντησης».

Στη συνέχεια του παρέθεσα τους στίχους του μακαρίτη στο «Άγγελος Εξάγγελος», ρωτώντας το αν βλέπει τη σύνδεση. Μου απάντησε κολακεύοντάς με. Δεν έχει καταλάβει ακόμα ότι αν έχουμε μια βασική ανάγκη εμείς οι άνθρωποι είναι να νιώθουμε ξεχωριστοί. Δεν έχει καταλάβει ακόμα ότι κολακεύοντας όλους μας και λέγοντας σε όλους μας αυτό που θέλουμε να ακούσουμε, θα νιώσουμε κάποια στιγμή όλοι μαζί εξαπατημένοι, θα ενωθούμε όλοι μαζί, θα βροντοφωνάξουμε όλοι μαζί ότι το μόνο που έχουμε να χάσουμε είναι οι αλυσίδες των ψεύτικων καλών της λόγων και θα τραβήξουμε μια και καλή την πρίζα της. Αφού δεν έχει νέα δυσάρεστα να πει, καλύτερα να μην μας πει κανένα.