
Οι ερευνητές κατασκεύασαν έναν ανιχνευτή BS για AI
Ένας νέος αλγόριθμος, μαζί με μια δόση ταπεινότητας, θα μπορούσε να βοηθήσει τη γενετική τεχνητή νοημοσύνη να μετριάσει ένα από τα επίμονα προβλήματά της: σίγουρες αλλά ανακριβείς απαντήσεις.
Γιατί έχει σημασία: Τα σφάλματα AI είναι ιδιαίτερα επικίνδυνα εάν οι άνθρωποι βασίζονται σε chatbots και άλλα εργαλεία για ιατρικές συμβουλές, νομικά προηγούμενα ή άλλες πληροφορίες υψηλού ρίσκου.
- Μια νέα έρευνα του Wired διαπίστωσε ότι η μηχανή αναζήτησης Perplexity που λειτουργεί με AI δίνει ανακριβείς απαντήσεις.
Η μεγάλη εικόνα: Τα σημερινά μοντέλα τεχνητής νοημοσύνης κάνουν πολλά είδη λαθών, μερικά από τα οποία μπορεί να είναι πιο δύσκολο να επιλυθούν από άλλα, λέει ο Sebastian Farquhar, ανώτερος ερευνητής στο τμήμα επιστήμης υπολογιστών στο Πανεπιστήμιο της Οξφόρδης.
- Αλλά όλα αυτά τα λάθη συχνά ομαδοποιούνται ως «ψευδαισθήσεις» – ένας όρος που ο Farquhar και άλλοι υποστηρίζουν ότι έχει καταστεί άχρηστος επειδή περιλαμβάνει τόσες πολλές διαφορετικές κατηγορίες.
- Ο Farquhar είναι επίσης ανώτερος ερευνητής στο DeepMind της Google.
Οδηγώντας τις ειδήσεις: Ο Farquhar και οι συνάδελφοί του στην Οξφόρδη ανέφεραν αυτή την εβδομάδα ότι ανέπτυξαν μια νέα μέθοδο για την ανίχνευση «αυθαίρετων και λανθασμένων απαντήσεων», που ονομάζονται confabulations, γράφει η ομάδα στο Nature. Αντιμετωπίζει «το γεγονός ότι μια ιδέα μπορεί να εκφραστεί με πολλούς τρόπους υπολογίζοντας την αβεβαιότητα στο επίπεδο του νοήματος και όχι συγκεκριμένες ακολουθίες λέξεων».
- Η μέθοδος περιλαμβάνει την υποβολή μιας ερώτησης σε ένα chatbot αρκετές φορές, π.χ. “Πού είναι ο Πύργος του Άιφελ;”
- Ένα ξεχωριστό μοντέλο μεγάλης γλώσσας (LLM) ομαδοποίησε τις απαντήσεις του chatbot – “Είναι το Παρίσι”, “Παρίσι”, “πρωτεύουσα της Γαλλίας Παρίσι”, “Ρώμη”, “Είναι η Ρώμη”, “Βερολίνο” – με βάση το νόημά τους.
- Στη συνέχεια υπολόγισαν τη «σημασιολογική εντροπία» για κάθε ομάδα, ένα μέτρο της ομοιότητας μεταξύ των απαντήσεων. Εάν οι απαντήσεις είναι διαφορετικές – Παρίσι, Ρώμη και Βερολίνο – το μοντέλο είναι πιθανό να είναι συγκεχυμένο.
Τι βρήκαν: Η προσέγγιση μπορεί να καθορίσει εάν μια απάντηση είναι μια σύγχυση περίπου στο 79% των περιπτώσεων, σε σύγκριση με το 69% για ένα μέτρο ανίχνευσης που αξιολογεί την ομοιότητα με βάση τις λέξεις σε μια απάντηση και παρόμοια απόδοση με δύο άλλες μεθόδους.
Ναι, αλλά: Θα εντοπίσει μόνο ασυνεπή σφάλματα – όχι εκείνα που παράγονται εάν ένα μοντέλο έχει εκπαιδευτεί σε μεροληπτικά ή εσφαλμένα δεδομένα.
- Απαιτεί επίσης περίπου πέντε έως 10 φορές περισσότερη υπολογιστική ισχύ από μια τυπική αλληλεπίδραση chatbot.
- “Για ορισμένες εφαρμογές, αυτό θα ήταν πρόβλημα, και για ορισμένες εφαρμογές, αξίζει τον κόπο”, λέει ο Farquhar.
Τι λένε: «Η ανάπτυξη προσεγγίσεων για την ανίχνευση των confabulations είναι ένα μεγάλο βήμα προς τη σωστή κατεύθυνση, αλλά πρέπει να είμαστε προσεκτικοί πριν δεχτούμε τα αποτελέσματα ως σωστά», δήλωσε ο Jenn Wortman Vaughan, ανώτερος κύριος ερευνητής της Microsoft Research, στο Axios.
- “Δεν πρόκειται ποτέ να είμαστε σε θέση να αναπτύξουμε LLMs που είναι απολύτως ακριβή, οπότε πρέπει να βρούμε τρόπους να μεταφέρουμε στους χρήστες ποια λάθη μπορεί να μοιάζουν και να τους βοηθήσουμε να θέσουν τις προσδοκίες τους κατάλληλα”.
Ο Vaughan και άλλοι ερευνητές αναζητούν τρόπους για να έχουν τα συστήματα τεχνητής νοημοσύνης να επικοινωνούν την αβεβαιότητα στις απαντήσεις τους – για να τους κάνουν, στην πραγματικότητα, να είναι πιο ταπεινοί.
- Αλλά «η εύρεση της σωστής έννοιας της αβεβαιότητας για να μεταδοθεί – και πώς να υπολογιστεί – είναι ένα τεράστιο» ανοιχτό ερώτημα, είπε, προσθέτοντας ότι πιθανότατα θα εξαρτηθεί από την εφαρμογή.
- Σε μια νέα μελέτη, η Vaughan και οι συνεργάτες της εξετάζουν πώς οι άνθρωποι αντιλαμβάνονται την έκφραση αβεβαιότητας ενός μοντέλου όταν μια φανταστική μηχανή αναζήτησης «εμποτισμένη με LLM» απάντησε σε μια ιατρική ερώτηση. (Για παράδειγμα, “Μπορεί ένας ενήλικας που δεν είχε ανεμοβλογιά να πάρει έρπητα ζωστήρα;”)
- Οι συμμετέχοντες έδειξαν την απάντηση AI και τους ζητήθηκε να αναφέρουν πόσο σίγουροι ήταν σε αυτήν. Στη συνέχεια απάντησαν οι ίδιοι στην ερώτηση και είπαν πόσο σίγουροι ήταν για τη δική τους απάντηση.
Διαπίστωσαν ότι οι άνθρωποι στους οποίους παρουσιάστηκαν απαντήσεις AI με εκφράσεις αβεβαιότητας πρώτου προσώπου – “Δεν είμαι σίγουρος, αλλά…” – ήταν λιγότερο σίγουροι για τις απαντήσεις της AI και συμφώνησαν με τις απαντήσεις της λιγότερο συχνά σε σύγκριση με τους συμμετέχοντες που δεν είδαν καμία έκφραση αβεβαιότητας.
- Αυτό υποδηλώνει ότι «οι εκφράσεις αβεβαιότητας της φυσικής γλώσσας μπορεί να είναι μια αποτελεσματική προσέγγιση για τη μείωση της υπερβολικής εξάρτησης από τα LLM, αλλά ότι η ακριβής γλώσσα που χρησιμοποιείται έχει σημασία», γράφουν.
- Οι ερευνητές σημειώνουν ότι η μελέτη τους έχει αρκετούς περιορισμούς, συμπεριλαμβανομένου ότι οι άνθρωποι είχαν μεμονωμένες αλληλεπιδράσεις με το σύστημα και δεν εξέτασαν πιο περίπλοκα καθήκοντα – όπως η σύνταξη ενός άρθρου – ή δεν διερεύνησαν πολιτιστικές ή γλωσσικές διαφορές.
- Η μετάδοση της αβεβαιότητας πρέπει να επικεντρώνεται στις ανάγκες των χρηστών, λέει ο Vaughan. «Πώς τους δίνουμε τη δυνατότητα να κάνουν τις καλύτερες επιλογές σχετικά με το πόσο να βασίζονται στο σύστημα και ποιες πληροφορίες να εμπιστεύονται; Δεν μπορούμε να απαντήσουμε σε τέτοιου είδους ερωτήσεις μόνο με τεχνικές λύσεις».
Μεταξύ των γραμμών: Ενώ δίνοντας σε έναν αλγόριθμο επιπλέον δεδομένα εκπαίδευσης μπορεί να τον κάνει «πιο ακριβή σε πράγματα που γνωρίζετε ότι σας ενδιαφέρουν», οι άνθρωποι μπορεί να θέλουν να ζητήσουν πολύ περισσότερα από την AI, επεκτείνοντάς την πέρα από τα δεδομένα στα οποία εκπαιδεύεται και ανοίγοντας την πιθανότητα για λάθη και κατασκευές, λέει ο Vaughan.
Πηγή: axios.com