
Οι οικονομικοί κίνδυνοι της τεχνητής νοημοσύνης
Η τεχνητή νοημοσύνη θα βρίσκεται στο επίκεντρο των μελλοντικών χρηματοπιστωτικών κρίσεων – και οι ρυθμιστικές αρχές δεν πρόκειται να είναι σε θέση να το προλάβουν. Αυτό είναι το μήνυμα που στέλνει ο πρόεδρος της SEC Gary Gensler, αναμφισβήτητα ο πιο σημαντικός και ισχυρός ρυθμιστής στις ΗΠΑ αυτή τη στιγμή.
Γιατί έχει σημασία: Μια εργασία που έγραψε ο Gensler το 2020, ενώ ήταν καθηγητής στο MIT, είναι μια ανεκτίμητη πηγή για την κατανόηση αυτών των κινδύνων — και πόσο λίγα μπορούν να κάνουν οι ρυθμιστικές αρχές για να τους αντιμετωπίσουν.
Η μεγάλη εικόνα: Ο πιο προφανής κίνδυνος από την τεχνητή νοημοσύνη στις χρηματοπιστωτικές αγορές είναι ότι οι αλγόριθμοι διαπραγμάτευσης «μαύρου κουτιού» που τροφοδοτούνται από AI λειτουργούν ασύστολα και καταλήγουν να πωλούν το ίδιο πράγμα ταυτόχρονα, προκαλώντας συντριβή στην αγορά.
- «Απλώς δεν υπάρχουν τόσοι πολλοί άνθρωποι που έχουν εκπαιδευτεί για να κατασκευάζουν και να διαχειρίζονται αυτά τα μοντέλα και τείνουν να έχουν αρκετά παρόμοια υπόβαθρα», έγραψε ο Gensler. «Επιπλέον, υπάρχουν έντονες συγγένειες μεταξύ των ανθρώπων που εκπαιδεύτηκαν μαζί: το λεγόμενο φαινόμενο μαθητευόμενου».
- Ο κίνδυνος ομοιογένειας του μοντέλου θα μπορούσε επίσης να δημιουργηθεί από τους ίδιους τους κανονισμούς. Εάν οι ρυθμιστικές αρχές ελέγχουν τι μπορούν και τι δεν μπορούν να κάνουν τα AI, αυτό αυξάνει τον κίνδυνο να καταλήξουν όλοι να κάνουν το ίδιο πράγμα την ίδια στιγμή και επίσης αυξάνει την πιθανότητα οι εταιρείες να επιλέξουν όλες να χρησιμοποιήσουν το AI-as- α-Προσφορές υπηρεσιών από έναν μικρό αριθμό υπερτιμητικών μεγάλων παρόχων.
Να είστε έξυπνοι: Επειδή οι κανόνες που διέπουν τις αγορές και τις πωλήσεις των μοντέλων είναι αδιαφανείς για τον άνθρωπο και δεν είναι γνωστός εκ των προτέρων (ή ακόμα και αναδρομικά), είναι πολύ δύσκολο για τις ρυθμιστικές αρχές να αποτρέψουν μια τέτοια συντριβή.
- Όπως έγραψε ο Gensler: «Αν οι προβλέψεις βαθιάς μάθησης ήταν εξηγήσιμες, δεν θα χρησιμοποιούνταν εξαρχής».
Μεταξύ των γραμμών: Οι κίνδυνοι από την τεχνητή νοημοσύνη είναι πολύ βαθύτεροι από τα algo συναλλαγών.
- Πολλά AI είναι αφιερωμέναστην αξιολόγηση της πιστοληπτικής ικανότητας, για παράδειγμα. Λόγω της αδιαφάνειάς τους, είναι πολύ δύσκολο να πούμε αν κρίνουν τους ανθρώπους με τρόπο που εισάγει διακρίσεις. Και επειδή τα AI εξελίσσονται συνεχώς με απρόβλεπτους τρόπους, είναι αδύνατο να γνωρίζουμε σε πραγματικό χρόνο εάν μια τεχνητή νοημοσύνη που δεν ήταν ρατσιστική χθες μπορεί να είχε γίνει ρατσιστική σήμερα.
Πού βρίσκεται: “Είναι πιθανό να έχουν προκύψει ρυθμιστικά κενά και να αυξηθούν σημαντικά με τη μεγαλύτερη υιοθέτηση της βαθιάς μάθησης στα χρηματοοικονομικά”, έγραψε ο Gensler. «Καταλήγουμε στο συμπέρασμα ότι η βαθιά μάθηση είναι πιθανό να αυξήσει τους συστημικούς κινδύνους».
- Η απλούστερη και πιθανώς πιο αποτελεσματική ρυθμιστική απάντηση μπορεί κάλλιστα να είναι απλώς η αύξηση του ποσού του κεφαλαίου που πρέπει να διαθέτουν τα χρηματοπιστωτικά ιδρύματα όταν αυτά (ή οι ρυθμιστικές αρχές τους) χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης.
- Οι ρυθμιστικές αρχές θα μπορούσαν επίσης να απαιτήσουν όλα τα αποτελέσματα που δημιουργούνται από την τεχνητή νοημοσύνη να υποβάλλονται σε μια “δοκιμή sniff” από ένα πιο παλιομοδίτικο γραμμικό μοντέλο με μεγαλύτερη επεξήγηση. Οι εταιρείες θα μπορούσαν να αποθαρρυνθούν ή να αποκλειστούν από το να προβούν σε ενέργειες που δεν μπορούν να εξηγηθούν ευρέως από την άποψη των θεμελιωδών μεγεθών.
Η ουσία: Οι ρυθμιστικές αρχές μπορεί να είναι σε θέση να επιβραδύνουν τον ρυθμό αύξησης, αλλά είναι πολύ απίθανο να μπορέσουν να αποτρέψουν την αύξηση του συστημικού κινδύνου.
- Ο ίδιος ο Gensler είχε μια μακρά λίστα ρυθμιστικών προσεγγίσεων που θα βοηθούσαν, αλλά λέει πολύ ξεκάθαρα ότι ακόμη και συνολικά είναι «ανεπαρκείς για το έργο» που έχει.
Το αίνιγμα των δεδομένων
Η τεχνητή νοημοσύνη έχει μια «ακόρεστη ζήτηση για δεδομένα», σημείωσε ο Γκένσλερ στην εργασία του.
Γιατί έχει σημασία: Ο κίνδυνος είναι ότι τα μοντέλα τεχνητής νοημοσύνης θα συγκλίνουν αναπόφευκτα σε ένα σημείο στο οποίο μοιράζονται όλα το ίδιο τεράστιο σετ εκπαίδευσης ( Common Crawl , για παράδειγμα), συλλογικοποιώντας οποιεσδήποτε εγγενείς αδυναμίες μπορεί να έχει αυτό το σύνολο.
- «Τα μοντέλα που χτίζονται στα ίδια σύνολα δεδομένων είναι πιθανό να δημιουργήσουν εξαιρετικά συσχετισμένες προβλέψεις που προχωρούν σε κλειστό βήμα, προκαλώντας συνωστισμό και κοπάδια», έγραψε ο Gensler.
Μεταξύ των γραμμών: Η ζήτηση για τεράστιες πηγές δεδομένων τείνει να οδηγεί σε μονοπώλια.
- Ο Gensler σημείωσε ότι η Intercontinental Exchange ήρθε αθόρυβα να κυριαρχήσει στην επιχείρηση δεδομένων στεγαστικών δανείων, μέσω των εξαγορών των MERS, Ellie Mae και Simplifile.
- Αυτά τα μονοπώλια μπορούν στη συνέχεια να γίνουν «ενιαία σημεία αποτυχίας» που απειλούν ολόκληρο το δίκτυο – όπως η αποτυχία μιας ενιαίας μεσαίας επενδυτικής τράπεζας, της Lehman Brothers, προκάλεσε μια παγκόσμια οικονομική καταστροφή.
Πού βρίσκεται: Ακόμη και τα μεγαλύτερα σύνολα δεδομένων είναι επικίνδυνα ελλιπή. «Η χρήση του Διαδικτύου, τα φορητά δεδομένα, τα δεδομένα τηλεματικής και τα δεδομένα GPS και smartphone απλά δεν έχουν αρκετά μεγάλους χρονικούς ορίζοντες για να καλύψουν έστω και έναν, πλήρη οικονομικό κύκλο», σημείωσε ο Gensler.
- Αυτό μπορεί να έχει καταστροφικές συνέπειες — όπως είδαμεκατά τη διάρκεια της οικονομικής κρίσης.
- Ο κίνδυνος συνωστισμού είναι ήδη μαζί μας. “Υποτίθεται ότι το κοπάδι και ο συνωστισμός σε αλγοριθμικές συναλλαγές υψηλής συχνότητας είναι εν μέρει υπεύθυνοι για την πρόκληση φλας”, έγραψε ο Gensler. Καθώς αυτοί οι έμποροι μετακινούνται όλο και περισσότερο στην τεχνητή νοημοσύνη, αυτός ο κίνδυνος μπορεί μόνο να αυξηθεί.
- Οι εταιρείες στις αναπτυσσόμενες οικονομίες μπορεί να καταλήξουν να χρησιμοποιούν AI που δεν έχουν εκπαιδευτεί καθόλου σε εγχώρια δεδομένα, καθιστώντας τους κινδύνους ακόμα μεγαλύτερους.
Η ουσία: Οι AI δεν ξέρουν αυτό που δεν ξέρουν. Και αυτό μπορεί να είναι πολύ επικίνδυνο.
Πηγή: axios.com