
Ποιος θα παρακολουθεί τις οθόνες AI; Και τι πρέπει να προσέχουν;
Όπως γνωρίζουν όλοι οι καλοί επαγγελματίες της πολιτικής, όλες οι ρυθμιστικές δραστηριότητες περιορίζονται από το πρόβλημα του οργανισμού: Εκείνοι που ρυθμίζονται γνωρίζουν πολύ περισσότερα για το τι συμβαίνει από εκείνους που είναι επιφορτισμένοι με την επίβλεψη των δραστηριοτήτων τους.
Αλλά υπάρχουν ακόμη περισσότερα προβλήματα ασυμμετρίας πληροφοριών που σχετίζονται με τη ρύθμιση της τεχνητής νοημοσύνης, επειδή ακόμη και εκείνοι που βρίσκονται στο «εσωτερικό» εξακολουθούν να μαθαίνουν για τις δυνατότητες των νέων τεχνολογιών που αναπτύσσουν.
Οι τεχνολογίες τεχνητής νοημοσύνης, λόγω των ανθρώπινων και συνεχώς εξελισσόμενων χαρακτηριστικών τους, σε διαστάσεις για τις οποίες οι ανθρώπινοι προγραμματιστές τους δεν είναι απολύτως σίγουροι, έχουν τη δυνατότητα να δημιουργήσουν εντελώς απροσδόκητες «εκπλήξεις» – δηλαδή, τους πραγματικούς «μαύρους κύκνους» που ούτε καν η συνετή διαχείριση κινδύνου δεν μπορεί εύλογα να αναμένει να προβλέψει. Αυτό επικαλείται τη διορατική διάκριση του Frank Knight το 1921 μεταξύ κινδύνου – ο οποίος μπορεί να μετρηθεί και να ποσοτικοποιηθεί – και αβεβαιότητας, η οποία δεν μπορεί.
Η λήψη αποφάσεων κάτω από τέτοια ιπποτική αβεβαιότητα είναι τόσο τέχνη όσο και επιστήμη, βασιζόμενη σε διαισθητική κρίση και σιωπηρή γνώση που χτίστηκε μέσω εμπειρίας στην πλοήγηση σε πολύπλοκα, ασταθή περιβάλλοντα που συντίθενται με τις λίγες απτές πληροφορίες που είναι διαθέσιμες για να ενημερώσουν τη διαδικασία. Ο Knight είδε την επιχειρηματική κρίση ως μια σημαντική δεξιότητα στη λήψη τέτοιων αποφάσεων.
Η τεχνητή νοημοσύνη είναι μια τεχνολογία αιχμής που θα πρέπει να ρυθμίζεται ως τέτοια.
Η ΕΕ πρότεινε και τα 27 κράτη μέλη ενέκριναν πράξη για την τεχνητή νοημοσύνη που περιλαμβάνει 12 τίτλους, 85 άρθρα και 13 παραρτήματα (σε 272 σελίδες κειμένου) που ορίζουν τις απαιτήσεις για τους προγραμματιστές, τους εισαγωγείς, τους διανομείς και τους παρόχους εφαρμογών τεχνητής νοημοσύνης που χρησιμοποιούνται στην Ευρώπη. Ακόμη και αν μια τεχνητή νοημοσύνη αναπτυχθεί εκτός Ευρώπης, οι κανόνες αυτοί απαιτούν από τα μοντέλα να συμμορφώνονται με τη νομοθεσία της ΕΕ, η οποία θα τεθεί σε ισχύ δύο χρόνια μετά την επικύρωσή της – πιθανότατα το 2026 ή το 2027.
Στις ΗΠΑ, ο Λευκός Οίκος ανακοίνωσε ένα «Εκτελεστικό Διάταγμα για την ασφαλή, προστατευμένη και αξιόπιστη ανάπτυξη και χρήση της τεχνητής νοημοσύνης» στις 30 Οκτωβρίου 2023, περιγράφοντας τις υποχρεώσεις των ομοσπονδιακών οντοτήτων όσον αφορά την ανάπτυξη και τη χρήση της τεχνητής νοημοσύνης. Αυτό υποστηρίχθηκε από τη δημοσίευση, στις 28 Μαρτίου 2024, από το Γραφείο Διαχείρισης και Προϋπολογισμού (OMB) των επιχειρησιακών οδηγιών (κανόνων) που θα ισχύουν για τους οργανισμούς. Αυτό το πιο μετριοπαθές σύνολο κανόνων εξακολουθεί να ανέρχεται σε 34 σελίδες οδηγιών, γεγονός που αντικατοπτρίζει το γεγονός ότι λειτουργεί εντός ενός υφιστάμενου νομοθετικού πλαισίου για τις κυβερνητικές υπηρεσίες, ενώ ο νόμος της ΕΕ είναι ο μόνος που διέπει όλες τις δραστηριότητες τεχνητής νοημοσύνης.
Παρά τις πολύ διαφορετικές γενικές απαιτήσεις τους για τη διακυβέρνηση της ανάπτυξης εφαρμογών τεχνητής νοημοσύνης, και τα δύο σύνολα κανόνων ισχυρίζονται ότι έχουν τον κίνδυνο και τη διαχείριση κινδύνου στον πυρήνα τους. Ωστόσο, και οι δύο βασίζονται σε μια πολύ στενή έννοια του κινδύνου.
Υπάρχουν 767 περιπτώσεις «κινδύνου» στο τελικό κείμενο της ΕΕ και 101 αναφορές γι’ αυτό στην ΟΕ των ΗΠΑ. Και οι δύο ξεκινούν από την υπόθεση ότι οι προγραμματιστές και οι προγραμματιστές των AI έχουν σαφείς αντιλήψεις για τους κινδύνους που ενέχουν οι εφαρμογές και μπορούν να προσδιορίσουν με σιγουριά τις στρατηγικές διαχείρισης κινδύνου. Δεν γίνεται καμία απολύτως αναφορά στην αβεβαιότητα στον ΕΟ των ΗΠΑ και οι μόνες αναφορές σε αυτό στο ογκώδες κείμενο της ΕΕ σχετίζονται με τη νομική αβεβαιότητα (ασφάλεια δικαίου).
Ως εκ τούτου, και τα δύο σύνολα κανόνων επικεντρώνονται σε γραφειοκρατικές διαδικασίες διαχείρισης κινδύνων και λογοδοσίας. Και οι δύο απαιτούν από τους φορείς ανάπτυξης των σχετικών εφαρμογών τεχνητής νοημοσύνης να έχουν κατονομάσει και καταχωρίσει άτομα υπεύθυνα για τη λειτουργία τους, και αμφότερα απαιτούν εκτεταμένη (και ελεγμένη) τεκμηρίωση των σχεδίων διαχείρισης κινδύνου για τις εφαρμογές. Οι κανονιστικές απαιτήσεις είναι απτές και ποσοτικοποιήσιμες, παρόλο που τα αποτελέσματα των ΤΝ που διέπουν εξακολουθούν να ενσωματώνουν σημαντικές αβεβαιότητες.
Τόσο στην ΕΕ όσο και στις ΗΠΑ, ένας πραγματικός στρατός ειδικευμένων ανθρώπων θα πρέπει να παρακολουθεί και να υποβάλλει εκθέσεις σχετικά με τις δραστηριότητες τεχνητής νοημοσύνης. Για τον σκοπό αυτό έχει συσταθεί το Γραφείο Τεχνητής Νοημοσύνης της ΕΕ και κάθε κράτος μέλος θα χρειαστεί ένα γραφείο για την πιστοποίηση της ανάπτυξης της τεχνητής νοημοσύνης. Στις ΗΠΑ, το OMB θα κάνει τη δουλειά. Η ΕΕ προσλαμβάνει ήδη ενεργά για το Γραφείο Τεχνητής Νοημοσύνης. Στις ΗΠΑ, η Εθνική Ένωση Τηλεπικοινωνιών και Πληροφοριών έχει εντοπίσει έλλειψη ατόμων με τις απαιτούμενες δεξιότητες, καθώς αυτοί οι ίδιοι άνθρωποι έχουν επίσης μεγάλη ζήτηση μεταξύ των προγραμματιστών τεχνητής νοημοσύνης και των ρυθμιστικών αρχών. Προτείνουν κρατικές υποτροφίες, επιδοτήσεις και εκτεταμένη εσωτερική εκπαίδευση και κατάρτιση για να εξασφαλίσουν την ανάπτυξη του εργατικού δυναμικού.
Αλλά ποιες δεξιότητες πρέπει να απαιτούν αυτοί οι νέοι γραφειοκράτες; Είναι σαφές ότι όχι μόνο η γνώση του τρόπου λειτουργίας της τεχνητής νοημοσύνης και η πρακτική εφαρμογή της διαχείρισης κινδύνων, αλλά και η απαιτούμενη κατανόηση του τρόπου λειτουργίας των επιχειρήσεων, των τομέων και των βιομηχανιών στις οποίες αναπτύσσονται οι τεχνολογίες τεχνητής νοημοσύνης – δηλαδή, η επιχειρηματική γνώση και εμπειρία που ο Knight προέβλεψε ως απαραίτητες για τη λήψη ορθών αποφάσεων υπό την κατάσταση αβεβαιότητας.
Η επιτυχής ρύθμιση της τεχνητής νοημοσύνης – όπως και η ανάπτυξη και η εφαρμογή των ίδιων των AI – απαιτεί εργατικό δυναμικό με πολύ διαφορετικές δεξιότητες από εκείνες που απαιτούνται για τα περισσότερα ρυθμιστικά καθήκοντα στην πρόσφατη ιστορία. Μόνο αγκαλιάζοντας την τέχνη και την επιστήμη της λήψης αποφάσεων υπό συνθήκες αβεβαιότητας μπορούμε πραγματικά να αξιοποιήσουμε τις δυνατότητες της τεχνητής νοημοσύνης, μετριάζοντας παράλληλα τους κινδύνους της και προετοιμάζοντας τις εκπλήξεις της.
Πηγή: aei.org