
Ένα μοντέλο για τη ρύθμιση της τεχνητής νοημοσύνης
Η τεχνητή νοημοσύνη προχωρά τόσο γρήγορα που πολλοί που συμμετείχαν στην ανάπτυξή της είναι πλέον από τους πιο ομιλητικούς για την ανάγκη ρύθμισής της. Αν και η τεχνητή νοημοσύνη θα αποφέρει πολλά οφέλη, είναι επίσης δυνητικά επικίνδυνη. θα μπορούσε να χρησιμοποιηθεί για τη δημιουργία όπλων στον κυβερνοχώρο ή βιολογικών όπλων ή για την πραγματοποίηση μαζικών επιθέσεων παραπληροφόρησης. Και αν μια τεχνητή νοημοσύνη κλαπεί ή διαρρεύσει έστω και μία φορά, θα ήταν αδύνατο να αποτραπεί η εξάπλωσή της σε όλο τον κόσμο.
Αυτές οι ανησυχίες δεν είναι υποθετικές. Στην πραγματικότητα, μια τέτοια διαρροή έχει ήδη συμβεί. Τον Μάρτιο, ένα μοντέλο τεχνητής νοημοσύνης που αναπτύχθηκε από τη Meta με το όνομα LLaMA εμφανίστηκε στο διαδίκτυο. Το LLaMA δεν προοριζόταν να είναι δημόσια προσβάσιμο, αλλά το μοντέλο κοινοποιήθηκε σε ερευνητές τεχνητής νοημοσύνης, οι οποίοι στη συνέχεια ζήτησαν πλήρη πρόσβαση για να προωθήσουν τα δικά τους έργα. Τουλάχιστον δύο από αυτούς έκαναν κατάχρηση της εμπιστοσύνης του Meta και κυκλοφόρησαν το μοντέλο στο διαδίκτυο, και ο Meta δεν κατάφερε να αφαιρέσει το LLaMA από το διαδίκτυο. Το μοντέλο μπορεί ακόμα να είναι προσβάσιμο από οποιονδήποτε.
Ευτυχώς, το LLaMA είναι σχετικά ακίνδυνο.
Ενώ θα μπορούσε να χρησιμοποιηθεί για την έναρξη επιθέσεων spear-phishing (PDF), δεν υπάρχει ακόμη λόγος για μεγάλη ανησυχία. Η κλοπή ή η διαρροή πιο ικανών μοντέλων AI θα ήταν πολύ χειρότερη. Ωστόσο, οι κίνδυνοι μπορούν να μειωθούν σημαντικά με την αποτελεσματική εποπτεία τριών τμημάτων της αλυσίδας εφοδιασμού AI: υλικού, εκπαίδευσης και ανάπτυξης.
Το πρώτο είναι το υλικό. Η δημιουργία προηγμένων μοντέλων τεχνητής νοημοσύνης απαιτεί χιλιάδες εξειδικευμένα μικροτσίπ, που κοστίζουν δεκάδες ή και εκατοντάδες εκατομμύρια δολάρια. Μόνο λίγες εταιρείες —όπως η Nvidia και η AMD— σχεδιάζουν αυτά τα τσιπ και οι περισσότερες πωλούνται σε μεγάλους παρόχους υπολογιστών cloud, όπως η Amazon, η Microsoft και η Google, καθώς και η κυβέρνηση των ΗΠΑ, μερικές ξένες κυβερνήσεις και μόνο λίγες άλλες εταιρείες τεχνολογίας με βαθιά τσέπη. Επειδή η ομάδα των αγοραστών είναι τόσο μικρή, μια ομοσπονδιακή ρυθμιστική αρχή θα μπορούσε να παρακολουθεί και να αδειοδοτεί μεγάλες συγκεντρώσεις τσιπ τεχνητής νοημοσύνης. Και οι πάροχοι cloud, οι οποίοι κατέχουν τα μεγαλύτερα συμπλέγματα τσιπ AI, θα μπορούσαν να υπόκεινται σε απαιτήσεις “γνωρίστε τον πελάτη σας”, ώστε να εντοπίζουν πελάτες που πραγματοποιούν τεράστιες παραγγελίες ενοικίασης που σηματοδοτούν την κατασκευή ενός προηγμένου συστήματος AI.
Το επόμενο στάδιο της επίβλεψης της τεχνητής νοημοσύνης επικεντρώνεται στην εκπαίδευση κάθε μοντέλου. Ένας προγραμματιστής μπορεί -και πρέπει να απαιτείται- να αξιολογήσει τις επικίνδυνες δυνατότητες ενός μοντέλου κατά τη διάρκεια της εκπαίδευσης. Τα προβλήματα που εντοπίζονται έγκαιρα μπορούν να επιλυθούν πιο εύκολα, έτσι ώστε να μπορεί να κατασκευαστεί ένα ασφαλέστερο, λιγότερο ακριβό τελικό προϊόν σε λιγότερο χρόνο.
Μόλις ολοκληρωθεί η εκπαίδευση, ένα ισχυρό μοντέλο τεχνητής νοημοσύνης θα πρέπει να υπόκειται σε αυστηρή επανεξέταση από ρυθμιστή ή τρίτο αξιολογητή πριν κυκλοφορήσει στον κόσμο. Οι κόκκινες ομάδες ειδικών, που προσποιούνται ότι είναι κακόβουλοι αντίπαλοι, μπορούν να προσπαθήσουν να κάνουν το AI να εκτελεί ακούσιες συμπεριφορές, συμπεριλαμβανομένου του σχεδιασμού όπλων. Τα συστήματα που παρουσιάζουν επικίνδυνες δυνατότητες δεν θα πρέπει να απελευθερώνονται έως ότου εξασφαλιστεί η ασφάλεια.
Η ρύθμιση της τεχνητής νοημοσύνης βρίσκεται ήδη σε εξέλιξη στη Βρετανία, την Ευρωπαϊκή Ένωση και την Κίνα. Αλλά πολλά πρωτοποριακά μοντέλα – και τα περισσότερα από τα προηγμένα συστήματα AI που μας έχουν φέρει σε αυτή τη στιγμή – έχουν αναπτυχθεί στις Ηνωμένες Πολιτείες. Καλά θα κάναμε να δημιουργήσουμε ένα μοντέλο εποπτείας για τον κόσμο που θα εστιάζει στα τρία μέρη της εφοδιαστικής αλυσίδας της τεχνητής νοημοσύνης. Η αύξηση της ασφάλειας της αμερικανικής βιομηχανίας τεχνητής νοημοσύνης θα ενίσχυε την εμπιστοσύνη του κοινού σε μια εποχή που οι καταναλωτές είναι όλο και πιο επιφυλακτικοί για το τι είδους μελλοντική τεχνητή νοημοσύνη μπορεί να φέρει.
Ο Jason Matheny είναι πρόεδρος και διευθύνων σύμβουλος της RAND Corporation.
Αυτός ο σχολιασμός εμφανίστηκε αρχικά στην Washington Post στις 16 Αυγούστου 2023. Ο σχολιασμός δίνει στους ερευνητές της RAND μια πλατφόρμα για να μεταφέρουν πληροφορίες με βάση την επαγγελματική τους εμπειρία και συχνά την έρευνα και την ανάλυσή τους με ομοτίμους.
Πηγή: rand.org