Πώς πρέπει να ρυθμίζουμε την τεχνητή νοημοσύνη χωρίς να την στραγγαλίζουμε;

Του Τζέιμς Πεθοκούκης

«Οι Ιδρυτές είχαν τα μάτια τους στο μέλλον. Έχουμε το δικό μας στο παρελθόν, όταν δεν αποτρέπεται απολύτως από ντροπή. Τείνουμε να σκεφτόμαστε λιγότερο το πού πάμε παρά το πού ήμασταν, για  απλούστερους καιρούς και τις ευκαιρίες που χάθηκαν». – Michael Kammen,  People of Paradox: An Inquiry Concerning the Origins of American Civilization

 
Υπάρχουν τόσα πολλά που δεν καταλαβαίνουμε ακόμη σχετικά με την τεχνητή νοημοσύνη, γεγονός που καθιστά δύσκολη τη χάραξη πολιτικής. Μπορούμε, ωστόσο, να μάθουμε από τα λάθη του παρελθόντος. Η πυρηνική ενέργεια, η στέγαση και το φυσικό περιβάλλον μπορεί να φαίνονταν ως οι «ασφαλείς» επιλογές εκείνη την εποχή… μόνο που οδηγούσαν σε συμφόρηση καινοτομίας και απρόβλεπτα προβλήματα στη γραμμή. Στο μέλλον, μπορεί να μάθουμε ότι η λήψη της «ασφαλούς» οδού για την πολιτική τεχνητής νοημοσύνης είχε επικίνδυνες επιπτώσεις. Κάθισα με  τον Dean Ball  για να μιλήσω για την πολιτική έξυπνης τεχνητής νοημοσύνης – συμπεριλαμβανομένων των υπαρξιακών κινδύνων, των μελλοντικών δυνατοτήτων τεχνητής νοημοσύνης, της προληπτικής έναντι της αντιδραστικής ρύθμισης, των αποκλίνων ρυθμιστικών προσεγγίσεων του κράτους και του κατάλληλου ομοσπονδιακού ρόλου στην πολιτική τεχνητής νοημοσύνης.

Ο Ball είναι ερευνητής στο Mercatus Center του Πανεπιστημίου George Mason, όπου η έρευνά του επικεντρώνεται στην τεχνητή νοημοσύνη, τις αναδυόμενες τεχνολογίες και την κυβέρνηση. Τρέχει επίσης το δικό του Substack, Hyperdimensional. Για περισσότερες πληροφορίες σχετικά με την άποψη του Ball σχετικά με το πώς οι νομοθέτες πρέπει να προσεγγίσουν την τεχνητή νοημοσύνη, δείτε το άρθρο του, “What Good AI Policy Looks Like”.

 

 

Τζέιμς Πεθοκούκης: Σε ποιο βαθμό οι ανησυχίες για τον υπαρξιακό κίνδυνο εξακολουθούν να επηρεάζουν τους διαμορφωτές πολιτικής καθώς αρχίζουν να σκέφτονται τη ρύθμιση;

Dean Ball: Σκέφτομαι όλο και λιγότερο με τον καιρό. Νομίζω ότι όταν το ChatGPT και άλλες παραγωγικές εφαρμογές τεχνητής νοημοσύνης κυκλοφόρησαν για πρώτη φορά το 2022, αυτό ήταν πολύ σημαντικό και νομίζω ότι με την πάροδο του χρόνου μειώθηκε καθώς οι άνθρωποι απέκτησαν περισσότερη εμπειρία με την τεχνολογία και καθώς μια ευρύτερη ποικιλία φωνών εισήλθε στο συνομιλία.

Ένα από τα ενδιαφέροντα πράγματα σχετικά με την τεχνητή νοημοσύνη είναι ότι μου φαίνεται ότι – ίσως με εξαίρεση τα πυρηνικά όπλα – είναι η πρώτη σημαντική τεχνολογία για την οποία οι άνθρωποι ανησυχούν και ανησυχούν από πρίν  γίνει πραγματικά αληθινή. Και αυτό είναι στην πραγματικότητα μέρος του προβλήματος εκεί με τη συζήτηση για τον υπαρξιακό κίνδυνο. Πολλοί από τους ανθρώπους που διατύπωσαν θεωρίες σχετικά με αυτά τα πράγματα, άνθρωποι όπως  ο Eliezer Yudkowsky , η κοινότητα των ορθολογιστών του East Bay, από όπου προέρχονται αυτές οι ανησυχίες, θεωρητικοποιούσαν αυτά τα πράγματα πολύ πριν από την επανάσταση βαθιάς μάθησης του 2012. Μιλούσαν για αυτό πράγματα στις αρχές της δεκαετίας του 2000, και αυτό που πραγματικά φαντάζονταν ήταν αυτές οι αφηρημένες μηχανές που υπήρχαν σε ένα βασίλειο της καθαρής λογικής. Μία από τις διάσημες προβλέψεις του Eliezer είναι ένα σύστημα που δεν θα μπορούσε να έχει βιώσει καμία πτυχή του πραγματικού κόσμου και στη συνέχεια να δει τρία πλαίσια ενός μήλου να πέφτει από ένα δέντρο και από αυτό να προβλέπει όχι μόνο τη βαρύτητα, αλλά και τη σχετικότητα. Αυτό δεν μοιάζει καθόλου με τα γλωσσικά μοντέλα που έχουμε τώρα. … Πολλές από αυτές τις ανησυχίες για τον υπαρξιακό κίνδυνο σκέφτηκαν την ιδέα ενός συστήματος που ήταν μια καθαρή μηχανή συλλογιστικής χωρίς ανθρώπινες προτεραιότητες, απαραίτητα. Θα συναγάγει τα πάντα από τις πρώτες αρχές με έναν εξαιρετικά έξυπνο τρόπο. Αντίθετα, παίρνει όλες τις πρώτες μας αρχές, επειδή το εμποτίζουμε με τις αξίες μας μέσω όλων των κειμένων που έχουν γράψει ποτέ οι άνθρωποι.

Δεν υπάρχει σαφής τεχνική διαδρομή για τα είδη των δυνατοτήτων που έχουν αρθρώσει οι θεωρητικοί του υπαρξιακού κινδύνου.

Οι ανησυχίες σχετικά με τον υπαρξιακό κίνδυνο, όπως το να γίνει η τεχνητή νοημοσύνη ανεξέλεγκτη και να προκαλέσει καταστροφική βλάβη, παραμένουν πιο συναφείς για τα πιο πρόσφατα μοντέλα τεχνητής νοημοσύνης «συνοριακής»; Η ανησυχία, όπως βλέπω, είναι ότι ακόμα κι αν τα τρέχοντα συστήματα αιχμής φαίνονται ασφαλή, ένα μοντέλο αιχμής που δεν καταλαβαίνουμε πλήρως θα μπορούσε να αποκτήσει αυτογνωσία, να διαδοθεί μέσω του Διαδικτύου και να προκαλέσει τον όλεθρο σε κρίσιμες υποδομή ή κάτι τέτοιο. Εάν αυτές οι ανησυχίες δεν ισχύουν ακόμη και για τα μοντέλα συνόρων, γιατί εξακολουθεί να υπάρχει τόσο μεγάλη ανησυχία για αυτά;

Δεν υπάρχει σαφής τεχνική διαδρομή για τα είδη των δυνατοτήτων που έχουν αρθρώσει οι θεωρητικοί του υπαρξιακού κινδύνου. Πολλά από τα χαρακτηριστικά που θα είχε ένα τέτοιο σύστημα δεν είναι απλώς τα χαρακτηριστικά των σημερινών γλωσσικών μοντέλων. Δεν είναι προφανές, μόνο από την εξέταση της τεχνικής αρχιτεκτονικής αυτών των πραγμάτων, πώς θα φτάναμε από εδώ ως εκεί σε αυτήν την προσέγγιση. Μπορεί να υπάρξουν άλλες προσεγγίσεις που θα ακολουθήσουμε στο μέλλον, οι οποίες μοιάζουν περισσότερο με τη δημιουργία σε κάτι που έχει τη δική του αίσθηση αυτενέργειας και οτιδήποτε άλλο, αλλά δεν το βλέπω πραγματικά ως κίνδυνο που … δεν είναι ένας κίνδυνος που είναι κυρίαρχος για μένα.

Τώρα, υπάρχουν άλλοι κίνδυνοι που θα μπορούσαν να παρουσιάσουν τα μοντέλα στα σύνορα; Η επόμενη γενιά μοντέλων θα έχει πιθανώς  δυνατότητες  agentic. Επομένως, αντί να ρωτάτε απλώς το ChatGPT, «Πες μου για τη φυσική των σωματιδίων» ή κάτι τέτοιο, αυτό που μπορείς να κάνεις είναι να πεις, «θέλω να πάτε να ερευνήσετε μια εργασία» με τον τρόπο που θα μπορούσατε να της πείτε σαν  βοηθός ερευνητής , και θα βγει στο Διαδίκτυο και μπορεί να συμπληρώσει κάποιες φόρμες και να κατεβάσει αρχεία PDF και να τα αναλύσει και να πάρει αποφάσεις με πρακτορείο.

Ο πυρήνας αυτής της λέξης είναι «πράκτορας», σωστά;

Πράκτορας, ναι. Είσαι ο εντολέας και είναι ο πράκτορας, έτσι ακριβώς. Νομίζω ότι θα μπορέσουν να λειτουργήσουν ως βοηθοί με αυτόν τον τρόπο. Νομίζω ότι θα κάνουμε παιδικά βήματα. Νομίζω ότι δεν πρόκειται να κάνουν πολύ περίπλοκα πράγματα στην αρχή, αλλά νομίζω ότι θα αρχίσουμε να βλέπουμε—έχουμε ήδη δει μερικά από αυτά—νομίζω ότι θα δούμε περισσότερες τέτοιες δυνατότητες να κυκλοφορούν.

Ποια είναι η δυναμική όταν εκατομμύρια ή δισεκατομμύρια άνθρωποι έχουν πρόσβαση σε αυτό το είδος ικανότητας, σε έναν πράκτορα AI που μπορεί πραγματικά να βγει στο Διαδίκτυο και να αναλάβει δράση για εσάς; Λοιπόν, τελικά οι πράκτορες της τεχνητής νοημοσύνης αλληλεπιδρούν μεταξύ τους και υπάρχουν κάθε είδους παράξενες δυναμικές που μπορείτε να σκεφτείτε να προκύψουν από αυτό. Δεν θα κατηγοριοποιούσα κανέναν από αυτούς ως υπαρξιακούς κινδύνους, απαραίτητα, αλλά είναι πράγματα που πιστεύω ότι αξίζει να εξεταστούν. Δεν ξέρω πραγματικά πόσα από πολιτική άποψη μπορούμε να κάνουμε γι’ αυτό αυτή τη στιγμή, γιατί νομίζω ότι είναι λίγο δύσκολο να πούμε τι θα συμβεί. Αλλά νομίζω ότι θα υπάρξουν κάθε είδους μηχανισμοί διακυβέρνησης που θα τεθούν σε εφαρμογή καθώς αυτό θα απογειωθεί. Αλλά όχι, από την άποψη του υπαρξιακού κινδύνου, απλώς δεν βλέπω μια ξεκάθαρη τεχνική διαδρομή.

Υπάρχουν τεχνολόγοι που πιστεύουν ότι υπάρχει ένα ρεαλιστικό μονοπάτι μέσω του οποίου η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει υπαρξιακή απειλή, και οι οποίοι, ως εκ τούτου, αναφέρονται από εκείνους που πιέζουν για επείγουσα ρύθμιση της τεχνητής νοημοσύνης;

Ναι,  ο Geoffrey Hinton  θα ήταν ένα εξαιρετικό παράδειγμα, ένας από τους ιδρυτές της επανάστασης της βαθιάς μάθησης.  Ο Yoshua Bengio  είναι ένα άλλο παράδειγμα αυτού. Το κάνουν. Αυτήν την άποψη έχουν. Πολλές άλλες εξέχουσες προσωπικότητες της επιστημονικής κοινότητας δεν το κάνουν. Νομίζω ειλικρινά, η επιστημονική συναίνεση είναι πιθανώς περισσότερο υπέρ των ανθρώπων που δεν βλέπουν πραγματικά αυτό το μονοπάτι να έρχεται. Σε επίπεδο τεχνολογίας, σίγουρα εταιρείες όπως  η OpenAI ,  η Anthropic , οι ηγέτες αυτών των εταιρειών έχουν πει πράγματα στο παρελθόν για τον υπαρξιακό κίνδυνο. Νομίζω ότι το παίρνουν στα σοβαρά. Νομίζω ότι πρέπει.

Νομίζω όντως ότι σε κάποιο βαθμό υπήρξε μια προσφορά για ρύθμιση που θα εδραίωσε κάπως τις δικές τους θέσεις.

Πρέπει να δώσουμε ιδιαίτερη πίστη στους τεχνολόγους που προβλέπουν ότι τα μελλοντικά συστήματα τεχνητής νοημοσύνης, τα οποία δεν υπάρχουν ακόμη, θα μπορούσαν να αποτελέσουν υπαρξιακό κίνδυνο; Ενώ οι εικασίες τους μπορεί να είναι πιο ενημερωμένες από αυτές του μέσου ανθρώπου, εξακολουθούν να κάνουν τελικά προβλέψεις σχετικά με τις δυνατότητες των τεχνολογιών που δεν έχουν αναπτυχθεί.

Ήταν περίπου πριν από ένα χρόνο τώρα που  ο Sam Altman  και  ο Dario Amodei  από το Anthropic και μερικά άλλα άτομα κατέθεσαν ενώπιον της Γερουσίας, και υποστήριξαν ορισμένες από αυτές τις ανησυχίες. Νομίζω ότι τους ακούς να μιλάνε λιγότερο για αυτό τώρα. Νομίζω όντως ότι σε κάποιο βαθμό υπήρξε μια προσφορά για ρύθμιση που θα εδραίωσε κάπως τις δικές τους θέσεις. Πολύ ασαφές πώς θα μοιάζει το μακροπρόθεσμο επιχειρηματικό μοντέλο για αυτούς τους κατασκευαστές μοντέλων. Θα είναι μια άκρως ανταγωνιστική επιχείρηση όπου όλα τα περιθώρια κέρδους απλώς ανταγωνίζονται; Αυτό θα μπορούσε να συμβεί. Αυτό συμβαίνει πολύ στο λογισμικό.

Οι εταιρείες τεχνητής νοημοσύνης πιέζουν για ρύθμιση το πράττουν καθαρά από προσωπικό συμφέρον ή υπάρχει επίσης πραγματική ανησυχία που τους παρακινεί; Η θεωρία είναι ότι “μιλούν για το δικό τους βιβλίο” – επηρεάζουν τους κανονισμούς για να ωφεληθούν οι ίδιοι και να θέσουν σε μειονεκτική θέση τους μικρότερους ανταγωνιστές που δεν μπορούν να χειριστούν το κόστος συμμόρφωσης. Ενώ η σύλληψη ρυθμιστικών αρχών όπως αυτή είναι συνηθισμένη, αισθάνεστε ότι υπάρχει επίσης κάποια θεμιτή ανησυχία πίσω από την ώθησή τους για ρύθμιση της τεχνητής νοημοσύνης, αντί να καθοδηγείται εξ ολοκλήρου από αντιανταγωνιστική στρατηγική;

Νομίζω ότι υπάρχει ένα μείγμα. Νομίζω ότι μέρος αυτού είναι ότι πολλοί άνθρωποι μέσα σε αυτές τις εταιρείες προέρχονται από αυτές τις κοινότητες υπαρξιακού κινδύνου για τις οποίες μίλησα. Και έτσι, αν είστε ο Sam Altman, αυτό είναι ένα είδος εσωτερικού ενδιαφερόμενου μέρους, ας πούμε έτσι, για το οποίο πρέπει να ανησυχείτε. Αλλά, ναι, παίρνουν ρίσκα στα σοβαρά και κάνουν πολλές εργασίες ασφαλείας σε αυτά τα μοντέλα, και νομίζω ότι πρέπει οπωσδήποτε. Στο τέλος της ημέρας, η αλήθεια είναι ότι αυτή είναι πολύ ισχυρή τεχνολογία. Δεν έχει ξαναγίνει. Νομίζω ότι αξίζει απολύτως το ρίσκο. Ο κίνδυνος, νομίζω, ειδικά από την υπαρξιακή πλευρά, είναι αρκετά μικρός, και νομίζω ότι το πιθανό όφελος, το μέλλον επιστημονικής φαντασίας για το οποίο μιλάτε, δεν φτάνουμε εκεί χωρίς αυτήν την τεχνολογία.

Μια θεωρία που μου έχει προταθεί είναι ότι η πιο υπέρ της καινοτομίας προσέγγιση για την τεχνητή νοημοσύνη  δεν είναι  μια χαλαρή, άναρχη στρατηγική «αφήστε χίλια μοντέλα να ανθίσουν», αλλά μάλλον προσεκτικά μελετημένη ρύθμιση και προστατευτικά κιγκλιδώματα που έχουν τεθεί σε εφαρμογή τώρα. Η ιδέα είναι ότι εάν η τεχνητή νοημοσύνη καταλήξει να προκαλέσει βλάβη, θα υπάρξει μια βιαστική, βαριά ρυθμιστική απάντηση. Για να αποφευχθεί αυτό το σενάριο που πνίγει την καινοτομία, οι υποστηρικτές αυτής της άποψης λένε ότι πρέπει να εφαρμόσουμε προληπτικά καλοσχεδιασμένους κανονισμούς. Με άλλα λόγια, η έξυπνη ρύθμιση τώρα είναι στην πραγματικότητα ο δρόμος υπέρ της καινοτομίας, αντί να αφήνει την τεχνητή νοημοσύνη ανεξέλεγκτη. Θεωρείτε επιτακτικό αυτό το επιχείρημα;

Ακούω σίγουρα αυτό το επιχείρημα, και έχει μια διαισθητική έκκληση. Νομίζω ότι το πρόβλημα με αυτό, που είναι πάντα το πρόβλημα με τη ρύθμιση, είναι τι είναι αυτό; Ποιος είναι αυτός ο νόμος; Πώς μοιάζει αυτό; Νομίζω ότι αν μπορούσαμε να προσδιορίσουμε τον νόμο που θα μας επέτρεπε να πάρουμε όλα τα καλά πράγματα και να ελαχιστοποιήσουμε όλες τις βλάβες, αν μπορούσαμε να  πούμε εκ των προτέρων  τι είναι αυτό, θα το κάναμε, αλλά δεν ξέρουμε.

Νομίζω ότι πολλοί από τους ανθρώπους που υποστηρίζουν τη ρύθμιση της ασφάλειας αυτή τη στιγμή, είναι πολύ δύσπιστοι για τις διαδικασίες της αγοράς. Μιλούν για αυτές τις δυναμικές αγώνων που καθοδηγούνται από την αγορά, όπου κανείς δεν ενδιαφέρεται για την ασφάλεια. Νομίζω ότι πρόκειται για μια βιομηχανία που κινείται γρήγορα, αλλά στην πραγματικότητα δεν βλέπω πολλούς ανθρώπους στον κόσμο της τεχνητής νοημοσύνης να λένε: «Δεν με νοιάζει η ασφάλεια».

Είστε δύσπιστοι σχετικά με την ικανότητά μας να ρυθμίζουμε αποτελεσματικά προηγμένα συστήματα τεχνητής νοημοσύνης που δεν υπάρχουν ακόμη, όπως οι μελλοντικές εκδόσεις του ChatGPT. Δεδομένης της ιστορικής πορείας του αγώνα για τη σωστή ρύθμιση ακόμη και των καλώς κατανοητών τεχνολογιών, αμφιβάλλω επίσης ότι έχουμε την ικανότητα να δημιουργήσουμε κατάλληλους κανονισμούς για εξαιρετικά εξελιγμένη, μη ανεπτυγμένη ακόμη τεχνητή νοημοσύνη με βάση κερδοσκοπικές ανησυχίες. Η προσπάθεια ρύθμισης αυτών των υποθετικών μελλοντικών συστημάτων φαίνεται σαν υπερβολή.

Συμφωνώ απόλυτα με αυτό. Πιστεύω επίσης ότι κάτι που οι άνθρωποι υποτιμούν είναι το γεγονός ότι η ασφάλεια και η καινοτομία είναι εγγενώς συνδεδεμένες ιδιότητες στην τεχνολογία. Υπάρχουν παραδείγματα τεχνολογίας που πηγαίνει στραβά και ατυχημάτων που συμβαίνουν με την τεχνολογία; Φυσικά, αυτή είναι η φύση της λειτουργίας στα σύνορα. Όμως, κατά γενικό κανόνα, μια εταιρεία αεροπλάνων,  η Boeing , για παράδειγμα, είχε πρόσφατα προβλήματα ασφάλειας, αλλά σε μια εταιρεία αεροπλάνων που λειτουργεί καλά, η ασφάλεια είναι καλά ενσωματωμένη στη διαδικασία σχεδιασμού του προϊόντος. Το iPhone είναι ένα ηλεκτρικό προϊόν που θα μπορούσε να εκραγεί και η Apple δεν χρειάζεται έναν ρυθμιστή που να επιβλέπει το ηλεκτρικό κύκλωμα του iPhone για να το κατασκευάσει έτσι ώστε να μην σας προκαλέσει ηλεκτροπληξία ή κάτι τέτοιο. Αντίθετα, αυτό είναι απλώς ενσωματωμένο σε μεγάλο βαθμό στη διαδικασία μηχανικής της Apple, επειδή η καλή μηχανική είναι ασφαλής μηχανική.

Πιστεύω λοιπόν ότι αυτό θα συμβεί και με τα γλωσσικά μοντέλα, όπου αυτές οι εταιρείες θα κάνουν πολλή δουλειά. Θα δοθούν κίνητρα για να κάνουν αυτό το έργο ασφάλειας από τους μετόχους τους, από την αγορά. Και νομίζω ότι πολλοί από τους ανθρώπους που υποστηρίζουν τη ρύθμιση της ασφάλειας αυτή τη στιγμή, είναι πολύ δύσπιστοι για τις διαδικασίες της αγοράς. Μιλούν για αυτές τις δυναμικές αγώνων που καθοδηγούνται από την αγορά, όπου κανείς δεν ενδιαφέρεται για την ασφάλεια. Νομίζω ότι πρόκειται για μια βιομηχανία που κινείται γρήγορα, αλλά στην πραγματικότητα δεν βλέπω πολλούς ανθρώπους στον κόσμο της τεχνητής νοημοσύνης να λένε: «Δεν με νοιάζει η ασφάλεια». Αντίθετα, ως κάποιος που διαβάζει λογοτεχνία μηχανικής εκμάθησης κάθε μέρα, όταν βγαίνει ένα νέο μοντέλο, συνήθως το ήμισυ της τεχνικής έκθεσης αφιερώνεται σε όλα τα μέτρα ασφαλείας που έλαβε. Οπότε νομίζω ότι το βλέπει ήδη αυτό.

Είναι εκπληκτικό, τουλάχιστον για μένα, πόσους καλοπροαίρετους κανονισμούς αναγνωρίζουμε πλέον ως επιβλαβείς. Οι νόμοι για τις ζώνες έχουν καταστήσει δύσκολη την οικοδόμηση κατοικιών σε πόλεις υψηλής ζήτησης, παρά την ανάγκη για περισσότερες κατοικίες. Οι πυρηνικοί κανονισμοί και οι περιβαλλοντικοί νόμοι, όπως ο νόμος για την Εθνική Περιβαλλοντική Πολιτική, που αποσκοπούν στην προστασία της ποιότητας του αέρα και του νερού, παρεμπόδισαν ακούσια την ανάπτυξη καθαρής ενέργειας όταν τη χρειαζόμαστε περισσότερο. Αυτά τα παραδείγματα υπογραμμίζουν πώς οι κανονισμοί μπορούν να έχουν σοβαρές ανεπιθύμητες συνέπειες που δεν είχαν προβλεφθεί από τους δημιουργούς τους. Παρά αυτές τις προειδοποιητικές ιστορίες, πολλές από τις οποίες είναι επί του παρόντος στις ειδήσεις, όσοι πιέζουν για ρύθμιση της τεχνητής νοημοσύνης δεν φαίνεται να έχουν διδαχθεί από λάθη του παρελθόντος. Δεν αναγνωρίζουν ότι οι καλές τους προθέσεις θα μπορούσαν να οδηγήσουν σε αρνητικά αποτελέσματα όταν ρυθμίζουν μια ταχέως εξελισσόμενη τεχνολογία. Επίσης, δεν μαθαίνουμε από την ελαφριά προσέγγιση που υιοθετήθηκε με το Διαδίκτυο, η οποία του επέτρεψε να ανθίσει. Αντίθετα, υπάρχει έλλειψη ταπεινοφροσύνης και μια στάση με πλήρη ταχύτητα απέναντι στη ρύθμιση της τεχνητής νοημοσύνης που θεωρώ ανησυχητική.

Δεν θα μπορούσα να συμφωνήσω περισσότερο. Νομίζω ότι τα πυρηνικά είναι ένας παραλληλισμός. Το σκέφτομαι σχεδόν κάθε μέρα και πώς να αποφύγω αυτούς τους κινδύνους. Υπάρχει μια βαθιά σαιξπηρική σχέση μεταξύ των αγωνιών και των φιλοδοξιών των ανθρώπων και της δημόσιας πολιτικής. Συνήθως, όταν αυτά τα πράγματα μπαίνουν στη δημόσια πολιτική, συμβαίνει κατά κάποιο τρόπο το αντίθετο από αυτό που θέλουν, έτσι πράγματα που έχουν σκοπό να βοηθήσουν τους φτωχούς καταλήγουν να κάνουν τους ανθρώπους φτωχότερους.

Η δική μου εκδοχή, επειδή δεν είμαι τόσο πολυμαθής όσο εσύ, θα ήταν η εκπομπή  Game of Thrones , όπου ο καθένας παίρνει αυτό που θέλει με τον χειρότερο δυνατό τρόπο. Τώρα πείτε μου, τι νόημα είχε αυτός ο  νόμος για την τεχνητή νοημοσύνη της Καλιφόρνια ; Τι προσπαθούν να κάνουν εκεί έξω;

Ο νόμος της Καλιφόρνια για την τεχνητή νοημοσύνη,  SB 1047  από  τον γερουσιαστή Scott Wiener  είναι πολύ στο πνεύμα αυτού που περιγράψατε. Ο Scott Wiener, νομίζω, επηρεάστηκε αρκετά από την κοινότητα του υπαρξιακού κινδύνου. Είναι γερουσιαστής της περιοχής του Σαν Φρανσίσκο. Έτσι, η ορθολογιστική κοινότητα του East Bay, του San Francisco Bay είναι ακριβώς εκεί, είναι ο διπλανός γείτονας. Έτσι, ανησυχούσε πολύ για αυτό, για τον υπαρξιακό κίνδυνο, και δημιούργησε ένα νομοσχέδιο που νομίζω ότι γράφτηκε σε μεγάλο βαθμό από μη κερδοσκοπικούς οργανισμούς που εστιάζουν στην τεχνητή νοημοσύνη ή σε στενή συνεργασία, ας πούμε. Βασικά, το νομοσχέδιο δημιουργεί έναν κεντρικό ρυθμιστή και εφαρμόζει την αρχή της προφύλαξης στην τεχνητή νοημοσύνη, η οποία είναι ακριβώς αυτό που δεν θέλετε να κάνετε εάν προσπαθείτε να μην κάνετε επιζήμιους κανονισμούς,

Το βάρος είναι σε εσάς να αποδείξετε ότι δεν θα κάνει κακό.

Πρέπει να υποβάλετε μια επιστολή, υπό την ποινή της ψευδορκίας στην κυβέρνηση της Καλιφόρνια, λέγοντάς της, «το μοντέλο μου είναι ασφαλές». Και τότε, αν κάποιος χρησιμοποιεί το μοντέλο σας — όχι εσείς, ούτε κάποιος υπό τον έλεγχό σας — αλλά εάν κάποιος άλλος χρησιμοποιεί το μοντέλο σας για να κάνει κάτι πολύ επικίνδυνο, τότε είστε αστικώς, και ενδεχομένως ποινικά, υπεύθυνοι για τη χρήση του προϊόντος σας από κάποιον άλλο. Επομένως, ισοδυναμεί με το να λέω ότι εάν στείλω ένα απειλητικό email σε κάποιον στο iPhone μου, ότι η Apple είναι υπεύθυνη για την παρενόχληση αυτού του ατόμου, κάτι που δεν είναι ο τρόπος με τον οποίο λειτουργεί η ευθύνη σε αυτήν τη χώρα ή οπουδήποτε, από όσο γνωρίζω.

Ο ανοιχτός κώδικας ήταν ένα πολύ σημαντικό μέρος, όχι μόνο της αμερικανικής οικονομικής ανταγωνιστικότητας, αλλά και της αμερικανικής ήπιας δύναμης.

Και πιστεύετε ότι αυτό θα έβλαπτε τον ρυθμό προόδου. Επομένως, έχω δύο ερωτήσεις. Πρώτον, πιστεύετε ότι θα επιβραδύνει την καινοτομία και πώς θα επηρεάσει αυτά τα μοντέλα ανοιχτού κώδικα;

Τα μοντέλα ανοιχτού κώδικα, απλώς για να κάνουμε ένα βήμα πίσω, είναι μοντέλα όπου τα βάρη – που είναι βασικά το μεγάλο σύνολο αριθμών που καθορίζουν την απόδοση και τη συμπεριφορά του μοντέλου, και βασικά είναι το μοντέλο, είναι ένα υπολογιστικό φύλλο γεμάτο αριθμούς – όπου δημοσιεύονται αυτοί οι αριθμοί στο κοινό δωρεάν. Αυτό είναι που ονομάζεται «ανοιχτό βάρος». Είναι το είδος του παραλληλισμού του λογισμικού ανοιχτού κώδικα, που είναι το ίδιο πράγμα. Αποκομίζουμε πολλά οικονομικά και επιστημονικά οφέλη από αυτό. Οι ερευνητές μπορούν να ερευνήσουν τα μοντέλα για να εξετάσουν την ασφάλεια, για να προσπαθήσουν να ερμηνεύσουν τι συμβαίνει μέσα τους. Οι επιχειρήσεις μπορούν να τα χρησιμοποιήσουν με πιο ευέλικτους τρόπους από ό,τι μπορούν με τα κλειστά μοντέλα.

Έτσι, ο ανοιχτός κώδικας ήταν ένα πολύ σημαντικό μέρος, όχι μόνο της αμερικανικής οικονομικής ανταγωνιστικότητας, αλλά και της αμερικανικής ήπιας δύναμης. Η μοναδική δυτική πλατφόρμα που οι Κινέζοι δεν μπορούν να απαγορεύσουν: δεν είναι το Facebook, δεν είναι το Twitter, είναι  το GitHub . Το GitHub είναι η πλατφόρμα που ανήκει στη Microsoft όπου ζει όλο το λογισμικό ανοιχτού κώδικα. Και έτσι νομίζω ότι οι άνθρωποι βλέπουν αυτά τα ανοιχτά βάρη, επειδή ο καθένας μπορεί να έχει πρόσβαση σε αυτά και ο καθένας μπορεί να τα τροποποιήσει, το βλέπουν ως ανησυχία για την ασφάλεια. Οι άνθρωποι το βλέπουν ως έναν από τους κύριους κινδύνους. Αυτό το νομοσχέδιο ουσιαστικά, επιβάλλοντας την ευθύνη και την αρχή της προφύλαξης, θα καθιστούσε ουσιαστικά παράνομα τα μοντέλα ανοιχτού βάρους στο μέλλον.

Θα ήταν όλα εκείνα τα μοντέλα ή απλώς αυτά που κατά κάποιο τρόπο θα θεωρούσαν ως αιχμής;

Αυτά που θα θεωρούσαν ως σύνορα, τα οποία ορίζονται βασικά σε ένα ορισμένο επίπεδο ικανότητας. Επομένως, θα είναι ουσιαστικά αδύνατο να λειτουργήσουν ανοιχτού κώδικα, κάτι που θα ήταν πραγματική απώλεια. Το άλλο πράγμα, ως παράλληλο, που κάνει το SB 1047, είναι ότι, νομίζω ότι παράλληλα με την πυρηνική ενέργεια, δημιουργεί μια ρυθμιστική αρχή στην Καλιφόρνια που χρηματοδοτείται ακριβώς όπως η  Ρυθμιστική Επιτροπή Πυρηνικών . Άρα η Ρυθμιστική Επιτροπή Πυρηνικών, οι πυρηνικοί σταθμοί πληρώνουν για τη ρύθμισή τους. Πληρώνουν ωριαία. Το Frontier Model Division στην Καλιφόρνια, οι εταιρείες τεχνητής νοημοσύνης πληρώνουν για τη ρύθμισή τους, και αυτό είναι ακριβώς σαν ένας τεράστιος εφιάλτης από μια σειρά από προοπτικές πολιτικής οικονομίας.

Νομίζω ότι σε έναν ιδανικό κόσμο θα υπήρχε ομοσπονδιακή προκοπή και κάποιοι βασικοί ομοσπονδιακοί κανόνες για τα περισσότερα πράγματα

Η άποψή σας είναι ότι το μοντέλο, ειδικά στην Καλιφόρνια, θα επιβραδύνει την πρόοδο που βλέπουμε στην AI. Έχετε επίσης γράψει για το τι κάνουν στο Κονέκτικατ, το οποίο ίσως δεν είναι τέλειο, αλλά μια καλύτερη προσέγγιση. Πείτε μου σε τι διαφέρει αυτή η προσέγγιση και, στη συνέχεια, πείτε μου αν τα κράτη θα έπρεπε καν να το κάνουν αυτό;

Νομίζω ότι σε έναν ιδανικό κόσμο θα υπήρχε ομοσπονδιακή προκοπή και κάποιοι βασικοί ομοσπονδιακοί κανόνες για τα περισσότερα πράγματα. Υπάρχει σίγουρα ένας ρόλος για την κρατική κυβέρνηση. Έτσι, το SB 2 του Κονέκτικατ  , καταρχάς, ο λόγος που μου αρέσει είναι ότι επικεντρώνεται κυρίως στην υιοθέτηση της τεχνολογίας από την κυβέρνηση. Νομίζω ότι η τεχνητή νοημοσύνη είναι μια υπερδύναμη για τόσες πολλές κυβερνητικές λειτουργίες, απλά βαρετά πράγματα, αλλά μπορούμε να τα κάνουμε αυτά τα πράγματα πιο αποτελεσματικά και ως εκ τούτου να κάνουμε τις κρατικές υπηρεσίες πιο αποτελεσματικές για το κοινό. Οπότε επικεντρώνεται κυρίως σε αυτό. Επίσης, εστιάζει πολύ στην εκπαίδευση του εργατικού δυναμικού και νομίζω ότι αυτό είναι πολύ σημαντικό επειδή το αμερικανικό εργατικό δυναμικό της τεχνητής νοημοσύνης είναι πολύ προσανατολισμένο προς τη θεωρία υψηλών προδιαγραφών – ξέρετε, αν θέλετε να κάνετε μια συνεισφορά σε επίπεδο διδακτορικού – όχι τόσο “Πώς μπορώ να ενσωματώσω την τεχνητή νοημοσύνη σε αυτό το εργοστάσιο στο Muncie της Ιντιάνα;” Και νομίζω ότι χρειαζόμαστε περισσότερους εργάτες τύπου Muncie, της Ιντιάνα. Έτσι, το νομοσχέδιο του Κονέκτικατ εστιάζει πολύ σε αυτό.

Κάνει επίσης μερικά πολύ βασικά πράγματα σε μοντέλα. Έχει απαίτηση διαφάνειας. Βασικά, εάν φτιάξετε ένα μοντέλο πάνω από ένα συγκεκριμένο επίπεδο ικανότητας, πρέπει να πείτε μερικά πολύ βασικά τεχνικά πράγματα που ήδη λένε οι περισσότεροι προγραμματιστές για τα χαρακτηριστικά του μοντέλου και πρέπει να πείτε, με αφηγηματικό τρόπο,  τι κάνατε για να κάνετε το μοντέλο ασφαλές και να αποτρέψετε πράγματα όπως η αλγοριθμική μεροληψία. Και θα μπορούσατε να συζητήσετε πόσο μεγάλο πρόβλημα είναι αυτό, αλλά βασικά μια αφηγηματική περιγραφή αυτών των πραγμάτων. Και πολλά από αυτά στην πραγματικότητα κωδικοποιούν αυτό που συμβαίνει ήδη στην κοινότητα μηχανικής μάθησης. Τα περισσότερα μοντέλα όταν βγαίνουν συνοδεύονται από χαρτιά που έχουν όλες αυτές τις πληροφορίες μέσα. Υπάρχουν μερικές τροποποιήσεις σε αυτόν τον νόμο που πιστεύω ότι θα τον έκαναν ακόμα καλύτερο, αλλά αν πρόκειται να πάτε προς αυτήν την κατεύθυνση ρύθμισης, νομίζω ότι αυτό που κάνει είναι ότι δεν παραβαίνει το  μοντέλο χωρίς άδεια . Επιτρέπει στην καινοτομία να εξακολουθεί να συμβαίνει με τρόπο χωρίς άδεια.

Είναι το κακό δίδυμο της αρχής της προφύλαξης. Τότε έχω κέρδος, βλέπω την αρχή της προφύλαξης ως την αρχή του κακού. Αυτό είναι το καλό δίδυμο. Αυτό είναι ένα άλλο είδος νοητικού μοντέλου για να σκεφτόμαστε τον κίνδυνο και τον τρόπο με τον οποίο ρυθμίζουμε.

Σωστά. «Πρέπει να ζητήσω την άδειά σας για να κάνω κάτι νέο ή μπορώ απλώς να το κάνω;» Δεν το σπάει αυτό, και, ως επί το πλείστον, νομίζω ότι αυτό στο οποίο εστιάζει πραγματικά είναι η υιοθέτηση εντός της οικονομίας, και αυτό είναι το πιο σημαντικό πράγμα στο οποίο μπορούμε να εστιάσουμε αυτή τη στιγμή ως χώρα. Πολύ περισσότερο από το “Πώς το ρυθμίζεις;” Πολύ περισσότερο θα έπρεπε να είναι “Πώς το χρησιμοποιείς;”

Τι πρέπει να κάνει η ομοσπονδιακή κυβέρνηση; Ο Πρόεδρος Μπάιντεν έδωσε μια εντολή τεχνητής νοημοσύνης, η οποία φαίνεται να έχει επηρεάσει τα όσα συμβαίνουν στις πολιτείες, ίσως ειδικά στην Καλιφόρνια.

Νομίζω κάποια πρόληψη, αλλά βασικά το να λέμε στις πολιτείες ότι διατηρούμε το δικαίωμα να κάνουμε αυτόν τον κανονισμό και να τον αφαιρούμε από τις κυβερνήσεις των πολιτειών. Αυτό είναι πολύτιμο για να αποφευχθεί ένα συνονθύλευμα κανονισμών σε ολόκληρη τη χώρα. Έτσι θα ήταν το νούμερο ένα στη λίστα μου.

Νούμερο δύο, υπάρχουν ορισμένες λειτουργίες επιβολής του νόμου που έχει η ομοσπονδιακή κυβέρνηση. Για παράδειγμα, η  FTC  ελέγχει πράγματα όπως οι αυτοματοποιημένες κλήσεις, οι οποίες θα γίνουν πολύ πιο άφθονες, και είναι ήδη, λόγω της τεχνητής νοημοσύνης. Ενίσχυση της επιβολής βασικών πραγμάτων όπως αυτό που είναι ήδη παράνομα. Πολλοί από τους σημερινούς κινδύνους για τους οποίους ανησυχούμε με την τεχνητή νοημοσύνη είναι ήδη παράνομα πράγματα. Κάνοντας λοιπόν μια περιεκτική ματιά στον ομοσπονδιακό κώδικα και να δούμε ποιοι είναι οι νόμοι που μπορεί να είναι ασύμβατοι με την τεχνητή νοημοσύνη; Νομίζω ότι το  DOJ  πρέπει να το κάνει αυτό. Ποιοι είναι οι νόμοι που ενδέχεται να έχουν προβλήματα συμβατότητας με την τεχνητή νοημοσύνη; Ποιοι είναι οι νόμοι που πρέπει να ενημερωθούν για να καταστεί δυνατή η υιοθεσία; Και ποιοι είναι οι νόμοι που ίσως χρειάζεται να ενημερωθούν για να βεβαιωθείτε ότι είναι σαφές ότι εάν το κάνετε αυτό με AI, είναι παράνομο. Πράγματα όπως deepfakes, audio deepfakes, robocalls θα ήταν ένα καλό παράδειγμα αυτού και η ενίσχυση της επιβολής για την αντιμετώπιση τέτοιων πραγμάτων.

Και μετά το τελευταίο είναι ότι λόγω της υπολογιστικής ισχύος που απαιτείται για την εκπαίδευση σύγχρονων μοντέλων AI, η ακαδημαϊκή κοινότητα μένει πραγματικά πίσω. Η τεχνητή νοημοσύνη αναδείχθηκε ως ακαδημαϊκή επιστήμη. Νομίζω ότι η ακαδημαϊκή κοινότητα έχει ακόμα πολλή αξία να δημιουργήσει εκεί, και έτσι η χρηματοδότηση του  Εθνικού Πόρου Έρευνας AI , που βρίσκεται ήδη σε πιλοτικό στάδιο αυτή τη στιγμή, θα ήταν ένα καλό βήμα για την παροχή περισσότερων πόρων στους ακαδημαϊκούς ώστε να συμβαδίσουν με τα  εργαστήρια αιχμής , και ως εκ τούτου, όλη η έρευνά τους θα ήταν δημόσια, και έτσι όλοι στο κοινό θα συμβαδίζουν.

Ένας από τους φόβους μου, νομίζω ότι είδαμε την  καταστροφή των Διδύμων  , όπου ο Δίδυμος είχε όλες αυτές τις τρελές πολιτικές απόψεις που έβγαζε έξω, υπάρχει ένα νοητό μέλλον όπου αυτά τα μοντέλα εξακολουθούν να έχουν τις ίδιες πολιτικές πεποιθήσεις που έχουν εμποτιστεί από τους δημιουργούς τους, αλλά είναι πολύ πιο διακριτικοί, και είναι πολύ πιο πειστικοί για αυτό. Και νομίζω ότι αυτό είναι το είδος του πράγματος που τα μοντέλα ανοιχτού κώδικα σάς επιτρέπουν να κοιτάξετε, επειδή μπορείτε να δείτε μέσα και οι ερευνητές μπορούν να δουν τι πραγματικά συμβαίνει. Ο εθνικός πόρος έρευνας τεχνητής νοημοσύνης μπορεί να μας βοηθήσει να συμβαδίσουμε με την έρευνα που διεξάγεται μέσα σε αυτά τα εργαστήρια κορυφαίας βαθμίδας και ελπίζουμε να έχουμε τις ίδιες πληροφορίες που έχουν.

Νομίζω ότι αυτό που συμβαίνει στην Καλιφόρνια έχει τεράστια σημασία.

Όταν κοιτάξουμε πίσω, ας πούμε σε πέντε χρόνια, επτά χρόνια, πιστεύετε ότι θα κοιτάξουμε πίσω και θα πιστεύετε ότι έχουμε κάπως σωστή ρύθμιση ή πιστεύετε ότι είναι πιο πιθανό να έχουμε επιβραδύνει άσκοπα αυτή την τεχνολογία από την εξέλιξη ως όσο γρήγορα θα μπορούσε;

Νομίζω ότι οι επόμενοι έξι μήνες έχουν τεράστια σημασία για την απάντηση σε αυτήν την ερώτηση. Νομίζω ότι αυτό που συμβαίνει στην Καλιφόρνια έχει τεράστια σημασία για την απάντηση σε αυτήν την ερώτηση. Η διαίσθησή μου — και είμαι αιώνια αισιόδοξος, γι’ αυτό κάνω ό,τι κάνω, αλλά — η διαίσθησή μου είναι ναι, ειδικά σε ομοσπονδιακό επίπεδο, έχω δει τη γενική πνευματική ένταση αυτής της συζήτησης να αυξάνεται τον τελευταίο χρόνο. Αυτό ήταν πραγματικά θετικό να το δούμε. Ελπίζω ότι η τεχνητή νοημοσύνη μπορεί να γίνει ένα δικομματικό ζήτημα για το οποίο όλοι ριζοβολούμε. Πιστεύω ότι θα το δούμε να έχει πάει καλά. Η μακροπρόθεσμη ελπίδα μου, στην πραγματικότητα, είναι ότι η πολιτική τεχνητής νοημοσύνης ως αυτός ο διακριτικός τομέας πολιτικής δεν είναι κάτι που θεωρούμε ότι είναι πραγματικά σχετικό ή έχει πολύ νόημα. Αντίθετα, η τεχνητή νοημοσύνη ενσωματώνεται τόσο στην κοινωνία που μοιάζει με την πολιτική της μεταλλουργίας. Το σκεφτόμαστε αυτό; Όχι πραγματικά.

Πηγή: aei.org

Σχετικά Άρθρα