«Ή η τεχνητή νοημοσύνη θα μας εξυπηρετήσει ή θα υπηρετήσουμε εμείς την τεχνητή νοημοσύνη»

Η άποψη του Χόλιγουντ για την τεχνητή νοημοσύνη

 
Οι ιστορίες που λέμε στον εαυτό μας και οι εικόνες που ζούμε καθορίζουν τις ανθρώπινες πράξεις. Παρά τις αυξανόμενες προκλήσεις, το Χόλιγουντ παραμένει το παγκόσμιο επίκεντρο αυτής της περιοχής. Στην εποχή της τεχνητής νοημοσύνης, της συνθετικής βιολογίας και της κλιματικής αλλαγής, τίποτα δεν είναι πιο σημαντικό από το να κάνουμε την ιστορία σωστή. Τι είναι γεγονός, τι είναι μυθοπλασία; Πού μπορεί η μυθοπλασία να φωτίσει το δρόμο μπροστά ή να χρησιμεύσει για να προειδοποιήσει προληπτικά για επικίνδυνα μονοπάτια που δεν πρέπει να ακολουθηθούν;

Δεξαμενές σκέψης που βρίσκονται στην Ουάσιγκτον βγάζουν λευκές βίβλους και μελέτες πολιτικής με στόχο να επηρεάσουν το Κογκρέσο και τον Λευκό Οίκο. Δεδομένου ότι το Ινστιτούτο Berggruen βρίσκεται στο Λος Άντζελες, ήταν πιο λογικό να ασχοληθούμε με τη βιομηχανία της ψυχαγωγίας, η οποία διαμορφώνει ασυνήθιστα τη μετα-αφήγηση στο μυαλό του πλήθους.

Για το σκοπό αυτό, ιδρύσαμε πρόσφατα το Studio B ως έναν τρόπο να φέρουμε επιστήμονες, τεχνολόγους, ιστορικούς και φιλοσόφους μαζί με αφηγητές και δημιουργούς εικόνων μέσω μιας σειράς διαδραστικών.

Μια προσεχής εκδήλωση, για παράδειγμα, θα συνδυάσει τη Lisa Joy, δημιουργό της σειράς επιστημονικής φαντασίας Westworld, με τη Fei Fei Li, η οποία συχνά αναφέρεται ως η νονά της τεχνητής νοημοσύνης που διευθύνει το Human-Cented AI Institute στο Στάνφορντ.

Η τελευταία συζήτηση συγκέντρωσε έναν από τους κορυφαίους επιχειρηματίες επιχειρηματικού κεφαλαίου της Silicon Valley, τον Reid Hoffman, και τον Kevin Scott, τον επικεφαλής τεχνολογίας της Microsoft, με τον JJ Abrams, τον διάσημο σκηνοθέτη και παραγωγό του οποίου οι ταινίες περιλαμβάνουν τις πιο πρόσφατες δόσεις Star Wars και Star Trek μεταξύ άλλων.

Σε εκείνη τη συζήτηση, ο Χόφμαν εξήρε πώς η γενετική τεχνητή νοημοσύνη θα ενίσχυε τη δημιουργικότητα των ανθρώπων στο ίδιο επίπεδο με την Αναγέννηση. «Η τεχνολογία δεν είναι μόνο άτομο εναντίον μηχανής», υποστηρίζει. «Δεν είναι μόνο: «Τα μηχανήματα έρχονται για εμάς». Αλλά είναι κάπως πώς το διαμορφώνουμε αυτό;». ως συνδημιουργοί με ισχυρά νέα εργαλεία για την καινοτομία.

Ο Scott τόνισε ότι βρισκόμαστε μόλις στην αρχή, τα νηπιακά στάδια της ικανότητας AI. Η αισιοδοξία ή η απαισιοδοξία κάποιου δεν πρέπει να βασίζεται σε μικρές αυξήσεις βελτίωσης γιατί, ξαφνικά, θα πηδήξουν σε μια σημαντική ανακάλυψη όταν όλα συνενωθούν, όπως συνέβη με το ChatGPT του Open AI.

Όπως το έθεσε, «Είναι η δομή του οικοσυστήματος που τα σύνορα προχωρούν σχεδόν κατά ριπάς». Πάνω απ ‘όλα, αυτό σημαίνει ότι καθώς δισεκατομμύρια διοχετεύονται στην ανάπτυξη της τεχνητής νοημοσύνης, η υπολογιστική ισχύς θα αυξάνεται εκθετικά και η χρήση της τεχνητής νοημοσύνης θα απλοποιηθεί με προόδους όπως το κείμενο και η ομιλία σε βίντεο. Αναπόφευκτα, τα εμπόδια εισόδου θα πέσουν και η τεχνολογία θα γίνει ευρέως προσβάσιμη.

Από τη σκοπιά του Χόλιγουντ, όπως το βλέπει ο Abrams, αυτή η ίδια η διαθεσιμότητα και η προσβασιμότητα της τεχνητής νοημοσύνης, τόσο για παραγωγή όσο και για κατανάλωση περιεχομένου, θα «μετατοπίσει θεμελιωδώς τα πάντα» στον τρόπο λειτουργίας της βιομηχανίας. «Θα μπορείτε να ζητήσετε οτιδήποτε και να το πάρετε, αποφεύγοντας την ανάγκη για στούντιο». Αυτή η απειλή πλεονασμού ισχύει για τους σκηνοθέτες και τους ηθοποιούς καθώς και για όλους τους χειριστές και τους κινηματογραφιστές που θα γίνουν λιγότερο απαραίτητοι με εφευρέσεις όπως ο Sora, όπου μπορείτε να περιγράψετε με ομιλία μια σκηνή και να την οπτικοποιήσετε αμέσως στην οθόνη. Οι διασημότητες της τεχνητής νοημοσύνης θα εμφανιστούν εκεί που κάποτε περπατούσαν ανθρώπινοι ηθοποιοί.

«Νομίζω ότι είναι αόριστα ξεκαρδιστικό όταν αναφέρεται ως εργαλείο», είπε ειρωνικά ο Abrams. «Όπως — δεν είναι σφυρί. Είναι ένα γαμημένο σαν πλήρως διαμορφωμένο ρομπότ, μερικές φορές που δεν διακρίνεται από τον άνθρωπο, που κρατά ένα σφυρί». Με άλλα λόγια, ενώ η γενετική τεχνητή νοημοσύνη μπορεί να ενδυναμώσει ευρύτερα τη δημιουργικότητα και να μειώσει τα εμπόδια για την είσοδο, είναι ένας Εξολοθρευτής της επιχειρηματικής δραστηριότητας ως συνήθως στο backlot.

Ακόμη και καθώς όλο και περισσότεροι άνθρωποι αποβάλλονται από τη διαδικασία, λέει ο Abrams, η εκπαίδευση των AI και η δημιουργία ταινιών «θα απαιτήσει αρκετά εις βάθος ανθρώπινη ανατροφοδότηση για να ευθυγραμμιστούν με τα είδη των πραγμάτων που θέλουμε να δούμε». Αυτό το στοιχείο της συνδημιουργίας θα παραμείνει αναπόφευκτα. Η δημιουργική τάξη δεν θα γίνει απλώς «παθητικά καναπέδες». Αλλά ο μετασχηματισμός απειλεί «να μας αφήσει στη σκόνη πνευματικά, και σίγουρα, μόνο από την άποψη της ενέργειας για να φτιάξουμε πράγματα, είναι αδιάκοπη».

Σε αυτό, ο Abrams συμφωνούσε ουσιαστικά με όσα είπε ο ηθοποιός/σκηνοθέτης/επενδυτής τεχνολογίας Ashton Kutcher σε προηγούμενο διάλογο με τον Eric Schmidt, τον πρώην διευθύνοντα σύμβουλο της Google. Ο Κούτσερ υποστήριξε ότι, παρ’ όλη τη διαταραχή του, το Χόλιγουντ πρέπει να δαγκώσει τη σφαίρα και να αγκαλιάσει την τεχνητή νοημοσύνη ως συνδημιουργό, όχι να της αντισταθεί. Για αυτόν η επιλογή είναι ξεκάθαρη: «Ή η τεχνητή νοημοσύνη θα μας εξυπηρετήσει ή θα υπηρετήσουμε εμείς την τεχνητή νοημοσύνη».

Με μια ματιά, όλες αυτές οι συζητήσεις υπαινίχθηκαν το ευρύτερο υπαρξιακό ζήτημα που έθεσε ο Yuval Noah Harari ότι η γενετική τεχνητή νοημοσύνη έχει χακάρει το «κύριο κλειδί» του ανθρώπινου πολιτισμού – τη γλώσσα – και επομένως την ικανότητα να χειραγωγεί και να διοικεί τις ιστορίες, τους μύθους ή τις θρησκείες που είναι τη βάση της κοινωνικής συνοχής.

 
AI πέρα ​​από τη μεγάλη οθόνη

Όσον αφορά τη διαλογή της πραγματικότητας από τη μυθοπλασία για τη δημιουργία μιας αφήγησης, λίγοι είναι πιο ενημερωμένοι από τον Schmidt, ο οποίος έχει γίνει κάτι σαν μεγαλύτερος πολιτικός για όλα τα πράγματα AI. Σε μια συνέντευξη με τη Noema πριν από τη συζήτησή του με τον Kutcher, ο Eric Schmidt με οδήγησε στη «σκάλα ικανοτήτων» της προόδου της τεχνητής νοημοσύνης – πού είναι τώρα, πού κατευθύνεται, πόσο γρήγορα και πότε να «τραβήξω την πρίζα».

Ο Schmidt βλέπει τις προοδευτικές δυνατότητες των AI να συγκλίνουν γρήγορα – μέσα στα επόμενα πέντε έως 10 χρόνια – σε ολοένα πιο ισχυρά συστήματα ή “πράκτορες”, που μπορούν να απορροφήσουν όλες τις διαθέσιμες πληροφορίες και να τις επεξεργαστούν μέσω της “αλυσιδωτής συλλογιστικής σκέψης” για να προκύψουν  λύσεις σε προκλήσεις στην ιατρική, την επιστήμη των υλικών και την κλιματική αλλαγή που είναι πέρα ​​από κάθε ανθρώπινη ικανότητα να το κάνει από μόνη της.

Προειδοποιεί:

Αυτό που συμβαίνει τότε θέτει πολλά ζητήματα. Εδώ μπαίνουμε στα ερωτήματα που θέτει η επιστημονική φαντασία. Αυτό που περιέγραψα είναι αυτό που συμβαίνει ήδη. Αλλά κάποια στιγμή, αυτά τα συστήματα θα γίνουν αρκετά ισχυρά ώστε οι πράκτορες να αρχίσουν να συνεργάζονται. …

Μερικοί πιστεύουν ότι αυτοί οι πράκτορες θα αναπτύξουν τη δική τους γλώσσα για να επικοινωνούν μεταξύ τους. Και αυτό είναι το σημείο που δεν θα καταλάβουμε τι κάνουν τα μοντέλα. Τι πρέπει να κάνουμε? Βγάζουμε την πρίζα? Κυριολεκτικά αποσυνδέουμε τον υπολογιστή; Θα είναι πραγματικά ένα πρόβλημα όταν οι πράκτορες αρχίσουν να επικοινωνούν και να κάνουν πράγματα με τρόπους που εμείς ως άνθρωποι δεν καταλαβαίνουμε. Αυτό είναι το όριο, κατά την άποψή μου.

Αξίζει να σημειωθεί σε αυτό το πλαίσιο ότι η Deep Mind μόλις κυκλοφόρησε το πρώτο Frontier Safety Framework που προσδιορίζει τις δυνατότητες που μπορεί να έχει ένα μοντέλο με πιθανή σοβαρή βλάβη και περιγράφει ένα σχέδιο μετριασμού όταν τα μοντέλα περνούν αξιολογήσεις έγκαιρης προειδοποίησης.

 
Κίνα: Τα τσιπ και οι κίνδυνοι του ανοιχτού κώδικα

Ο Schmidt συζήτησε επίσης πώς να αντιμετωπίσει την άλλη υπερδύναμη της τεχνητής νοημοσύνης, την Κίνα. Συνόδευσε τον Χένρι Κίσινγκερ στην τελευταία επίσκεψή του στην Κίνα για να συναντήσει τον Πρόεδρο Σι Τζινπίνγκ με αποστολή να ιδρύσει μια ομάδα υψηλού επιπέδου τόσο από την Ανατολή όσο και από τη Δύση για να συζητήσει σε συνεχή βάση τόσο τις «δυνητικές όσο και τις καταστροφικές πιθανότητες της τεχνητής νοημοσύνης». Συγκεκριμένα, ο Schmidt υπηρέτησε ως πρόεδρος της Επιτροπής Εθνικής Ασφάλειας των ΗΠΑ για την τεχνητή νοημοσύνη.

Παρατηρεί:

Καταρχάς, οι Κινέζοι θα πρέπει να ανησυχούν αρκετά για τη γενετική τεχνητή νοημοσύνη. Και ο λόγος είναι ότι δεν έχουν ελευθερία λόγου. Και λοιπόν, τι κάνετε όταν το σύστημα δημιουργεί κάτι που δεν επιτρέπεται υπό το καθεστώς λογοκρισίας;

Ποιος ή τι τιμωρείται για το πέρασμα της γραμμής; Ο υπολογιστής, ο χρήστης, ο προγραμματιστής, τα δεδομένα εκπαίδευσης; Δεν είναι καθόλου προφανές. Αυτό που είναι προφανές είναι ότι η εξάπλωση της γενετικής τεχνητής νοημοσύνης θα περιοριστεί σε μεγάλο βαθμό στην Κίνα επειδή αμφισβητεί θεμελιωδώς το μονοπώλιο πληροφοριών του Κόμματος-Κράτους. Αυτό είναι λογικό από τη σκοπιά τους.

Υπάρχει επίσης το κρίσιμο ζήτημα του αυτοματοποιημένου πολέμου ή της ενσωμάτωσης της τεχνητής νοημοσύνης σε πυρηνικά συστήματα διοίκησης και ελέγχου, όπως προειδοποιήσαμε ο Δρ Κίσινγκερ και εγώ στο βιβλίο μας, « Η εποχή της τεχνητής νοημοσύνης ». Και η Κίνα αντιμετωπίζει τις ίδιες ανησυχίες που έχουμε συζητήσει καθώς πλησιάζουμε περισσότερο στη γενική τεχνητή νοημοσύνη. Γι’ αυτούς τους λόγους ο Δρ Κίσινγκερ, ο οποίος έκτοτε έφυγε από τη ζωή, ήθελε τη συμφωνία του Σι για τη δημιουργία μιας ομάδας υψηλού επιπέδου. Οι επόμενες συναντήσεις έχουν πλέον πραγματοποιηθεί και θα συνεχιστούν ως αποτέλεσμα της έμπνευσής του.

Σε αντίθεση με την παρακολούθηση των εγκαταστάσεων πυρηνικών πυραύλων Open Skies για την παροχή διαφάνειας των δυνατοτήτων, ο Schmidt πιστεύει ότι «και οι δύο πλευρές θα πρέπει να συμφωνήσουν σε μια απλή απαίτηση ότι, εάν πρόκειται να κάνετε εκπαίδευση για κάτι που είναι εντελώς νέο στα σύνορα της τεχνητής νοημοσύνης, πρέπει να πεις στην άλλη πλευρά ότι το κάνεις. Με άλλα λόγια, ένας κανόνας χωρίς έκπληξη.»

Και προσθέτει:

Εάν κάνετε ισχυρή εκπαίδευση, πρέπει να υπάρχουν κάποιες συμφωνίες σχετικά με την ασφάλεια. Στη βιολογία, υπάρχει ένα ευρέως αποδεκτό σύνολο επιπέδων απειλής, επίπεδα βιοασφάλειας 1 έως 4 , για τον περιορισμό της μετάδοσης. Αυτό είναι απολύτως λογικό γιατί αυτά τα πράγματα είναι επικίνδυνα.

Τελικά, τόσο στις ΗΠΑ όσο και στην Κίνα, υποπτεύομαι ότι θα υπάρχει ένας μικρός αριθμός εξαιρετικά ισχυρών υπολογιστών με δυνατότητα αυτόνομης εφεύρεσης που θα υπερβαίνει αυτό που θέλουμε να δώσουμε είτε στους δικούς μας πολίτες χωρίς άδεια είτε στους ανταγωνιστές μας. Θα στεγαστούν σε μια στρατιωτική βάση, που θα τροφοδοτείται από κάποια πηγή πυρηνικής ενέργειας και θα περιβάλλεται από συρματοπλέγματα και πολυβόλα. Είναι λογικό για μένα ότι θα υπάρχουν μερικά από αυτά ανάμεσα σε πολλά άλλα συστήματα που είναι πολύ λιγότερο ισχυρά και ευρύτερα διαθέσιμα.

Το σημείο αυτών των προστατευτικών φυλακίων, σύμφωνα με τον Schmidt, είναι:

Θέλετε να αποφύγετε μια κατάσταση όπου ένας δραπέτης πράκτορας στην Κίνα έχει τελικά πρόσβαση σε ένα όπλο και το εκτοξεύει ανόητα, νομίζοντας ότι είναι κάποιο παιχνίδι. Θυμηθείτε, αυτά τα συστήματα δεν είναι ανθρώπινα. Δεν κατανοούν απαραίτητα τις συνέπειες των πράξεών τους. Όλα αυτά [μεγάλα γλωσσικά μοντέλα] βασίζονται σε μια απλή αρχή πρόβλεψης της επόμενης λέξης. Επομένως, δεν μιλάμε για υψηλή νοημοσύνη εδώ. Σίγουρα δεν μιλάμε για το είδος της συναισθηματικής κατανόησης στην ιστορία που έχουμε εμείς οι άνθρωποι.

Έτσι, όταν έχετε να κάνετε με μη ανθρώπινη νοημοσύνη που δεν έχει το πλεονέκτημα της ανθρώπινης εμπειρίας, ποια όρια βάζετε σε αυτήν; Αυτή είναι μια πρόκληση τόσο για τη Δύση όσο και για την Κίνα. Ίσως μπορούμε να καταλήξουμε σε κάποιες συμφωνίες για το ποιες είναι αυτές;

Αυτό που απασχολεί περισσότερο τον Schmidt, περισσότερο από την πρόσβαση της Κίνας στα πιο ισχυρά υπολογιστικά τσιπ που κατασκευάζονται στη Δύση, είναι η κακή χρήση μοντέλων ανοιχτού κώδικα. Όπως λεει:

Τα τσιπ είναι σημαντικά γιατί επιτρέπουν το είδος της μάθησης που απαιτείται για τα μεγαλύτερα μοντέλα. Είναι πάντα δυνατό να το κάνετε με πιο αργά τσιπ, απλά χρειάζεστε περισσότερα από αυτά. Και έτσι, είναι ουσιαστικά ένας φόρος κόστους για την κινεζική ανάπτυξη. Αυτός είναι ο τρόπος να το σκεφτείς. Είναι τελικά αρνητικό; Σημαίνει ότι η Κίνα δεν μπορεί να φτάσει εκεί; Όχι. Αλλά το κάνει πιο δύσκολο και σημαίνει ότι τους παίρνει περισσότερο χρόνο για να το κάνουν.

Δεν διαφωνώ με αυτή τη στρατηγική της Δύσης. Αλλά με ανησυχεί πολύ περισσότερο ο πολλαπλασιασμός του ανοιχτού κώδικα. Και είμαι βέβαιος ότι οι Κινέζοι μοιράζονται την ίδια ανησυχία για το πώς μπορεί να γίνει κατάχρηση εναντίον της κυβέρνησής τους καθώς και της δικής μας.

Πρέπει να διασφαλίσουμε ότι τα μοντέλα ανοιχτού κώδικα γίνονται ασφαλή με προστατευτικά κιγκλιδώματα κατά πρώτο λόγο μέσω αυτού που ονομάζουμε «ενισχυτική μάθηση από την ανθρώπινη ανατροφοδότηση» (RLHF) που είναι τελειοποιημένη έτσι ώστε αυτά τα προστατευτικά κιγκλιδώματα να μην μπορούν να «υποστηριχθούν» από κακούς ανθρώπους. Δεν πρέπει να είναι εύκολο να γίνει ανοιχτού κώδικα Τα μοντέλα δεν είναι ασφαλή μόλις γίνουν ασφαλή.

Από αυτούς που περιστρέφουν τις αφηγήσεις στο Χόλιγουντ μέχρι εκείνους που κυβερνούν πάνω από ένα δισεκατομμύριο ανθρώπους στο Μέσο Βασίλειο, η προηγμένη τεχνητή νοημοσύνη αναστατώνει τα πράγματα παντού. Περισσότερο από μια τεχνολογική επανάσταση, διανύουμε με πολλούς τρόπους μια μετάβαση φάσης στο πώς οι άνθρωποι τακτοποιούν τις υποθέσεις τους και πλαισιώνουν το νόημά τους.

Nathan Gardels, Αρχισυντάκτης Noema

Πηγή: noemamagazine.cmail20.com

Σχετικά Άρθρα