Ένας πιο άμεσος «κίνδυνος τεχνητής νοημοσύνης»

Η Janet Haven δεν απορρίπτει τους φόβους ότι η τεχνητή νοημοσύνη μπορεί να προκαλέσει αποκάλυψη.

 
Απλά δεν πιστεύει ότι αυτή είναι η μεγαλύτερη υπαρξιακή απειλή της τεχνολογίας.

Ο Haven είναι εκτελεστικός διευθυντής του μη κερδοσκοπικού οργανισμού Data & Society, ο οποίος παρακολουθεί τις κοινωνικές επιπτώσεις των δεδομένων, του αυτοματισμού και της τεχνητής νοημοσύνης, και μέλος της Εθνικής Συμβουλευτικής Επιτροπής Τεχνητής Νοημοσύνης του Λευκού Οίκου. Αυτή η ομάδα συνεδριάζει τακτικά από τη δημιουργία της πέρυσι και δημοσίευσε την εναρκτήρια ετήσια έκθεσή της τον Μάιο, η οποία κάλεσε την ομοσπονδιακή κυβέρνηση να υιοθετήσει μια πιο πρακτική προσέγγιση στην τεχνητή νοημοσύνη.

«Δεν προεξοφλούν το είδος των μακροπρόθεσμων υπαρξιακών απειλών και ανησυχιών που έχουν τεθεί», δήλωσε στο Digital Future Daily. «Αλλά προεξοφλούν τις άμεσες και πολύ ορατές βλάβες που αποτελούν ήδη μέρος της χρήσης της τεχνητής νοημοσύνης».

Αυτές οι ανησυχίες έγκεινται στη συνεχιζόμενη μάχη για τις καρδιές και τα μυαλά των υπευθύνων χάραξης πολιτικής και των πολιτικών, καθώς όλοι, από τον Joe Biden και τον γερουσιαστή Chuck Schumer, μέχρι τον Brad Smith της Microsoft και τον Mark Surman της Mozilla προσπαθούν να καθησυχάσουν τις ανησυχίες του κοινού ότι η τεχνητή νοημοσύνη είτε θα πάρει τις δουλειές τους, είτε θα φέρει επανάσταση στην αμερικανική οικονομία είτε, στη χειρότερη περίπτωση, τέλος του κόσμου.

Από τη μία πλευρά είναι οι υποστηρικτές της τεχνολογίας που έχουν καλέσει την Ουάσιγκτον να μετριάσει τις δυνατότητες της τεχνητής νοημοσύνης να τερματίσει τον κόσμο, ακόμη και αν αυτή η πιθανότητα απέχει δεκαετίες. Από την άλλη πλευρά, είναι κυρίως ακτιβιστές για τα ανθρώπινα δικαιώματα που θέλουν η προσοχή να επικεντρωθεί ξεκάθαρα στο πώς οι αλγόριθμοι – γεμάτοι προκαταλήψεις δεδομένων – βλάπτουν τους Αμερικανούς, τώρα.

Για την Haven, οι πολιτικοί θα πρέπει να κοιτάξουν πέρα από τη διαφημιστική εκστρατεία της τεχνητής νοημοσύνης και να επικεντρωθούν στους πραγματικούς κινδύνους που μπορεί να προκύψουν όταν τα πάντα, από τις παροχές κοινωνικής ασφάλισης των ανθρώπων έως τις κατανομές στέγασης, αυτοματοποιούνται μέσω πολύπλοκων αλγορίθμων μηχανικής μάθησης.

«Οι υπεύθυνοι χάραξης πολιτικής και οι πολιτικοί θα πρέπει να δίνουν προσοχή στην προστασία των θεμελιωδών δικαιωμάτων και στην ανθεκτικότητα οποιουδήποτε πλαισίου διακυβέρνησης (AI)», δήλωσε η Haven, η οποία πέρασε πάνω από μια δεκαετία δουλεύοντας με το Open Society Foundations, ένα ίδρυμα επιχορηγήσεων που επικεντρώνεται στην προώθηση των ανθρωπίνων δικαιωμάτων και της κοινωνικής δικαιοσύνης.

Επισημαίνει το (πολύ κακοήθες) σχέδιο του Λευκού Οίκου για μια Διακήρυξη Δικαιωμάτων AI ή ρυθμιστική καθοδήγηση για ομοσπονδιακές υπηρεσίες σχετικά με τον τρόπο με τον οποίο επέβλεπαν την τεχνολογία ως παραδείγματα για το πώς οι αξιωματούχοι μπορούν να χαλιναγωγήσουν τις χειρότερες υπερβολές της AI χωρίς να περιορίσουν, πάρα πολύ, τον τρόπο με τον οποίο οι εταιρείες αναπτύσσουν την τεχνολογία. Αυτές οι προτάσεις, οι οποίες δέχθηκαν αμέσως κριτική από όλες τις πλευρές είτε επειδή ήταν υπερβολικά επαχθείς είτε επειδή δεν προχωρούσαν αρκετά, περιελάμβαναν την προστασία της ιδιωτικής ζωής των δεδομένων και προσπάθειες να σταματήσει η αλγοριθμική μεροληψία να παρεισφρειει σε αυτά τα συστήματα τεχνητής νοημοσύνης.

Η Χέιβεν κάλεσε επίσης την Ουάσινγκτον να μην εμπλακεί στην εκτεταμένη εταιρική άσκηση πίεσης που έχει ξεπηδήσει τον τελευταίο χρόνο στον απόηχο της ανόδου του ChatGPT. Ανησυχεί ότι οι υπεύθυνοι χάραξης πολιτικής έχουν επικεντρωθεί σχεδόν αποκλειστικά στη λεγόμενη γενετική τεχνητή νοημοσύνη, η οποία είναι μόνο ένα μικρό μέρος αυτού που μπορούν να κάνουν τα ευρύτερα συστήματα τεχνητής νοημοσύνης. Έχει επίσης οδηγήσει μερικά από τα μεγαλύτερα ονόματα της Silicon Valley να κυριαρχήσουν σε μια εθνική συζήτηση για την τεχνητή νοημοσύνη, ακριβώς τη στιγμή που η προσοχή των ανθρώπων έχει επιτέλους ξυπνήσει σε μια τεχνολογία που υπάρχει εδώ και δεκαετίες.

«Ο κύριος δημόσιος λόγος κατανοεί την τεχνητή νοημοσύνη ως ChatGPT και αυτό είναι ένα πολύ στενό μέρος της τεχνητής νοημοσύνης», είπε.

«Είναι επίσης ένας τύπος τεχνητής νοημοσύνης που έχει αναπτυχθεί ειδικά για την επίτευξη δύο στόχων», πρόσθεσε ο Haven. «Πρώτον: να ωθήσουμε προς αυτή την εικόνα της τεχνητής γενικής νοημοσύνης, η οποία συλλαμβάνεται από μια πολύ μικρή ομάδα ανθρώπων. Και δεύτερον: έχει δημιουργηθεί για να πουλήσει ένα προϊόν».

Μέχρι στιγμής, όμως, οι βραχυπρόθεσμες ανησυχίες της Haven έχουν κάπως αγνοηθεί από αξιωματούχους – τόσο στον Λευκό Οίκο όσο και στο Καπιτώλιο – υπέρ του σχεδιασμού του Αρμαγεδδώνα γύρω από τα χειρότερα σενάρια, εάν η AI γίνει πραγματικά αδίστακτη. Αυτό ισχύει ιδιαίτερα όταν πολλοί τώρα στην Ουάσιγκτον βλέπουν την ανάπτυξη της τεχνολογίας μέσα από το πρίσμα του ανταγωνισμού της Αμερικής με την Κίνα.

«Το πιο δικομματικό ζήτημα στην Ουάσινγκτον αυτή τη στιγμή είναι η ανησυχία για την Κίνα», παραδέχτηκε. «Αυτό επηρεάζει δραματικά τον τρόπο με τον οποίο συζητείται και αναπτύσσεται η διακυβέρνηση της τεχνητής νοημοσύνης».

Πηγή: politico.com

Σχετικά Άρθρα