Ο πρώτος πολιτικός τεχνητής νοημοσύνης της Βρετανίας ισχυρίζεται ότι θα επαναφέρει την εμπιστοσύνη στην πολιτική – έτσι τον έβαλα σε δοκιμασία

Τα πολιτικά κόμματα συχνά αρέσκονται να λένε ότι οι υποψήφιοί τους είναι διαφορετικοί από τους υπόλοιπους, αλλά ο Smarter UK είναι πραγματικός, επειδή δεν είναι άνθρωπος – είναι δημιούργημα τεχνητής νοημοσύνης (AI). Το νέο πολιτικό κόμμα πιστεύει ότι ο υποψήφιός του, AI Steve, μπορεί να επαναφέρει την εμπιστοσύνη στην πολιτική, σε μια εποχή που η εμπιστοσύνη έχει φτάσει σε νέα χαμηλά επίπεδα.

 
Το AI Steve είναι το avatar AI του Steve Endacott, ο οποίος διευθύνει τη Neural Voice, την εταιρεία τεχνολογίας πίσω από την καμπάνια του Smarter UK. Ο Endacott the human έτρεξε και έχασε ως υποψήφιος των Συντηρητικών στις τοπικές εκλογές του 2022 στο Rochdale, όπου ζει.

Εάν ο AI Steve εκλεγεί από τους ψηφοφόρους του Brighton Pavilion, ο Endacott θα καθίσει στο κοινοβούλιο. Αυτό είναι απίθανο, ωστόσο, καθώς η έδρα έχει μια μεγάλη πλειοψηφία των Πρασίνων , την οποία μόνο οι Εργατικοί φαίνεται ικανοί να ανατρέψουν.

Η εκστρατεία ισχυρίζεται ότι ο AI Steve θα «επαναεφεύρει τη δημοκρατία», ζητώντας από τους ψηφοφόρους να προτείνουν και να ψηφίσουν τι πρέπει να κάνει ο Steve ως τοπικός βουλευτής, με τον Endacott να εμφανίζεται φυσικά στο κοινοβούλιο για να θεσπίσει ό,τι αποφασίζουν.

Η συλλογική έγκριση ή απόρριψη των ψηφοφόρων μέσω AI Ο Steve καθορίζει τι θα κάνει ο Endacott (αν περισσότερο από το 50% ψηφίσει υπέρ μιας συγκεκριμένης ενέργειας, θα την προωθήσει). Αυτή η προσέγγιση βασίζεται στην αρχή της κυριαρχίας της πλειοψηφίας, μια θεμελιώδη πτυχή της δημοκρατικής διακυβέρνησης. Σύμφωνα με αυτή την αρχή, οι αποφάσεις που έχουν τη μεγαλύτερη υποστήριξη είναι αυτές που πρέπει να ληφθούν.

Δεδομένης της δυνητικά σημαντικής επιρροής των ψηφοφόρων στις κοινοβουλευτικές ψήφους του Endacott μέσω της τεχνητής νοημοσύνης Steve, η AI, υποστηρίζει η SmarterUK, θα μπορούσε να βελτιώσει την εμπιστοσύνη μεταξύ των ψηφοφόρων και των εκπροσώπων τους.

Μπορεί η τεχνητή νοημοσύνη να αποκαταστήσει πραγματικά την εμπιστοσύνη στην πολιτική; Για να απαντήσω σε αυτό, εξέτασα τα πέντε στοιχεία εμπιστοσύνης στις κυβερνήσεις όπως ορίζονται από τον ΟΟΣΑ: ακεραιότητα, ανταπόκριση, αξιοπιστία, διαφάνεια και δικαιοσύνη, για να δω πώς σταθμίζει η τεχνητή νοημοσύνη Steve. Ενώ η ιδέα, θεωρητικά, δίνει στους ψηφοφόρους πιο άμεσο έλεγχο, αναδεικνύει μια σειρά από άλλα νομικά, ηθικά και πρακτικά ζητήματα όταν πρόκειται για την πραγματικότητα της διακυβέρνησης.

 

 
Ακεραιότητα. Οι νομικοί και πολιτικοί μας θεσμοί είναι χτισμένοι στην αρχή της ανθρώπινης ευθύνης. Ένα AI, ανεξάρτητα από το πόσο εξελιγμένο είναι, δεν είναι άνθρωπος και δεν διαθέτει τις βιωμένες εμπειρίες που διαμορφώνουν την κατανόησή μας για αυτές τις αξίες. Υπάρχει κίνδυνος οι αποφάσεις του AI Steve, που βασίζονται σε δεδομένα και αλγόριθμους, να μην καταφέρουν να συλλάβουν τις αποχρώσεις των ανθρώπινων αξιών και ηθικής. Είναι δύσκολο να δούμε πώς μια τεχνητή νοημοσύνη μπορεί πραγματικά να αντιπροσωπεύει τη βούληση του λαού και εάν η εμπλοκή της στην πολιτική ευθυγραμμίζεται με τις δημοκρατικές αρχές του Ηνωμένου Βασιλείου.

Αποκριτικότητα. Με διαθεσιμότητα 24/7 , το AI Steve είναι σίγουρα διαθέσιμο στους ψηφοφόρους. Αλλά αυτό θα μπορούσε να δημιουργήσει μια μη ρεαλιστική προσδοκία άλλων βουλευτών που δεν υποστηρίζονται από μια έκδοση τεχνητής νοημοσύνης του εαυτού τους. Σημαίνει επίσης ότι ο Endacott, ο οποίος ζει στο Rochdale, στο Greater Manchester (αν και διατηρεί σπίτι στο Brighton, σύμφωνα με τον ιστότοπο του AI Steve), μπορεί να αποφύγει να εμφανιστεί αυτοπροσώπως στην εκλογική του περιφέρεια.

Αξιοπιστία. Η εμπλοκή των ψηφοφόρων στην καθοδήγηση των ενεργειών του βουλευτή της εκλογικής τους περιφέρειας απαιτεί από αυτούς να έχουν καλή κατανόηση των θεμάτων που αντιμετωπίζουν για να λαμβάνουν τεκμηριωμένες αποφάσεις. Η προσέγγιση του AI Steve είναι να διατηρήσει ένα όριο υποστήριξης 50% για τις ενέργειές του, πράγμα που σημαίνει ότι θα μπορούσε να πάρει μια απόφαση ή να ψηφίσει με συγκεκριμένο τρόπο, εάν μια σημαντική μερίδα του κόσμου είναι αντίθετη. Αυτό είναι ένα παρόμοιο περιθώριο με αυτό που είδαμε στο δημοψήφισμα για το Brexit, επομένως η πιθανότητα πόλωσης και σύγκρουσης είναι εμφανής.

Ειλικρίνεια. Οι ανθρώπινοι βουλευτές μπορούν να εξηγήσουν τον λόγο για τη λήψη μιας απόφασης που μπορεί να μην υποστηρίζεται από όλους τους ψηφοφόρους. Με το AI Steve, μπορεί να έχουμε περισσότερο σενάριο μαύρου κουτιού. Το σκεπτικό του, όταν πρόκειται για τον τρόπο με τον οποίο επεξεργάστηκε τις προτάσεις των ψηφοφόρων του, μπορεί να μην είναι εύκολα προφανές ή κατανοητό στον τυπικό ψηφοφόρο. Ο νόμος έχει περιορισμένη εμβέλεια για την αντιμετώπιση αυτής της αδιαφάνειας για να διασφαλίσει ότι η λήψη αποφάσεων AI είναι όσο το δυνατόν πιο διαφανής και ανοιχτή.

Δικαιοσύνη. Περίπου το 63% των ανθρώπων είπε ότι οι κυβερνητικοί αξιωματούχοι που τηρούν τους ίδιους κανόνες με όλους τους άλλους επηρεάζουν το πόσο εμπιστεύονται την εθνική κυβέρνηση.

Σε περίπτωση σφαλμάτων ή παραβίασης κανόνων από το AI Steve, ποιος θεωρείται υπεύθυνος; Είναι οι δημιουργοί της AI, η ίδια η AI, ο Endacott, οι ψηφοφόροι που την υποστήριξαν ή αυτοί που συνέβαλαν στις θέσεις του; Σε περίπτωση που εξελιχθεί ένα νομικό πλαίσιο για να αποσαφηνιστεί η λογοδοσία της τεχνητής νοημοσύνης, πώς θα επηρεάσει αυτό τις πολιτικές αποφάσεις του AI Steve;

 
Η ετυμηγορία

Η εφεύρεση του AI Steve εγείρει περισσότερα ερωτήματα από όσα απαντά σχετικά με την εμπιστοσύνη στην πολιτική. Η τεχνητή νοημοσύνη μπορεί να προσφέρει τη δυνατότητα για μεγαλύτερη συμμετοχή του κοινού στην πολιτική διαδικασία, αλλά η νομική κοινότητα πρέπει να είναι προορατική και να διαμορφώνει νόμους για να διασφαλίζει ότι προστατεύονται τα συμφέροντα των πολιτών και η ακεραιότητα του πολιτικού συστήματος.

Πηγή: theconversation.com

Σχετικά Άρθρα