Κοινή δήλωση του Freedom Online Coalition σχετικά με τις υπεύθυνες κυβερνητικές πρακτικές για τις τεχνολογίες τεχνητής νοημοσύνης

Ακολουθεί η κοινή δήλωση του Freedom Online Coalition, τα κράτη μέλη του οποίου περιλαμβάνουν: Αργεντινή, Αυστραλία, Αυστρία, Κάβο Βέρντε, Καναδάς, Χιλή, Κόστα Ρίκα, Τσεχία, Δανία, Εσθονία, Φινλανδία, Γαλλία, Γεωργία, Γερμανία, Γκάνα, Ιρλανδία, Ισλανδία, Ιταλία, Ιαπωνία, Κένυα, Δημοκρατία της Κορέας, Λετονία, Λιθουανία, Λουξεμβούργο, Μαλδίβες, Μεξικό, Μολδαβία, Μογγολία, Ολλανδία, Νέα Ζηλανδία, Νορβηγία, Πολωνία, Σλοβακία, Σλοβενία, Ισπανία, Σουηδία, Ελβετία, Τυνησία, το Ηνωμένο Βασίλειο και τις Ηνωμένες Πολιτείες.

Εμείς, οι χώρες μέλη του Freedom Online Coalition (FOC), αναγνωρίζουμε ότι τα ασφαλή, προστατευμένα και αξιόπιστα συστήματα τεχνητής νοημοσύνης (AI), όταν σχεδιάζονται, αναπτύσσονται, προμηθεύονται, αναπτύσσονται, χρησιμοποιούνται και παροπλίζονται υπεύθυνα, προσφέρουν τεράστιες ευκαιρίες στις κυβερνήσεις να βελτιώσουν την παροχή δημόσιων υπηρεσιών, να αυξήσουν την αποτελεσματικότητα και να προωθήσουν τη βιώσιμη, χωρίς αποκλεισμούς ανάπτυξη για όλους και να προωθήσουν την επίτευξη της Ατζέντας 2030 για τη Βιώσιμη Ανάπτυξη.

Ταυτόχρονα, ο σχεδιασμός, η ανάπτυξη, η προμήθεια, η εγκατάσταση, η χρήση και ο παροπλισμός συστημάτων ΤΝ χωρίς επαρκείς διασφαλίσεις ή κατά τρόπο που δεν συνάδει με το διεθνές δίκαιο ενέχουν κινδύνους που μπορούν να υπονομεύσουν την προστασία, την προώθηση και την ικανότητα άσκησης και απόλαυσης των ανθρωπίνων δικαιωμάτων και των θεμελιωδών ελευθεριών.

Τα εργαλεία τεχνητής νοημοσύνης μπορούν να δημιουργήσουν, να συμβάλουν ή να επιδεινώσουν κινδύνους που σχετίζονται με την ασφάλεια και το απόρρητο. την πλήρη άσκηση ή απόλαυση των ανθρωπίνων δικαιωμάτων και των θεμελιωδών ελευθεριών για όλους· εργασιακά δικαιώματα· δημοκρατία, χρηστή διακυβέρνηση και κράτος δικαίου· και ισότιμη πρόσβαση σε ευκαιρίες και κρίσιμους πόρους και υπηρεσίες. Αυτοί οι κίνδυνοι μπορεί να προκύψουν τόσο ως επιδιωκόμενες όσο και ως ακούσιες συνέπειες των ενεργειών των παραγόντων της τεχνητής νοημοσύνης και μπορεί να περιλαμβάνουν αλγοριθμική μεροληψία και διακρίσεις. την έκθεση ευαίσθητων προσωπικών δεδομένων· τη δημιουργία και τη διανομή καταχρηστικών και μη συναινετικών deepfakes· την ενίσχυση της διαδικτυακής παρενόχλησης και κακοποίησης βάσει ταυτότητας, συμπεριλαμβανομένης της βίας με βάση το φύλο που διευκολύνεται από την τεχνολογία· και την κατάχρηση εργαλείων τεχνητής νοημοσύνης για τη διευκόλυνση της καταστολής ή της αυθαίρετης ή παράνομης παρακολούθησης. Ο κίνδυνος βλάβης που διευκολύνεται ή ενισχύεται από συστήματα τεχνητής νοημοσύνης είναι ιδιαίτερα έντονος για πληθυσμούς που βιώνουν συστημικές μορφές βίας, διακρίσεων και καταπίεσης που σχετίζονται με το φύλο και την ταυτότητα και έκφραση φύλου, τη φυλή, την εθνικότητα, τον σεξουαλικό προσανατολισμό, το καθεστώς αναπηρίας ή τη θρησκεία.

Οι κίνδυνοι και οι επιπτώσεις σε άτομα μπορεί να είναι ιδιαίτερα έντονες στις χρήσεις της τεχνητής νοημοσύνης στον δημόσιο τομέα —για παράδειγμα, όταν χρησιμοποιείται για τη διεξαγωγή επιτήρησης, την ενημέρωση αποφάσεων στο δικαστικό σύστημα, την επιβολή του νόμου ή την παροχή κυβερνητικών υπηρεσιών ή τη διαμόρφωση άλλων κυβερνητικών λειτουργιών που μπορεί να επηρεάσουν δικαιώματα ή ασφάλεια. Τα μεροληπτικά εργαλεία τεχνητής νοημοσύνης που αναπτύσσονται χωρίς κατάλληλες διασφαλίσεις, ιδίως από τις κυβερνήσεις, μπορούν να επιδεινώσουν τις υπάρχουσες ανισότητες και να δημιουργήσουν νέες μορφές περιθωριοποίησης και ευπάθειας.

Μέσω του FOC και στις δικές μας εθνικές προσπάθειες, αναγνωρίζουμε ότι οι πολιτικές, οι διαδικασίες και οι κανονισμοί σχετικά με την τεχνητή νοημοσύνη πρέπει να προστατεύουν και να προωθούν τα ανθρώπινα δικαιώματα. Όπως διατυπώνεται στην Κοινή Δήλωση FOC 2020 για την Τεχνητή Νοημοσύνη και τα Ανθρώπινα Δικαιώματα, η FOC επιβεβαιώνει εκ νέου ότι τα κράτη πρέπει να τηρούν τις υποχρεώσεις τους βάσει του διεθνούς δικαίου των ανθρωπίνων δικαιωμάτων για να διασφαλίσουν ότι τα ανθρώπινα δικαιώματα γίνονται πλήρως σεβαστά και προστατεύονται.

Όπως σημειώνεται επίσης στις Κατευθυντήριες Αρχές του ΟΗΕ για τις Επιχειρήσεις και τα Ανθρώπινα Δικαιώματα (UNGPs), «τα κράτη πρέπει να προστατεύουν από την καταπάτηση των ανθρωπίνων δικαιωμάτων εντός της επικράτειάς τους ή/και της δικαιοδοσίας τους από τρίτα μέρη, συμπεριλαμβανομένων των επιχειρηματικών επιχειρήσεων». Αναγνωρίζουμε ότι οι κυβερνητικές πρακτικές, συμπεριλαμβανομένων των απαιτήσεων της κυβέρνησης για προμήθειες, μπορούν επίσης να διαμορφώσουν θετικά τις πρακτικές του ιδιωτικού τομέα ώστε να εκπληρώσουν την ευθύνη τους για σεβασμό των ανθρωπίνων δικαιωμάτων σύμφωνα με τα UNGPs.

Με την άνευ προηγουμένου εξερεύνηση και υιοθέτηση εργαλείων τεχνητής νοημοσύνης, είναι τώρα η ώρα για τις κυβερνήσεις να θεσπίσουν υπεύθυνες πρακτικές και πολιτικές τεχνητής νοημοσύνης που να σέβονται τα ανθρώπινα δικαιώματα. Ως κυβερνήσεις αφοσιωμένες στον σεβασμό των παγκόσμιων ανθρωπίνων δικαιωμάτων, της δημοκρατίας και του κράτους δικαίου, δεσμευόμαστε να ενσωματώσουμε υπεύθυνες πρακτικές τεχνητής νοημοσύνης στις πολιτικές και τις διαδικασίες μας για ανάπτυξη, προμήθεια και χρήση τεχνητής νοημοσύνης που επηρεάζουν τα ανθρώπινα δικαιώματα ή την ασφάλεια.

Τα παρακάτω μέτρα αντιπροσωπεύουν κοινές πρακτικές και αρχές για τις οποίες η εφαρμογή μπορεί να διαφέρει από χώρα σε χώρα, ανάλογα με τα νομικά πλαίσια και συστήματα, με ορισμένα πλαίσια να παρέχουν ακόμη πιο ισχυρές διασφαλίσεις, όπως η Σύμβαση Πλαίσιο του Συμβουλίου της Ευρώπης για την Τεχνητή Νοημοσύνη, τα Ανθρώπινα Δικαιώματα, τη Δημοκρατία και τον Κανόνα της Νομικής. Παρόμοια μη νομικά δεσμευτικά μέσα που διατυπώνουν την υπεύθυνη χρήση εργαλείων και δεδομένων παρακολούθησης περιλαμβάνουν το έργο του Freedom Online Coalition. τις αρχές του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ) για την τεχνητή νοημοσύνη, τις κατευθυντήριες γραμμές περί απορρήτου και τη δήλωση σχετικά με την πρόσβαση της κυβέρνησης σε προσωπικά δεδομένα που κατέχουν φορείς του ιδιωτικού τομέα· το ψήφισμα της Παγκόσμιας Συνέλευσης για την Προστασία Προσωπικών Δεδομένων σχετικά με την πρόσβαση της κυβέρνησης στα δεδομένα, το απόρρητο και το κράτος δικαίου· τη Σύσταση της UNESCO για την ηθική της τεχνητής νοημοσύνης· σχετικά ψηφίσματα του Συμβουλίου Ανθρωπίνων Δικαιωμάτων του ΟΗΕ και της Γενικής Συνέλευσης, συμπεριλαμβανομένου του ψηφίσματος σχετικά με την αξιοποίηση των ευκαιριών  ασφαλών και αξιόπιστων συστημάτων τεχνητής νοημοσύνης για βιώσιμη ανάπτυξη και την Καθοδήγηση του ΟΗΕ για τη δέουσα επιμέλεια για τα ανθρώπινα δικαιώματα για τη χρήση ψηφιακής τεχνολογίας. Αυτές οι πολιτικές και πρακτικές μπορεί να συμπληρώνουν τις προσπάθειες για την αντιμετώπιση άλλων επιπτώσεων της τεχνητής νοημοσύνης, όπως αυτές στο περιβάλλον. Ορισμένοι τομείς, όπως ο κυβερνητικός σχεδιασμός, η ανάπτυξη, η προμήθεια, η ανάπτυξη, η χρήση και ο παροπλισμός της τεχνητής νοημοσύνης για σκοπούς εθνικής ασφάλειας αντιμετωπίζονται καλύτερα μέσω χωριστών διαδικασιών και το πεδίο εφαρμογής αυτής της δέσμευσης δεν προορίζεται να εφαρμοστεί σε αυτά τα πλαίσια.

Καλούμε τις κυβερνήσεις:

  1. Σεβασμός Διεθνών Υποχρεώσεων και Δεσμεύσεων:Σχεδιάστε, αναπτύξτε, προμηθευτείτε, αναπτύξτε, χρησιμοποιήστε και παροπλίστε συστήματα τεχνητής νοημοσύνης με τρόπο συνεπή με την Οικουμενική Διακήρυξη των Ανθρωπίνων Δικαιωμάτων και το διεθνές δίκαιο, συμπεριλαμβανομένου του Χάρτη των Ηνωμένων Εθνών και του διεθνούς δικαίου των ανθρωπίνων δικαιωμάτων.
  2. Αξιολογήστε τις επιπτώσεις των συστημάτων τεχνητής νοημοσύνης σε περιβάλλοντα υψηλού κινδύνου* πριν από την ανάπτυξη και τη χρήση:Προσδιορίστε, αξιολογήστε, διαχειριστείτε και αντιμετωπίστε πιθανούς κινδύνους για τα ανθρώπινα δικαιώματα, την ισότητα, τη δικαιοσύνη και την ασφάλεια πριν από την ανάπτυξη και χρήση ενός συστήματος τεχνητής νοημοσύνης κατά περίπτωση – βάση υπόθεσης και να αποφύγετε την ανάπτυξη συστημάτων τεχνητής νοημοσύνης όπου οι κίνδυνοι είναι ασυμβίβαστοι με την προστασία των διεθνών ανθρωπίνων δικαιωμάτων. Η αξιολόγηση μπορεί να περιλαμβάνει:
    • Αξιολόγηση του επιδιωκόμενου σκοπού και των εύλογα προβλέψιμων χρήσεων των συστημάτων τεχνητής νοημοσύνης καθώς και των αναμενόμενων πλεονεκτημάτων τους για να διασφαλιστεί ότι η τεχνητή νοημοσύνη είναι κατάλληλη για την ολοκλήρωση της σχετικής εργασίας.
    • Εκτίμηση των πιθανών κινδύνων από τη χρήση τεχνητής νοημοσύνης σε ένα δεδομένο πλαίσιο, συμπεριλαμβανομένης της αξιολόγησης των πιθανών τρόπων αστοχίας του συστήματος τεχνητής νοημοσύνης και του ευρύτερου συστήματος, τόσο μεμονωμένα όσο και ως αποτέλεσμα ανθρώπινων χρηστών και άλλων πιθανών μεταβλητών εκτός του πεδίου εφαρμογής του ίδιου του συστήματος , τεκμηριώνοντας ποια ενδιαφερόμενα μέρη θα επηρεαστούν περισσότερο από το σύστημα τεχνητής νοημοσύνης και επιτρέποντας την ουσιαστική συμμετοχή των ενδιαφερομένων μερών σε όλη την αλυσίδα αξίας του συστήματος τεχνητής νοημοσύνης.
    • Αξιολόγηση της ποιότητας και της αντιπροσωπευτικότητας των δεδομένων που χρησιμοποιούνται στο σχεδιασμό, την ανάπτυξη, την εκπαίδευση, τη δοκιμή και τη λειτουργία συστημάτων τεχνητής νοημοσύνης και την καταλληλότητά τους στον επιδιωκόμενο σκοπό του συστήματος τεχνητής νοημοσύνης, στο μέτρο του δυνατού, συμπεριλαμβανομένης της αξιολόγησης:
      • Η διαδικασία συλλογής, προετοιμασίας, αποθήκευσης και διατήρησης δεδομένων, καθώς και η προέλευση οποιωνδήποτε δεδομένων που χρησιμοποιούνται για την εκπαίδευση, τη βελτίωση ή τη λειτουργία του συστήματος AI·
      • Η ποιότητα και η αντιπροσωπευτικότητα των δεδομένων για τον προορισμό τους·
      • Πώς τα δεδομένα σχετίζονται με την αυτοματοποιημένη εργασία και μπορεί εύλογα να αναμένεται ότι είναι χρήσιμα για την ανάπτυξη, τη δοκιμή και τη λειτουργία του συστήματος AI και
      • Εάν τα δεδομένα περιέχουν αρκετό εύρος για την αντιμετώπιση του εύρους των πραγματικών εισόδων που μπορεί να συναντήσει το σύστημα AI και πώς μπορούν να αντιμετωπιστούν τα κενά δεδομένων, οι ανακρίβειες δεδομένων και άλλες ελλείψεις.
    • Η δοκιμή του συστήματος τεχνητής νοημοσύνης για απόδοση σε ρεαλιστικές συνθήκες ή περιβάλλοντα για να διασφαλιστεί ότι η τεχνητή νοημοσύνη, καθώς και τα στοιχεία που βασίζονται σε αυτήν, θα επιτύχουν τον επιδιωκόμενο σκοπό του σε πραγματικές συνθήκες και εξετάζοντας την αξιοποίηση πιλότων και περιορισμένων εκδόσεων με ισχυρή παρακολούθηση, αξιολόγηση και πρακτικές διασφαλίσεις για τη διεξαγωγή των δοκιμών πριν από ευρύτερες απελευθερώσεις.
    • Δοκιμή ή διενέργεια εσωτερικών ελέγχων για ακρίβεια και μεροληψία που προκαλεί διακρίσεις, ιδίως όσον αφορά τη φυλή, την εθνικότητα, την αναπηρία, το φύλο, τη σεξουαλικότητα και την ταυτότητα και έκφραση φύλου.
  3. Διεξάγετε συνεχή παρακολούθηση συστημάτων τεχνητής νοημοσύνης σε περιβάλλοντα υψηλού αντίκτυπου κατά τη διάρκεια της χρήσης τους:Προσδιορίστε, αξιολογήστε και μετριάστε συστήματα τεχνητής νοημοσύνης που ενδέχεται να επηρεάσουν τα ανθρώπινα δικαιώματα, την ισότητα, τη δικαιοσύνη ή την ασφάλεια κατά τη χρήση, πραγματοποιώντας συνεχή παρακολούθηση για τον εντοπισμό, για παράδειγμα, υποβάθμισης της τεχνητής νοημοσύνης τη λειτουργικότητα των συστημάτων και τον εντοπισμό αλλαγών στον αντίκτυπο του συστήματος τεχνητής νοημοσύνης στην ισότητα, τη δικαιοσύνη, τα ανθρώπινα δικαιώματα και την ασφάλεια σε ολόκληρη την αλυσίδα αξίας της τεχνητής νοημοσύνης και τη διακοπή της χρήσης των συστημάτων τεχνητής νοημοσύνης το συντομότερο δυνατό, όταν ένα σύστημα τεχνητής νοημοσύνης κινδυνεύει για τα ανθρώπινα δικαιώματα ή η ασφάλεια υπερβαίνει ένα αποδεκτό επίπεδο και όπου οι στρατηγικές μετριασμού δεν μειώνουν επαρκώς τον κίνδυνο. Ενσωματώστε μηχανισμούς ανατροφοδότησης, συμπεριλαμβανομένων των  ενδιαφερομένων  μερών ή/και με τη συμμετοχή σε εξωτερικούς ελέγχους ή τη συμμετοχή σε αξιολογήσεις τρίτων, για να επιτραπεί η τεκμηριωμένη ανακάλυψη και αναφορά από τελικούς χρήστες και τρίτα μέρη τεχνικών τρωτών σημείων και καταχρήσεων του συστήματος τεχνητής νοημοσύνης και λάβετε μέτρα για τη διόρθωση και την αντιμετώπισή τους.
  4. Εξασφάλιση επαρκούς ανθρώπινης εκπαίδευσης και αξιολόγησης:Δημιουργία ικανότητας του σχετικού προσωπικού ώστε να κατανοεί επαρκώς τις δυνατότητες και τους περιορισμούς των συστημάτων τεχνητής νοημοσύνης, συμπεριλαμβανομένων των πιθανών επιπτώσεών τους στα ανθρώπινα δικαιώματα, μέσω της κατάλληλης εκπαίδευσης για την παροχή κατάλληλων βαθμών αξιολόγησης και επίβλεψης του συστήματος τεχνητής νοημοσύνης για να επιτρέψει σε αυτό το προσωπικό να ερμηνεύει και να ενεργεί επί των αποτελεσμάτων των συστημάτων τεχνητής νοημοσύνης, να αντιμετωπίζει ζητήματα ομαδοποίησης ανθρώπου-μηχανής (όπως η μεροληψία αυτοματισμού) και να διασφαλίζει ότι τα ανθρώπινα στοιχεία του συστήματος διαχειρίζονται αποτελεσματικά τους κινδύνους από τη χρήση του AI.
  5. Επικοινωνήστε και απαντήστε στο κοινό:Δημοσιοποιήστε τις διαθέσιμες πολιτικές σχετικά με τον τρόπο με τον οποίο οι κυβερνήσεις θα προστατεύουν τα ανθρώπινα δικαιώματα στο πλαίσιο των δραστηριοτήτων τους AI. Καθιερώστε διαδικασίες για τη δημόσια αποκάλυψη χρήσεων υψηλού κινδύνου συστημάτων τεχνητής νοημοσύνης και αναζητήστε και ενσωματώστε σχόλια από τους ενδιαφερόμενους ή το κοινό σχετικά με τις χρήσεις συστημάτων τεχνητής νοημοσύνης που επηρεάζουν την ισότητα, τη δικαιοσύνη, τα ανθρώπινα δικαιώματα και την ασφάλεια, συμπεριλαμβανομένης της παροχής και διατήρησης επιλογών εξαίρεσης λήψης αποφάσεων με δυνατότητα AI, όταν χρειάζεται.
  6. Παροχή αποτελεσματικής πρόσβασης σε ένδικα μέσα:Παροχή και διευκόλυνση της πρόσβασης σε έγκαιρη ανθρώπινη προσοχή και αποτελεσματική θεραπεία, εάν χρειάζεται, όταν τα άτομα έχουν επηρεαστεί αρνητικά σε όλη την αλυσίδα αξίας των συστημάτων τεχνητής νοημοσύνης, συμπεριλαμβανομένης της ανάπτυξης σαφών, λεπτομερών πρωτοκόλλων για έγκαιρη επανόρθωση σε περίπτωση παραβίασης των δικαιωμάτων ή της ασφάλειας ενός ατόμου, τα οποία περιλαμβάνουν κατευθυντήριες γραμμές σχετικά με τη διαδικασία, τις υπεύθυνες οντότητες και τα χρονοδιαγράμματα· ειδοποίηση ατόμων όταν ένα σύστημα τεχνητής νοημοσύνης καταλήγει σε μια αρνητική απόφαση ή ενέργεια που επηρεάζει τα ανθρώπινα δικαιώματα ή την ασφάλειά τους· και παροχή σχετικών πληροφοριών που απαιτούνται ώστε τα άτομα να αναζητήσουν επανόρθωση.
  7. Προμηθευτείτε ασφαλή, ασφαλή και αξιόπιστη τεχνητή νοημοσύνη:Ενσωματώστε τις παραπάνω πρακτικές στις διαδικασίες προμηθειών ως απαραίτητες προϋποθέσεις, ανάλογα με την περίπτωση, έτσι ώστε οι εξωτερικοί προμηθευτές που σχεδιάζουν, αναπτύσσουν, χρησιμοποιούν ή παροπλίζουν συστήματα τεχνητής νοημοσύνης για λογαριασμό των κυβερνήσεών μας, να τηρούν υψηλά πρότυπα ασφάλειας και αξιοπιστία, όπως πρότυπα ανθρωπίνων δικαιωμάτων και εργασιακών δικαιωμάτων, τα οποία μπορεί να περιλαμβάνουν:
    • Λήψη κατάλληλης τεκμηρίωσης για την αξιολόγηση των δυνατοτήτων του συστήματος τεχνητής νοημοσύνης, όπως μέσω της χρήσης μοντέλου, δεδομένων και καρτών συστήματος, καθώς και τεκμηρίωσης γνωστών περιορισμών του συστήματος τεχνητής νοημοσύνης και τυχόν κατευθυντήριων γραμμών σχετικά με τον τρόπο με τον οποίο προορίζεται να χρησιμοποιηθεί το σύστημα.
    • Λήψη επαρκών πληροφοριών σχετικά με την προέλευση των δεδομένων και άλλων εισροών στο σύστημα τεχνητής νοημοσύνης σε όλη την αλυσίδα αξίας του που χρησιμοποιείται για την εκπαίδευση, τη βελτίωση ή τη λειτουργία του συστήματος τεχνητής νοημοσύνης, προκειμένου να αξιολογηθεί η ποιότητα των δεδομένων που χρησιμοποιούνται στο σύστημα.
    • Αξιολόγηση εάν υπάρχουν επαρκή μέτρα για την πρόληψη, την αντιμετώπιση και τον μετριασμό των κινδύνων για τα ανθρώπινα δικαιώματα και τα εργασιακά δικαιώματα του συστήματος τεχνητής νοημοσύνης σε όλη την αλυσίδα αξίας του πωλητή, σύμφωνα με τις Θεμελιώδεις Αρχές και Δικαιώματα της ΔΟΕ στην εργασία, τις κατευθυντήριες αρχές του ΟΗΕ για τις επιχειρήσεις και τα ανθρώπινα δικαιώματα , τις κατευθυντήριες γραμμές του ΟΟΣΑ για τις πολυεθνικές επιχειρήσεις σχετικά με την υπεύθυνη επιχειρηματική συμπεριφορά και άλλα διεθνή πρότυπα· συμπεριλαμβανομένων των κινδύνων παραβίασης των ανθρωπίνων δικαιωμάτων που μπορεί να προκύψουν σε σχέση με την αγορά και την ενσωμάτωση δεδομένων ή συστημάτων τεχνητής νοημοσύνης από τρίτους προμηθευτές, όπως κίνδυνοι για το απόρρητο και κενά στη διαφάνεια·
    • Τακτική αξιολόγηση των ισχυρισμών που διατυπώνονται από πωλητές σχετικά τόσο με την αποτελεσματικότητα των προσφορών τεχνητής νοημοσύνης όσο και με τα μέτρα διαχείρισης κινδύνου που εφαρμόζονται, συμπεριλαμβανομένης της δοκιμής του συστήματος τεχνητής νοημοσύνης στο συγκεκριμένο περιβάλλον όπου η κυβέρνηση αναμένει να αναπτύξει τη δυνατότητα·
    • Συμπεριλαμβανομένων των συμβάσεων που δίνουν κίνητρα για τη συνεχή βελτίωση του αγορασμένου συστήματος τεχνητής νοημοσύνης· και
    • Απαιτείται επαρκής παρακολούθηση του συστήματος τεχνητής νοημοσύνης μετά την ανάθεση, όπου χρειάζεται στο πλαίσιο του προϊόντος ή της υπηρεσίας που αποκτήθηκε.

Η τεχνητή νοημοσύνη μπορεί να βοηθήσει στην αντιμετώπιση των μεγαλύτερων προκλήσεων της κοινωνίας και στην περαιτέρω πρόοδο προς την Ατζέντα του 2030 και τους Στόχους Βιώσιμης Ανάπτυξης. Μαζί, δεσμευόμαστε να αναπτύξουμε και να χρησιμοποιήσουμε την τεχνητή νοημοσύνη υπεύθυνα και καλούμε όλες τις κυβερνήσεις να ενωθούν μαζί μας.

*Για τους σκοπούς αυτής της κοινής δήλωσης, η τεχνητή νοημοσύνη υψηλού κινδύνου αναφέρεται σε συστήματα τεχνητής νοημοσύνης που επηρεάζουν τα ανθρώπινα δικαιώματα ή/και την ασφάλεια, κάτι που μπορεί να είναι πιο πιθανό σε τομείς όπως η υγειονομική περίθαλψη, η επιβολή του νόμου και η δικαιοσύνη και η παροχή δημοσίων οφελών.

Σχετικά Άρθρα