Η γενετική τεχνητή νοημοσύνη θα εμβαθύνει το πρόβλημα της παραπληροφόρησης

Οι ειδικοί λένε ότι το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη θα μπορούσε σύντομα να αντιπροσωπεύει το 99% ή περισσότερο όλων των πληροφοριών στο Διαδίκτυο, επιβαρύνοντας περαιτέρω τα ήδη καταπονημένα συστήματα εποπτείας περιεχομένου, αναφέρει η επικεφαλής τεχνολογική ανταποκρίτρια της Axios, Ina Fried.

Δεκάδες “ειδησεογραφικοί ιστότοποι” γεμάτοι με περιεχόμενο αμφίβολης ποιότητας που δημιουργείται από μηχανή έχουν ήδη εμφανιστεί .

Γιατί έχει σημασία: Τα συστήματα παραγωγής τεχνητής νοημοσύνης μπορούν να ανακυκλώσουν θεωρίες συνωμοσίας και άλλες  πηγές παραπληροφόρησης  που βρίσκονται στον ανοιχτό ιστό.

 Επίπεδο απειλής: Η καθηγήτρια του Πανεπιστημίου της Ουάσιγκτον, Kate Starbird , ειδικός στους τρόπους με τους οποίους οι άνθρωποι χρησιμοποιούν τα μέσα κοινωνικής δικτύωσης κατά τη διάρκεια κρίσεων, είπε στο Axios ότι η γενετική τεχνητή νοημοσύνη θα εμβαθύνει το πρόβλημα της παραπληροφόρησης με τρεις βασικούς τρόπους.

  1. Η γενετική τεχνητή νοημοσύνη είναι εξαιρετική στο να εκτοξεύει παραπληροφόρηση.«Το Generative AI δημιουργεί περιεχόμενο που ακούγεται λογικό και αληθοφανές, αλλά ελάχιστη σημασία έχει για την ακρίβεια», είπε ο Starbird. «Λειτουργεί δηλαδή ως γεννήτρια BS». Ορισμένες μελέτες δείχνουν ότι η παραπληροφόρηση που δημιουργείται από την τεχνητή νοημοσύνη είναι ακόμη πιο πειστική από το ψευδές περιεχόμενο που δημιουργείται από ανθρώπους.
  2. Το Generative AI βοηθά όσους επιδιώκουν σκόπιμα να παραπλανήσουν.«Η γενετική τεχνητή νοημοσύνη καθιστά εξαιρετικά φθηνή και εύκολη τη δημιουργία περιεχομένου — συμπεριλαμβανομένων μικρο-στοχευμένων μηνυμάτων για συγκεκριμένο κοινό», δήλωσε ο Starbird.
  3. Τα ίδια τα παραγωγικά μοντέλα τεχνητής νοημοσύνης προσφέρουν έναν νέο στόχογια τους προμηθευτές παραπληροφόρησης. «Οι επίδοξοι χειριστές μπορεί να επιδιώξουν να «δηλητηριάσουν» ή να διαμορφώσουν στρατηγικά τα αποτελέσματα αυτών των μοντέλων τροφοδοτώντας το περιεχόμενό τους στις εισόδους», είπε ο Starbird.

 Συνέχεια εδώ

Σχετικά Άρθρα