Η OpenAI προειδοποιεί για επικείμενους κινδύνους από μοντέλα τεχνητής νοημοσύνης
Η OpenAI εξέδωσε προειδοποίηση σχετικά με τα επικείμενα μοντέλα τεχνητής νοημοσύνης, τα οποία ενέχουν υψηλότερο επίπεδο κινδύνου όσον αφορά τη δημιουργία βιολογικών όπλων, ιδίως από άτομα χωρίς σχετικό υπόβαθρο. Η εταιρεία και η κοινωνία γενικότερα πρέπει να είναι προετοιμασμένες για ένα μέλλον όπου οι ερασιτέχνες θα μπορούν ευκολότερα να δημιουργούν εξελιγμένους παράγοντες.
Κυριότερα σημεία:
- Επικείμενος κίνδυνος: Η OpenAI αναμένει ότι τα επερχόμενα μοντέλα θα φτάσουν σε υψηλό επίπεδο κινδύνου βάσει του πλαισίου ετοιμότητας της εταιρείας. Η εταιρεία εντείνει τις δοκιμές αυτών των μοντέλων και λαμβάνει επιπλέον προφυλάξεις για να αποτρέψει τη χρήση τους στη δημιουργία βιολογικών όπλων.
- “Novice uplift”: Η OpenAI εκφράζει ανησυχία για το φαινόμενο που ονομάζει “novice uplift”, δηλαδή την ικανότητα των μοντέλων να επιτρέπουν σε άτομα χωρίς υπόβαθρο στη βιολογία να πραγματοποιούν δυνητικά επικίνδυνες ενέργειες. Ο Johannes Heidecke, επικεφαλής των συστημάτων ασφαλείας της OpenAI, διευκρίνισε ότι η εταιρεία ανησυχεί περισσότερο για την αναπαραγωγή πραγμάτων με τα οποία οι ειδικοί είναι ήδη εξοικειωμένοι, παρά για τη δημιουργία εντελώς νέων βιολογικών απειλών.
- Απαιτήσεις ασφάλειας: Ο Heidecke τόνισε ότι τα συστήματα ανίχνευσης και αποτροπής της επιβλαβούς χρήσης πρέπει να είναι σχεδόν τέλεια. Ανέφερε ότι ακόμα και μια απόδοση της τάξης του 99% ή ένα λάθος στις 100.000 δεν είναι επαρκές.
- Παρόμοια προβλήματα: Η OpenAI δεν είναι η μόνη εταιρεία που προειδοποιεί για τέτοιους κινδύνους. Η Anthropic, κατά την κυκλοφορία του Claude 4 τον προηγούμενο μήνα, ανέφερε ότι ενεργοποίησε νέες προφυλάξεις λόγω του πιθανού κινδύνου το μοντέλο να βοηθήσει στη διάδοση βιολογικών και πυρηνικών απειλών.
Επόμενα βήματα και προοπτικές:
- Συνεργασίες: Η OpenAI θα διοργανώσει μια εκδήλωση τον επόμενο μήνα με τη συμμετοχή μη κερδοσκοπικών οργανισμών και κυβερνητικών ερευνητών για να συζητήσουν τις ευκαιρίες και τους κινδύνους που υπάρχουν. Η εταιρεία επιδιώκει επίσης να επεκτείνει τη συνεργασία της με τα εθνικά εργαστήρια των ΗΠΑ και την κυβέρνηση γενικότερα.
- Καταπολέμηση της κατάχρησης: Ο Chris Lehane, επικεφαλής πολιτικής της OpenAI, δήλωσε ότι η εταιρεία θα διερευνήσει τρόπους για να χρησιμοποιήσει την ίδια την τεχνολογία για την καταπολέμηση όσων προσπαθούν να την κάνουν κακή χρήση.
- Ηγετικός ρόλος των ΗΠΑ: Ο Lehane υπογράμμισε τη σημασία η ανάπτυξη της τεχνητής νοημοσύνης παγκοσμίως να ηγηθεί από τις Ηνωμένες Πολιτείες.
- Διπλή χρήση: Τέλος, αναγνωρίζεται ότι οι ίδιες δυνατότητες που μπορούν να βοηθήσουν την τεχνητή νοημοσύνη στην ανακάλυψη ιατρικών καινοτομιών μπορούν επίσης να χρησιμοποιηθούν για βλάβη.
mywaypress.gr – Για αναγνώστες με μεγάλο εύρος προσοχής




