
Η Microsoft θέλει τα chatbot της να κάνουν ελέγχους ευεξίας με δίπλωμα ευρεσιτεχνίας ανίχνευσης συναισθημάτων
Η Microsoft θέλει τα chatbot της να κάνουν ελέγχους ευεξίας.
Η εταιρεία επιδιώκει να κατοχυρώσει με δίπλωμα ευρεσιτεχνίας έναν τρόπο για τη συνομιλητική τεχνητή νοημοσύνη να παρέχει « συναισθηματική φροντίδα σε μια συνεδρία ». Η αρχειοθέτηση της Microsoft περιγράφει ένα σύστημα που ισοδυναμεί με ένα chatbot συναισθηματικής υποστήριξης που προορίζεται να προσφέρει ψυχολογική και γνωστική παρακολούθηση. Αν και η κατάθεση διπλώματος ανέφερε ότι αυτή η τεχνολογία είναι για άτομα όλων των ηλικιών, σημειώνει ότι μπορεί να είναι ιδιαίτερα επωφελής για τους μεγαλύτερους χρήστες.
«Μια πρόκληση για αυτούς τους ηλικιωμένους είναι πώς μπορούν να περάσουν 20 ή περισσότερα χρόνια μετά τη συνταξιοδότησή τους σε έναν υγιεινό τρόπο ζωής», ανέφερε η Microsoft στην κατάθεση. “Η συναισθηματική φροντίδα που παρέχεται από τις ενσωματώσεις της παρούσας αποκάλυψης θα ήταν ωφέλιμη για τον χρήστη να ζήσει με έναν υγιή τρόπο.”
Η χρήση της τεχνητής νοημοσύνης για συναισθηματική ανίχνευση και ταξινόμηση φαίνεται να είναι ένα τρέχον θέμα με ορισμένες πρόσφατες καταθέσεις διπλωμάτων ευρεσιτεχνίας Big Tech: Η Nvidia θέλει να κατοχυρώσει με δίπλωμα ευρεσιτεχνίας έναν τρόπο συλλογής συναισθημάτων από δεδομένα ήχου , η Apple θέλει να οπτικοποιήσει το άγχος σας με γενετική τεχνητή νοημοσύνη , το Snap εργάζεται για τα συναισθήματα- βασίζεται σε κείμενο σε ομιλία και η Amazon θέλει να πει αν είστε θυμωμένοι με την Alexa. |
Η ίδια η Microsoft έχει αναζητήσει παρόμοια διπλώματα ευρεσιτεχνίας, συμπεριλαμβανομένου ενός που θέλει να ρυθμίσει τον συναισθηματικό τόνο στα επαγγελματικά μηνύματα προς τους συναδέλφους. Ο τεχνολογικός γίγαντας είχε επίσης στο παρελθόν ένα chatbot που ονομάζεται Xiaoice , ένα κινεζικό chatbot που προορίζεται να προσφέρει συνομιλίες με ενσυναίσθηση με τους χρήστες του, τις οποίες δημιούργησε στη δική του οντότητα το 2020. Επιπλέον, τα συναισθηματικά συμπαθητικά chatbot είναι ήδη ευρέως διαδεδομένα. |
Η κύρια διαφορά με αυτό το αρχείο είναι η δυνατότητά του να ελέγχει και να παρακολουθεί την ψυχολογική και γνωστική κατάσταση ενός χρήστη, τόσο με όσο και χωρίς να το αντιλαμβάνεται. Εκεί βρίσκεται η πιθανότητα προβλημάτων, είπε ο Brian P. Green, διευθυντής τεχνολογικής δεοντολογίας στο Markkula Center for Applied Ethics στο Πανεπιστήμιο Santa Clara. |
Ακόμα κι αν η Microsoft έχει τις καλύτερες προθέσεις για το πώς θα μπορούσε να χρησιμοποιηθεί αυτή η τεχνολογία, οι χρήστες πρέπει να έχουν υψηλό επίπεδο εμπιστοσύνης στις εταιρείες που παρέχουν αυτές τις υπηρεσίες, είπε ο Green, καθώς τους απαιτεί να προσφέρουν πολύ ευαίσθητα και προσωπικά δεδομένα σε δυνητικά ευάλωτες καταστάσεις του μυαλού. |
«Ο λόγος που οι άνθρωποι εμπιστεύονται τα συνταγογραφούμενα φάρμακα, για παράδειγμα, είναι επειδή έχουν περάσει από μια μακρά διαδικασία έγκρισης», είπε ο Green. «Μου φαίνεται ότι με πολλά προϊόντα τεχνητής νοημοσύνης, πηγαίνουμε κατευθείαν στην ανάπτυξη στο κοινό, όταν ίσως στην πραγματικότητα χρειάζεται να περάσουν από περισσότερες δοκιμές». |
Επιπλέον, η συναισθηματική ανίχνευση που βασίζεται σε AI είναι συχνά ανακριβής. Επειδή οι άνθρωποι σε διαφορετικούς πολιτισμούς και γενιές συγκινούν με πολύ διαφορετικούς τρόπους, είπε ο Green, η δημιουργία ενός συστήματος τεχνητής νοημοσύνης που μπορεί να καταγράψει και να κατανοήσει όλα αυτά είναι ένα απίστευτα δύσκολο έργο. «Εξαρτάται πολύ από τα δεδομένα και εάν λαμβάνετε διαφορετικά δεδομένα από παγκόσμια προοπτική για πολλές διαφορετικές εθνοτικές ομάδες. |
Πηγή:thedailyupside.com