Πώς μεγάλες εταιρείες χρησιμοποιούν Τεχνητή Νοημοσύνη για να «παρακολουθούν» τα μηνύματα των εργαζομένων τους

Το μυθιστόρημά του «1984» ο Τζορτζ Όργουελ έγραφε για τον «Μεγάλο Αδελφό» που παρακολουθούσε τους πολίτες του. Πλέον, η Τεχνητή Νοημοσύνη μπορεί να αναλύει τα μηνύματα στο Slack, το Microsoft Teams, το Zoom και άλλες δημοφιλείς εφαρμογές.

Τεράστιες εταιρείες στις ΗΠΑ όπως η Walmart, η Delta Air Lines, η T-Mobile, η Chevron, η Starbucks, αλλά και ευρωπαϊκές όπως η Nestle και η AstraZeneca, έχουν στραφεί σε μια startup με ζωή 7 ετών, την Aware, για να παρακολουθούν τις συνομιλίες των στελεχών τους.

Ο συνιδρυτής και διευθυντής σύμβουλος της Aware, Τζεφ Σούμαν, με έδρα το Κολόμπους του Οχάιο δήλωσε στο CNBC, πως η Τεχνητή Νοημοσύνη βοηθά τις εταιρείες να «κατανοήσουν τον κίνδυνο μέσα στις επικοινωνίες τους», έχοντας ενημέρωση για τα συναισθήματα των εργαζομένων τους σε πραγματικό χρόνο, αντί να εξαρτώνται από μια ετήσια ή δύο φορές τον χρόνο έρευνα.

Χρησιμοποιώντας τα ανώνυμα δεδομένα στο προϊόν ανάλυσης της Aware, οι πελάτες μπορούν να δουν πώς οι εργαζόμενοι, μιας συγκεκριμένης ηλικιακής ομάδας ή μιας συγκεκριμένης γεωγραφικής περιοχής, ανταποκρίνονται σε μια νέα εταιρική πολιτική ή σε μια εκστρατεία μάρκετινγκ, σύμφωνα με τον Σούμαν.

Τα δεκάδες μοντέλα Τεχνητής Νοημοσύνης της Aware, τα οποία έχουν κατασκευαστεί για να διαβάζουν κείμενο και να επεξεργάζονται εικόνες, μπορούν επίσης να εντοπίσουν τον εκφοβισμό, τις διακρίσεις, τη μη συμμόρφωση, την πορνογραφία, το γυμνό και άλλες συμπεριφορές, όπως σημείωσε.

Κατά τον διευθύνοντα σύμβουλο της Aware, το εργαλείο ανάλυσης της εταιρείας του που παρακολουθεί το συναίσθημα και την τοξικότητα των εργαζομένων δεν έχει τη δυνατότητα να επισημαίνει μεμονωμένα ονόματα εργαζομένων. Αλλά το ξεχωριστό εργαλείο eDiscovery μπορεί να το κάνει, σε περίπτωση ακραίων απειλών ή άλλων συμπεριφορών κινδύνου που προκαθορίζονται από τον πελάτη.

Οι κίνδυνοι

Η Τζούτα Γουίλιαμς, συνιδρύτρια της ΜΚΟ Humane Intelligence που ασχολείται με τη λογοδοσία για την Τεχνητή Νοημοσύνη, δήλωσε ότι η AI προσθέτει μια νέα και δυνητικά προβληματική πτυχή στα λεγόμενα προγράμματα κινδύνου εκ των έσω, τα οποία υπάρχουν εδώ και χρόνια για την αξιολόγηση πραγμάτων όπως η εταιρική κατασκοπεία, ιδίως στο πλαίσιο των επικοινωνιών μέσω ηλεκτρονικού ταχυδρομείου.

Η AI επιτήρησης εργαζομένων είναι ένα ταχέως αναπτυσσόμενο αλλά εξειδικευμένο κομμάτι μιας ευρύτερης αγοράς Τεχνητής Νοημοσύνης που έχει καταγράψει«έκρηξη» τον τελευταίο χρόνο, μετά την κυκλοφορία του chatbot ChatGPT της OpenAI.

Τα έσοδα της Aware έχουν αυξηθεί κατά 150% ετησίως κατά μέσο όρο τα τελευταία πέντε χρόνια, όπως δήλωσε ο Σούμαν στο CNBC και ένας τυπικός πελάτης της έχει περίπου 30.000 υπαλλήλους.

Πώς λειτουργεί

Κάθε χρόνο, η εταιρεία δημοσιεύει μια έκθεση που συγκεντρώνει πληροφορίες από τα δισεκατομμύρια μηνύματα που αποστέλλονται σε μεγάλες εταιρείες, καταγράφοντας σε πίνακες τους παράγοντες υπαρκτού κινδύνου και τις βαθμολογίες συναισθήματος στον χώρο εργασίας.

Αν συμπεριληφθούν και άλλοι τύποι περιεχομένου που κοινοποιούνται, όπως εικόνες και βίντεο, η Τεχνητή Νοημοσύνη της Aware αναλύει περισσότερα από 100 εκατομμύρια κομμάτια περιεχομένου κάθε μέρα. Με αυτόν τον τρόπο, η τεχνολογία δημιουργεί ένα κοινωνικό γράφημα της εταιρείας, εξετάζοντας ποιες ομάδες μιλούν εσωτερικά μεταξύ τους περισσότερο από άλλες.
Ανησυχία σχετικά με την προστασία της ιδιωτικότητας

Η Άμπα Κακ, εκτελεστική διευθύντρια του Ινστιτούτου AI Now στο Πανεπιστήμιο της Νέας Υόρκης, ανησυχεί για τη χρήση της AI για να βοηθήσει στον προσδιορισμό του τι θεωρείται επικίνδυνη συμπεριφορά.

«Αυτό έχει ως αποτέλεσμα την αναχαίτιση των όσων λένε οι άνθρωποι στο χώρο εργασίας», δήλωσε η Κακ, προσθέτοντας ότι η Ομοσπονδιακή Επιτροπή Εμπορίου, το Υπουργείο Δικαιοσύνης και η Επιτροπή Ίσων Ευκαιριών Απασχόλησης έχουν εκφράσει ανησυχίες για το θέμα, αν και δεν μίλησε συγκεκριμένα για την τεχνολογία της Aware. «Πρόκειται τόσο για ζητήματα δικαιωμάτων των εργαζομένων όσο και για ζητήματα προστασίας της ιδιωτικότητας».

πηγή
cnbc