Υπάλληλος έφτιαξε ψεύτικη φωτογραφία τραυματισμού για να πάρει άδεια! ΦΩΤΟ

Ένας υπάλληλος χρησιμοποίησε την τεχνητή νοημοσύνη της Google Gemini για να δημιουργήσει μια ψεύτικη φωτογραφία τραυματισμού, ώστε να εξασφαλίσει άδεια μετ' αποδοχών από το τμήμα Ανθρώπινου Δυναμικού, την οποία κοινοποίησε ένας διευθύνων σύμβουλος στο LinkedIn για να προειδοποιήσει τις εταιρείες.

Ένας διευθύνων σύμβουλος κοινοποίησε ένα περίεργο περιστατικό στα μέσα κοινωνικής δικτύωσης που αφορούσε έναν υπάλληλο που χρησιμοποίησε την τεχνητή νοημοσύνη Gemini Nano για να προσποιηθεί ότι τραυματίστηκε και να εξασφαλίσει άδεια μετ’ αποδοχών.

Σύμφωνα με τον Shreyash Nirmal, Ιδρυτή και Διευθύνοντα Σύμβουλο της GorillaTrend Technologies, ο υπάλληλος απλώς πήγαινε στο γραφείο όταν τράβηξε μια κανονική φωτογραφία του χεριού του.

Θέλοντας να πάρει άδεια χωρίς καμία διαφωνία ή διαπραγμάτευση, ο υπάλληλος άνοιξε το Gemini Nano και πληκτρολόγησε μια σύντομη προτροπή: «Εφαρμόστε έναν τραυματισμό στο χέρι σας». Μέσα σε δευτερόλεπτα, η Τεχνητή Νοημοσύνη δημιούργησε ένα υπερρεαλιστικό τραύμα, αρκετά αιχμηρό ώστε να φαίνεται ιατρικά πειστικό.

Ο Νίρμαλ παρατήρησε πόσο εύκολο ήταν: η Τεχνητή Νοημοσύνη είχε προκαλέσει έναν τραυματισμό που φαινόταν πραγματικός.

Σύμφωνα με τον ίδιο, ο υπάλληλος στη συνέχεια προώθησε την επεξεργασμένη φωτογραφία στο τμήμα HR μέσω WhatsApp, ισχυριζόμενος ότι είχε πέσει από το ποδήλατό του και χρειαζόταν να επισκεφτεί γιατρό.

Βλέποντας τον τραυματισμό που φαινόταν ρεαλιστικός, ο εκπρόσωπος ανθρώπινου δυναμικού ανέφερε αμέσως το θέμα στον διευθυντή, ο οποίος απάντησε με ανησυχία: «Παρακαλώ πηγαίνετε στον γιατρό και ξεκουραστείτε. Η άδειά σας μετ’ αποδοχών έχει εγκριθεί».

Αυτό που δεν γνώριζε το Τμήμα Ανθρώπινου Δυναμικού ήταν ότι δεν είχε υπάρξει κανένα ατύχημα, αλλά μόνο ένα τραύμα που δημιουργήθηκε από Τεχνητή Νοημοσύνη.

Ο Νίρμαλ χρησιμοποίησε αυτό το παράδειγμα για να εξηγήσει ότι οι ομάδες ανθρώπινου δυναμικού εξακολουθούσαν να βασίζονται σε μεγάλο βαθμό σε φωτογραφίες που υποβάλλουν οι εργαζόμενοι ως απόδειξη και ότι οι περισσότεροι οργανισμοί δεν ήταν ακόμη προετοιμασμένοι για μια τέτοια απρόσκοπτη χειραγώγηση από την Τεχνητή Νοημοσύνη.

Αυτό, προειδοποίησε, θα μπορούσε να ανοίξει το δρόμο για κάθε είδους κακή χρήση, που κυμαίνεται από ψευδή αιτήματα άδειας μετ’ αποδοχών έως πιο σοβαρά ζητήματα όπως η ασφαλιστική απάτη. «Αυτό το περιστατικό δεν είναι φανταστικό», τόνισε, προσθέτοντας ότι τα εργαλεία τεχνητής νοημοσύνης γίνονται αρκετά ισχυρά για να κατασκευάσουν «εξαιρετικά πιστά στοιχεία».

«Η τεχνολογία είναι ουδέτερη. Οι προθέσεις μας καθορίζουν τον αντίκτυπο», έγραψε, ζητώντας από τις εταιρείες να ενισχύσουν τις διαδικασίες επαλήθευσης προτού η εξαπάτηση με την τεχνητή νοημοσύνη γίνει συνηθισμένη.

Η ανάρτηση πυροδότησε επίσης συζήτηση στην ενότητα σχολίων. Ορισμένοι χρήστες υποστήριξαν ότι οι οργανισμοί θα πρέπει να δώσουν προτεραιότητα στην εμπιστοσύνη έναντι της επιτήρησης, γράφοντας ότι οι εργαζόμενοι δεν θα πρέπει να αισθάνονται υποχρεωμένοι να παρέχουν αιτήματα αδείας με φωτογραφίες.

Ένας χρήστης έγραψε: «Αυτό που πιστεύω είναι ότι η εταιρεία πρέπει να χτίσει μια κουλτούρα όπου οι εργαζόμενοι θα είναι αξιόπιστοι χωρίς να χρειάζεται να το αποδεικνύουν με τέτοιες φωτογραφίες».

Άλλοι επεσήμαναν ότι οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη της Google συνοδεύονταν από ετικέτες SynthID, πράγμα που σημαίνει ότι το τμήμα HR μπορούσε τεχνικά να επαληθεύσει εάν μια φωτογραφία είχε τροποποιηθεί, γεγονός που αποτελούσε ένδειξη ότι οι εταιρείες πρέπει να αρχίσουν να ενημερώνουν τα συστήματά τους το συντομότερο δυνατό.

Δείτε τις ΦΩΤΟ ΕΔΩ και ΕΔΩ

photo: pixabay

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

ΠΑΡΑΞΕΝΑ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί