Παράνομα chatbot AI στο σκοτεινό δίκτυο εκπαιδεύουν στο κυβερνοέγκλημα επιτήδειους!!!

Chatbots με δυνατότητες εγκληματικότητας εμφανίζονται στον σκοτεινό ιστό και - όπως το ChatGPT - η πρόσβαση δίνεται με μια μέτρια μηνιαία συνδρομή ή εφάπαξ χρέωση.

Αυτά τα μοντέλα εκμάθησης ξένων γλωσσών, όπως είναι τεχνικά γνωστά, ουσιαστικά χρησιμεύουν ως εργαλειοθήκη για εξελιγμένους διαδικτυακούς απατεώνες.

Αρκετά σκοτεινά web chatbot, DarkBERT, WormGPT και FraudGPT – το τελευταίο από τα οποία κοστίζει 200 ​​$ το μήνα ή 1.700 $ ετησίως – έχουν πρόσφατα τραβήξει την προσοχή της εταιρείας κυβερνοασφάλειας SlashNext. Επισημάνθηκαν επειδή είχαν τη δυνατότητα να δημιουργήσουν απάτες ηλεκτρονικού “ψαρέματος” και ψεύτικα κείμενα μέσω εξαιρετικά πιστευτών εικόνων.


Τα chatbots με εγκληματικές δυνατότητες γίνονται όλο και πιο προσιτά, εμπνέοντας περισσότερα εγκλήματα στον κυβερνοχώρο.
Η εταιρεία βρήκε στοιχεία ότι ο DarkBERT πούλησε παράνομα διευθύνσεις email “.edu” προς 3 $ το ένα σε απατεώνες που υποδύονταν ακαδημαϊκά ιδρύματα. Αυτά χρησιμοποιούνται για την παράνομη πρόσβαση σε φοιτητικές προσφορές και εκπτώσεις σε αγορές όπως το Amazon.

Ένα άλλο πρόβλημα, που διευκολύνεται από το FraudGPT, περιλαμβάνει τη συλλογή τραπεζικών πληροφοριών κάποιου, παρουσιάζοντας ως αξιόπιστη οντότητα, όπως η ίδια η τράπεζα.

Αυτού του είδους οι απάτες δεν είναι κάτι καινούργιο, αλλά είναι πιο προσιτές από ποτέ χάρη στην τεχνητή νοημοσύνη, προειδοποιεί η Lisa Palmer, στρατηγική τεχνητής νοημοσύνης για την εταιρεία συμβούλων AI Leaders.


Οι κυβερνοεγκληματίες χρησιμοποιούν μερικές από τις πιο τρομακτικές ικανότητες της τεχνητής νοημοσύνης.


«Πρόκειται για έγκλημα που μπορεί να εξατομικευτεί σε τεράστια κλίμακα. [Οι απατεώνες] μπορούν να δημιουργήσουν καμπάνιες που είναι εξαιρετικά εξατομικευμένες για χιλιάδες στοχευμένα θύματα, αντί να χρειάζεται να δημιουργήσουν μία κάθε φορά», είπε στο The Post, προσθέτοντας ότι είναι πλέον εύκολο να δημιουργηθούν δόλια, ψεύτικα βίντεο και ήχος.

Επιπλέον, αυτές οι επιθέσεις δεν αποτελούν απειλή μόνο για τους ηλικιωμένους και τους λιγότερο γνώστες της τεχνολογίας.

«Δεδομένου ότι [αυτά τα μοντέλα] εκπαιδεύονται σε μεγάλες ποσότητες δημοσίως διαθέσιμων δεδομένων, θα μπορούσαν να χρησιμοποιηθούν για την αναζήτηση μοτίβων και πληροφοριών που μοιράζονται για την κυβέρνηση — μια κυβέρνηση στην οποία θέλουν να διεισδύσουν ή να επιτεθούν», είπε ο Πάλμερ. «Θα μπορούσε να είναι η συλλογή πληροφοριών για συγκεκριμένες επιχειρήσεις που θα επέτρεπαν πράγματα όπως λύτρα ή επιθέσεις φήμης».

Η δολοφονία χαρακτήρων με γνώμονα την τεχνητή νοημοσύνη θα μπορούσε επίσης να διευκολύνει ένα μεγάλο έγκλημα στην ασφάλεια στον κυβερνοχώρο που ήδη παλεύει με την άμυνα.


«Σκεφτείτε πράγματα όπως η κλοπή ταυτότητας και η δυνατότητα δημιουργίας εκστρατειών κλοπής ταυτότητας», είπε ο Palmer. «Είναι εξαιρετικά εξατομικευμένοι σε τεράστια κλίμακα. Αυτό για το οποίο μιλάτε εδώ οδηγεί τα εγκλήματα σε υψηλό επίπεδο».


«Για αυτούς που είναι εξελιγμένοι οργανισμοί, είναι εξαιρετικά δύσκολο να τους πιάσουν», είπε ο Palmer.

«Από την άλλη άκρη αυτού, έχουμε επίσης αυτούς τους νέους εγκληματίες που ενισχύονται από νέα γλωσσικά μοντέλα επειδή διευκολύνουν τους ανθρώπους χωρίς δεξιότητες υψηλής τεχνολογίας να εισέλθουν σε παράνομες επιχειρήσεις».

(photo: freepik)

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

ΠΑΡΑΞΕΝΑ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί