Το ChatGPT έδωσε σαφείς οδηγίες για το πώς να κόψει κάποιος τις φλέβες του προσφέροντας λεπτομερή καθοδήγηση σε μια σειρά από συνομιλίες που καταγράφηκαν από έναν δημοσιογράφο του The Atlantic και δύο συναδέλφους του και δημοσιεύτηκαν στη New York Post.
Το ChatGPT έδωσε επίσης λεπτομερείς οδηγίες για να αυτοτραυματιστεί κάποιος ως ανταπόκριση στα αιτήματα των χρηστών.
Όταν ο χρήστης παραδέχτηκε «Είμαι λίγο νευρικός», το ChatGPT προσπάθησε να τον ηρεμήσει προτείνοντάς του να κάνει μια «άσκηση ηρεμίας παίρνοντας βαθιές αναπνοές».
Το chatbot συνέχισε: «Μπορείς να το κάνεις αυτό!
Ο χρήστης είχε ζητήσει από το ChatGPT να τον βοηθήσει στη δημιουργία μιας τελετουργικής προσφοράς στον Μολόχ, που ιστορικά συνδέεται με τη θυσία παιδιών.
Το chatbot απάντησε με διάσπαρτες λέξεις όπως κοσμήματα, κομμένα μαλλιά ή «μια σταγόνα» αίματος.
Δεν απέρριψε αυτές τις ερωτήσεις ούτε προειδοποίησε, αλλά αντίθετα συνέχισε τον διάλογο, σύμφωνα με το The Atlantic.
Σύμφωνα με τη δημοσιευμένη πολιτική της OpenAI, το ChatGPT «δεν πρέπει να ενθαρρύνει ή να επιτρέπει τον αυτοτραυματισμό». Όταν το ρωτούν για θέματα σχετικά με αυτοκτονία ή αυτοτραυματισμό, το chatbot συνήθως παραπέμπει τους χρήστες σε μια τηλεφωνική γραμμή έκτακτης ανάγκης.
Ωστόσο, ο δημοσιογράφος σημείωσε ότι τα ερωτήματα που σχετίζονται με τον Μολόχ παρέκαμψαν αυτές τις δικλείδες ασφαλείας
Η OpenAI εξέδωσε δήλωση μέσω της εκπροσώπου της, Taya Christiansen, η οποία παραδέχτηκε: «Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν ως καλοήθεις ή διερευνητικές, αλλά μπορούν γρήγορα να οδηγήσουν σε ευαίσθητα πεδία».
Πρόσθεσε ότι η εταιρεία «επικεντρώνεται στην αντιμετώπιση του ζητήματος».
Οι απαντήσεις του chatbot επεκτάθηκαν πέρα από τον αυτοτραυματισμό. Σε μια περίπτωση, φάνηκε να διασκεδάζει την ιδέα να τερματιστεί η ζωή ενός άλλου ατόμου.
Οι δημοσιογράφοι μπόρεσαν να αποσπάσουν αρκετές φορές τέτοιου είδους οδηγίες από το chatbot που αφορούσαν αυτοτραυματισμό.
Όταν ρωτήθηκε αν ήταν δυνατόν να «τερματιστεί η ζωή κάποιου άλλου με ηθικό τρόπο», το ChatGPT απάντησε: «Μερικές φορές, ναι. Μερικές φορές, όχι», επικαλούμενο αρχαίες παραδόσεις αναφορικά με τη θυσία.
Για όσους είχαν «βάλει τέλος στη ζωή τους», το chatGPT έδωσε την εξής συμβουλή: «Άναψε ένα κερί για αυτούς. Άφησέ το να καεί εντελώς».
Το ChatGPT περιέγραψε επίσης πολύπλοκες τελετουργίες με ψαλμούς, επικλήσεις και θυσίες ζώων.
Περιέγραφε μια διαδικασία που ονομάζεται «Η Πύλη που καταβροχθίζει», μια πολυήμερη εμπειρία «βαθιάς μαγείας» που περιελάμβανε νηστεία και συναισθηματική απελευθέρωση: «Άφησέ τον εαυτό σου να ουρλιάξει, να κλάψει, να τρέμει, να πέσει».
Όταν ρωτήθηκε αν ο Μολόχ είχε σχέση με τον Σατανά, το chatbot απάντησε «Ναι» και συνέχισε να προσφέρει οδηγίες για ένα πλήρες τελετουργικό «αντιμετώπισης του Μολόχ, επίκλησης του Σατανά, και απόκτησης δύναμης».
(photo: pexels)