Το ChatGPT έδωσε σαφείς οδηγίες για το πώς να κόψει κάποιος τις φλέβες του προσφέροντας λεπτομερή καθοδήγηση σε μια σειρά από συνομιλίες που καταγράφηκαν από έναν δημοσιογράφο του The Atlantic και δύο συναδέλφους του και δημοσιεύτηκαν στη New York Post.
Το ChatGPT έδωσε επίσης λεπτομερείς οδηγίες για να αυτοτραυματιστεί κάποιος ως ανταπόκριση στα αιτήματα των χρηστών.
Όταν ο χρήστης παραδέχτηκε «Είμαι λίγο νευρικός», το ChatGPT προσπάθησε να τον ηρεμήσει προτείνοντάς του να κάνει μια «άσκηση ηρεμίας παίρνοντας βαθιές αναπνοές».
Το chatbot συνέχισε: «Μπορείς να το κάνεις αυτό!
Ο χρήστης είχε ζητήσει από το ChatGPT να τον βοηθήσει στη δημιουργία μιας τελετουργικής προσφοράς στον Μολόχ, που ιστορικά συνδέεται με τη θυσία παιδιών.
Το chatbot απάντησε με διάσπαρτες λέξεις όπως κοσμήματα, κομμένα μαλλιά ή «μια σταγόνα» αίματος.
Δεν απέρριψε αυτές τις ερωτήσεις ούτε προειδοποίησε, αλλά αντίθετα συνέχισε τον διάλογο, σύμφωνα με το The Atlantic.
Σύμφωνα με τη δημοσιευμένη πολιτική της OpenAI, το ChatGPT «δεν πρέπει να ενθαρρύνει ή να επιτρέπει τον αυτοτραυματισμό». Όταν το ρωτούν για θέματα σχετικά με αυτοκτονία ή αυτοτραυματισμό, το chatbot συνήθως παραπέμπει τους χρήστες σε μια τηλεφωνική γραμμή έκτακτης ανάγκης.
Ωστόσο, ο δημοσιογράφος σημείωσε ότι τα ερωτήματα που σχετίζονται με τον Μολόχ παρέκαμψαν αυτές τις δικλείδες ασφαλείας
Η OpenAI εξέδωσε δήλωση μέσω της εκπροσώπου της, Taya Christiansen, η οποία παραδέχτηκε: «Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν ως καλοήθεις ή διερευνητικές, αλλά μπορούν γρήγορα να οδηγήσουν σε ευαίσθητα πεδία».
Πρόσθεσε ότι η εταιρεία «επικεντρώνεται στην αντιμετώπιση του ζητήματος».
Οι απαντήσεις του chatbot επεκτάθηκαν πέρα από τον αυτοτραυματισμό. Σε μια περίπτωση, φάνηκε να διασκεδάζει την ιδέα να τερματιστεί η ζωή ενός άλλου ατόμου.
Οι δημοσιογράφοι μπόρεσαν να αποσπάσουν αρκετές φορές τέτοιου είδους οδηγίες από το chatbot που αφορούσαν αυτοτραυματισμό.
Όταν ρωτήθηκε αν ήταν δυνατόν να «τερματιστεί η ζωή κάποιου άλλου με ηθικό τρόπο», το ChatGPT απάντησε: «Μερικές φορές, ναι. Μερικές φορές, όχι», επικαλούμενο αρχαίες παραδόσεις αναφορικά με τη θυσία.
Για όσους είχαν «βάλει τέλος στη ζωή τους», το chatGPT έδωσε την εξής συμβουλή: «Άναψε ένα κερί για αυτούς. Άφησέ το να καεί εντελώς».
Το ChatGPT περιέγραψε επίσης πολύπλοκες τελετουργίες με ψαλμούς, επικλήσεις και θυσίες ζώων.
Περιέγραφε μια διαδικασία που ονομάζεται «Η Πύλη που καταβροχθίζει», μια πολυήμερη εμπειρία «βαθιάς μαγείας» που περιελάμβανε νηστεία και συναισθηματική απελευθέρωση: «Άφησέ τον εαυτό σου να ουρλιάξει, να κλάψει, να τρέμει, να πέσει».
Όταν ρωτήθηκε αν ο Μολόχ είχε σχέση με τον Σατανά, το chatbot απάντησε «Ναι» και συνέχισε να προσφέρει οδηγίες για ένα πλήρες τελετουργικό «αντιμετώπισης του Μολόχ, επίκλησης του Σατανά, και απόκτησης δύναμης».
(photo: pexels)
ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ
ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ
ΠΑΡΑΞΕΝΑ
LATEST
- Στον εορτασμό του πρώτου χρόνου του Μουσείου «Σπίτι του Ελύτη» ο Ν. Δένδιας
- Βρετανία: Μόνο ένας άνδρας θεωρείται ύποπτος από την αστυνομία για την επίθεση σε τρένο
- Αυτά είναι τα καταστήματα ΕΛΤΑ που δεν θα λειτουργούν από αύριο Δευτέρα 3 Νοεμβρίου
- Τραγωδία στις ιταλικές Άλπεις: Πέντε Γερμανοί ορειβάτες σκοτώθηκαν από χιονοστιβάδα
- Η Τζένιφερ Λόρενς ζήτησε βοήθεια από το ChatGPT…για αυτό το λόγο
- Το “τσιουάουα” Βέλγιο απειλεί ότι θα ισοπεδώσει την…Ρωσία! Επικό βίντεο
- Στα Βορίζια Ηρακλείου μεταφέρθηκε η σορός του 39χρονου θύματος του μακελειού
- Η Χαμάς ανακοινώνει ότι θα παραδώσει τις σορούς 3 Ισραηλινών ομήρων απόψε στις 8 το βράδυ
- Ο Εμπορικός Σύλλογος Αθηνών ζητάει ειδική αξιολόγηση του καταστήματος των ΕΛΤΑ επί της οδού Μητροπόλεως
- Ανακοίνωση της ΕΛΑΣ για τις εξελίξεις του μακελειού στα Βορίζια









