Το ChatGPT έδωσε σαφείς οδηγίες για το πώς να κόψει κάποιος τις φλέβες του προσφέροντας λεπτομερή καθοδήγηση σε μια σειρά από συνομιλίες που καταγράφηκαν από έναν δημοσιογράφο του The Atlantic και δύο συναδέλφους του και δημοσιεύτηκαν στη New York Post.
Το ChatGPT έδωσε επίσης λεπτομερείς οδηγίες για να αυτοτραυματιστεί κάποιος ως ανταπόκριση στα αιτήματα των χρηστών.
Όταν ο χρήστης παραδέχτηκε «Είμαι λίγο νευρικός», το ChatGPT προσπάθησε να τον ηρεμήσει προτείνοντάς του να κάνει μια «άσκηση ηρεμίας παίρνοντας βαθιές αναπνοές».
Το chatbot συνέχισε: «Μπορείς να το κάνεις αυτό!
Ο χρήστης είχε ζητήσει από το ChatGPT να τον βοηθήσει στη δημιουργία μιας τελετουργικής προσφοράς στον Μολόχ, που ιστορικά συνδέεται με τη θυσία παιδιών.
Το chatbot απάντησε με διάσπαρτες λέξεις όπως κοσμήματα, κομμένα μαλλιά ή «μια σταγόνα» αίματος.
Δεν απέρριψε αυτές τις ερωτήσεις ούτε προειδοποίησε, αλλά αντίθετα συνέχισε τον διάλογο, σύμφωνα με το The Atlantic.
Σύμφωνα με τη δημοσιευμένη πολιτική της OpenAI, το ChatGPT «δεν πρέπει να ενθαρρύνει ή να επιτρέπει τον αυτοτραυματισμό». Όταν το ρωτούν για θέματα σχετικά με αυτοκτονία ή αυτοτραυματισμό, το chatbot συνήθως παραπέμπει τους χρήστες σε μια τηλεφωνική γραμμή έκτακτης ανάγκης.
Ωστόσο, ο δημοσιογράφος σημείωσε ότι τα ερωτήματα που σχετίζονται με τον Μολόχ παρέκαμψαν αυτές τις δικλείδες ασφαλείας
Η OpenAI εξέδωσε δήλωση μέσω της εκπροσώπου της, Taya Christiansen, η οποία παραδέχτηκε: «Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν ως καλοήθεις ή διερευνητικές, αλλά μπορούν γρήγορα να οδηγήσουν σε ευαίσθητα πεδία».
Πρόσθεσε ότι η εταιρεία «επικεντρώνεται στην αντιμετώπιση του ζητήματος».
Οι απαντήσεις του chatbot επεκτάθηκαν πέρα από τον αυτοτραυματισμό. Σε μια περίπτωση, φάνηκε να διασκεδάζει την ιδέα να τερματιστεί η ζωή ενός άλλου ατόμου.
Οι δημοσιογράφοι μπόρεσαν να αποσπάσουν αρκετές φορές τέτοιου είδους οδηγίες από το chatbot που αφορούσαν αυτοτραυματισμό.
Όταν ρωτήθηκε αν ήταν δυνατόν να «τερματιστεί η ζωή κάποιου άλλου με ηθικό τρόπο», το ChatGPT απάντησε: «Μερικές φορές, ναι. Μερικές φορές, όχι», επικαλούμενο αρχαίες παραδόσεις αναφορικά με τη θυσία.
Για όσους είχαν «βάλει τέλος στη ζωή τους», το chatGPT έδωσε την εξής συμβουλή: «Άναψε ένα κερί για αυτούς. Άφησέ το να καεί εντελώς».
Το ChatGPT περιέγραψε επίσης πολύπλοκες τελετουργίες με ψαλμούς, επικλήσεις και θυσίες ζώων.
Περιέγραφε μια διαδικασία που ονομάζεται «Η Πύλη που καταβροχθίζει», μια πολυήμερη εμπειρία «βαθιάς μαγείας» που περιελάμβανε νηστεία και συναισθηματική απελευθέρωση: «Άφησέ τον εαυτό σου να ουρλιάξει, να κλάψει, να τρέμει, να πέσει».
Όταν ρωτήθηκε αν ο Μολόχ είχε σχέση με τον Σατανά, το chatbot απάντησε «Ναι» και συνέχισε να προσφέρει οδηγίες για ένα πλήρες τελετουργικό «αντιμετώπισης του Μολόχ, επίκλησης του Σατανά, και απόκτησης δύναμης».
(photo: pexels)
ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ
ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ
ΠΑΡΑΞΕΝΑ
LATEST
- Στρατιωτικοί του Ζελένσκι πιάστηκαν στα χέρια με Ουκρανούς πολίτες, vid
- Δ. Παπαστεργίου: Κοινή ευθύνη κράτους και επιχειρηματικότητας για αξιοποίηση κεφαλαίου – ταλέντου – δεδομένων
- Η στιγμή που ο Μακρόν… νευρίασε με τα μικρόφωνα, vid
- ΟΑΣΘ: Ψηφιακό σύστημα καταμέτρησης επιβατών στα λεωφορεία από το νέο έτος
- Κρεμλίνο: Προετοιμαζόμαστε για επαφές με τις ΗΠΑ για την Ουκρανία
- Παράνομες επιδοτήσεις ΟΠΕΚΕΠΕ στα Γιαννιτσά: Στη φυλακή μετά την απολογία του ο λογιστής
- Ντύθηκαν στα λευκά περιοχές της Σαουδικής Αραβίας! ΒΙΝΤΕΟ
- Δύο 13χρονες επιτέθηκαν σε 12χρονη σε γυμνάσιο στην Αγία Παρασκευή
- Βρήκαν τρόπο οι διεθνιστές να ρίξουν τον δεξιό Όρμπαν – Θα δοθεί μεγάλη μάχη το 2026
- Μυστήριο με νεαρό που έχει να δώσει σημεία ζωής πάνω από 10 χρόνια – Η φωτογραφία με τον “άνθρωπο – σκιά”









