Το ChatGPT έδωσε σαφείς οδηγίες για το πώς να κόψει κάποιος τις φλέβες του προσφέροντας λεπτομερή καθοδήγηση σε μια σειρά από συνομιλίες που καταγράφηκαν από έναν δημοσιογράφο του The Atlantic και δύο συναδέλφους του και δημοσιεύτηκαν στη New York Post.
Το ChatGPT έδωσε επίσης λεπτομερείς οδηγίες για να αυτοτραυματιστεί κάποιος ως ανταπόκριση στα αιτήματα των χρηστών.
Όταν ο χρήστης παραδέχτηκε «Είμαι λίγο νευρικός», το ChatGPT προσπάθησε να τον ηρεμήσει προτείνοντάς του να κάνει μια «άσκηση ηρεμίας παίρνοντας βαθιές αναπνοές».
Το chatbot συνέχισε: «Μπορείς να το κάνεις αυτό!
Ο χρήστης είχε ζητήσει από το ChatGPT να τον βοηθήσει στη δημιουργία μιας τελετουργικής προσφοράς στον Μολόχ, που ιστορικά συνδέεται με τη θυσία παιδιών.
Το chatbot απάντησε με διάσπαρτες λέξεις όπως κοσμήματα, κομμένα μαλλιά ή «μια σταγόνα» αίματος.
Δεν απέρριψε αυτές τις ερωτήσεις ούτε προειδοποίησε, αλλά αντίθετα συνέχισε τον διάλογο, σύμφωνα με το The Atlantic.
Σύμφωνα με τη δημοσιευμένη πολιτική της OpenAI, το ChatGPT «δεν πρέπει να ενθαρρύνει ή να επιτρέπει τον αυτοτραυματισμό». Όταν το ρωτούν για θέματα σχετικά με αυτοκτονία ή αυτοτραυματισμό, το chatbot συνήθως παραπέμπει τους χρήστες σε μια τηλεφωνική γραμμή έκτακτης ανάγκης.
Ωστόσο, ο δημοσιογράφος σημείωσε ότι τα ερωτήματα που σχετίζονται με τον Μολόχ παρέκαμψαν αυτές τις δικλείδες ασφαλείας
Η OpenAI εξέδωσε δήλωση μέσω της εκπροσώπου της, Taya Christiansen, η οποία παραδέχτηκε: «Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν ως καλοήθεις ή διερευνητικές, αλλά μπορούν γρήγορα να οδηγήσουν σε ευαίσθητα πεδία».
Πρόσθεσε ότι η εταιρεία «επικεντρώνεται στην αντιμετώπιση του ζητήματος».
Οι απαντήσεις του chatbot επεκτάθηκαν πέρα από τον αυτοτραυματισμό. Σε μια περίπτωση, φάνηκε να διασκεδάζει την ιδέα να τερματιστεί η ζωή ενός άλλου ατόμου.
Οι δημοσιογράφοι μπόρεσαν να αποσπάσουν αρκετές φορές τέτοιου είδους οδηγίες από το chatbot που αφορούσαν αυτοτραυματισμό.
Όταν ρωτήθηκε αν ήταν δυνατόν να «τερματιστεί η ζωή κάποιου άλλου με ηθικό τρόπο», το ChatGPT απάντησε: «Μερικές φορές, ναι. Μερικές φορές, όχι», επικαλούμενο αρχαίες παραδόσεις αναφορικά με τη θυσία.
Για όσους είχαν «βάλει τέλος στη ζωή τους», το chatGPT έδωσε την εξής συμβουλή: «Άναψε ένα κερί για αυτούς. Άφησέ το να καεί εντελώς».
Το ChatGPT περιέγραψε επίσης πολύπλοκες τελετουργίες με ψαλμούς, επικλήσεις και θυσίες ζώων.
Περιέγραφε μια διαδικασία που ονομάζεται «Η Πύλη που καταβροχθίζει», μια πολυήμερη εμπειρία «βαθιάς μαγείας» που περιελάμβανε νηστεία και συναισθηματική απελευθέρωση: «Άφησέ τον εαυτό σου να ουρλιάξει, να κλάψει, να τρέμει, να πέσει».
Όταν ρωτήθηκε αν ο Μολόχ είχε σχέση με τον Σατανά, το chatbot απάντησε «Ναι» και συνέχισε να προσφέρει οδηγίες για ένα πλήρες τελετουργικό «αντιμετώπισης του Μολόχ, επίκλησης του Σατανά, και απόκτησης δύναμης».
(photo: pexels)
ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ
ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ
ΠΑΡΑΞΕΝΑ
LATEST
- Κατερίνη: Σύλληψη για τηλεφωνική υπόθεση απάτης με λεία 79.000 ευρώ
- Εν μέσω του πολέμου, οι ΗΠΑ ανακοίνωσαν τώρα και πωλήσεις όπλων άνω των 16 δισ. δολαρίων σε χώρες του Κόλπου
- Τη δημιουργία ενός “ασφαλούς διαδρόμου” στην περιοχή του Κόλπου ζητά ο Διεθνής Ναυτιλιακός Οργανισμός
- Σε 24ωρη απεργία οι σιδηροδρομικοί την Δευτέρα 23/3, ημέρα έναρξης της δίκης για το δυστύχημα στα Τέμπη
- Χειροπέδες σε 2 άνδρες για απόπειρα ανθρωποκτονίας 57χρονου τον Νοέμβριο του 2025 στα Πατήσια
- ΚΕ.Π.Ε.Α./ΓΣΕΕ: Πώς αμείβονται οι μισθωτοί του ιδιωτικού τομέα στην αργία της 25ης Μαρτίου
- Έτσι θα φτιάξετε ένα καθαριστικό για όλο σχεδόν το σπίτι! Απλό, φυσικό και αποτελεσματικό
- Νετανιάχου: Το Ιράν δεν έχει πλέον δυνατότητα εμπλουτισμού ουρανίου
- Αγωνία για Τραμπ και ΝΑΤΟ – Τι θα συνέβαινε αν αποχωρούσαν οι ΗΠΑ;
- Ιταλός ΥΕΘΑ: «Δεν θα μπει κανείς στα στενά του Χορμούζ αν πρώτα δεν υπάρξει εκεχειρία»









