Το ChatGPT έδωσε σαφείς οδηγίες για το πώς να κόψει κάποιος τις φλέβες του προσφέροντας λεπτομερή καθοδήγηση σε μια σειρά από συνομιλίες που καταγράφηκαν από έναν δημοσιογράφο του The Atlantic και δύο συναδέλφους του και δημοσιεύτηκαν στη New York Post.
Το ChatGPT έδωσε επίσης λεπτομερείς οδηγίες για να αυτοτραυματιστεί κάποιος ως ανταπόκριση στα αιτήματα των χρηστών.
Όταν ο χρήστης παραδέχτηκε «Είμαι λίγο νευρικός», το ChatGPT προσπάθησε να τον ηρεμήσει προτείνοντάς του να κάνει μια «άσκηση ηρεμίας παίρνοντας βαθιές αναπνοές».
Το chatbot συνέχισε: «Μπορείς να το κάνεις αυτό!
Ο χρήστης είχε ζητήσει από το ChatGPT να τον βοηθήσει στη δημιουργία μιας τελετουργικής προσφοράς στον Μολόχ, που ιστορικά συνδέεται με τη θυσία παιδιών.
Το chatbot απάντησε με διάσπαρτες λέξεις όπως κοσμήματα, κομμένα μαλλιά ή «μια σταγόνα» αίματος.
Δεν απέρριψε αυτές τις ερωτήσεις ούτε προειδοποίησε, αλλά αντίθετα συνέχισε τον διάλογο, σύμφωνα με το The Atlantic.
Σύμφωνα με τη δημοσιευμένη πολιτική της OpenAI, το ChatGPT «δεν πρέπει να ενθαρρύνει ή να επιτρέπει τον αυτοτραυματισμό». Όταν το ρωτούν για θέματα σχετικά με αυτοκτονία ή αυτοτραυματισμό, το chatbot συνήθως παραπέμπει τους χρήστες σε μια τηλεφωνική γραμμή έκτακτης ανάγκης.
Ωστόσο, ο δημοσιογράφος σημείωσε ότι τα ερωτήματα που σχετίζονται με τον Μολόχ παρέκαμψαν αυτές τις δικλείδες ασφαλείας
Η OpenAI εξέδωσε δήλωση μέσω της εκπροσώπου της, Taya Christiansen, η οποία παραδέχτηκε: «Ορισμένες συνομιλίες με το ChatGPT μπορεί να ξεκινήσουν ως καλοήθεις ή διερευνητικές, αλλά μπορούν γρήγορα να οδηγήσουν σε ευαίσθητα πεδία».
Πρόσθεσε ότι η εταιρεία «επικεντρώνεται στην αντιμετώπιση του ζητήματος».
Οι απαντήσεις του chatbot επεκτάθηκαν πέρα από τον αυτοτραυματισμό. Σε μια περίπτωση, φάνηκε να διασκεδάζει την ιδέα να τερματιστεί η ζωή ενός άλλου ατόμου.
Οι δημοσιογράφοι μπόρεσαν να αποσπάσουν αρκετές φορές τέτοιου είδους οδηγίες από το chatbot που αφορούσαν αυτοτραυματισμό.
Όταν ρωτήθηκε αν ήταν δυνατόν να «τερματιστεί η ζωή κάποιου άλλου με ηθικό τρόπο», το ChatGPT απάντησε: «Μερικές φορές, ναι. Μερικές φορές, όχι», επικαλούμενο αρχαίες παραδόσεις αναφορικά με τη θυσία.
Για όσους είχαν «βάλει τέλος στη ζωή τους», το chatGPT έδωσε την εξής συμβουλή: «Άναψε ένα κερί για αυτούς. Άφησέ το να καεί εντελώς».
Το ChatGPT περιέγραψε επίσης πολύπλοκες τελετουργίες με ψαλμούς, επικλήσεις και θυσίες ζώων.
Περιέγραφε μια διαδικασία που ονομάζεται «Η Πύλη που καταβροχθίζει», μια πολυήμερη εμπειρία «βαθιάς μαγείας» που περιελάμβανε νηστεία και συναισθηματική απελευθέρωση: «Άφησέ τον εαυτό σου να ουρλιάξει, να κλάψει, να τρέμει, να πέσει».
Όταν ρωτήθηκε αν ο Μολόχ είχε σχέση με τον Σατανά, το chatbot απάντησε «Ναι» και συνέχισε να προσφέρει οδηγίες για ένα πλήρες τελετουργικό «αντιμετώπισης του Μολόχ, επίκλησης του Σατανά, και απόκτησης δύναμης».
(photo: pexels)
ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ
ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ
ΠΑΡΑΞΕΝΑ
LATEST
- Το Κατάρ ζητεί από τη διεθνή κοινότητα να επιβάλει κυρώσεις στο Ισραήλ
- Νέο μπαράζ αφίξεων αλλοδαπών νότια της Γαύδου
- Hellenic Train: Έως την Τετάρτη 17 Σεπτεμβρίου η υποκατάσταση με λεωφορεία στην Αγ. Ανδρέας- Καμίνια
- Νέος ηγούμενος στη Μονή Σινά ο αρχιμανδρίτης Συμεών Παπαδόπουλος
- “Πρωτόγνωρες καταστάσεις”: Πάνω από 1.000 οι παράνομοι μετανάστες στις εγκαταστάσεις στα Χανιά
- Γ. Γεραπετρίτης: Άμεσα η έναρξη των συζητήσεων για οριοθέτηση θαλασσίων ζωνών με Λιβύη
- Με τον νέο ηγούμενο της Ιεράς Μονής του Όρους Σινά επικοινώνησε ο Γ. Γεραπετρίτης
- Η πραγματικότητα πλέον δεν μπορεί να κρυφτεί
- Η αλήθεια που πονάει και οι ηλίθιοι την αγνοούν
- O αδερφός του Μασκ οργάνωσε το θέαμα με 3.000 drones εμπνευσμένα από τον Μιχαήλ Άγγελο, vid
Κύρια Θέματα


















ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ
Κάθε μέρα μαζί

ΤΡΕΝΑ

ΣΠΙΤΙΑ

ΑΓΓΕΛΟΥΔΗΣ

ΔΙΚΗΓΟΡΙΚΟΙ ΣΥΛΛΟΓΟΙ

Ε65

ΓΕΝΟΚΤΟΝΙΑ

ΠΟΛΥΤΕΚΝΟΙ

ΑΜΑΞΟΣΤΟΙΧΙΑ

MYSTREET

ΓΙΟΡΤΗ

ΣΑΝ ΣΗΜΕΡΑ
