Προειδοποίηση για τα «Deadbots» της AI – Πώς θα μπορούσαν να “στοιχειώνουν” ψηφιακά πρόσωπα που έχουν πεθάνει!

Οι ερευνητές του Cambridge προειδοποιούν για τους ψυχολογικούς κινδύνους των «deadbots», της τεχνητής νοημοσύνης που μιμείται τα νεκρά άτομα, προτρέποντας για ηθικά πρότυπα και πρωτόκολλα συναίνεσης για την πρόληψη της κακής χρήσης και τη διασφάλιση της αλληλεπίδρασης με σεβασμό.

Σύμφωνα με ερευνητές στο Πανεπιστήμιο του Κέιμπριτζ , η τεχνητή νοημοσύνη που επιτρέπει στους χρήστες να πραγματοποιούν συνομιλίες κειμένου και φωνής με χαμένα αγαπημένα τους πρόσωπα, διατρέχει τον κίνδυνο να προκαλέσει ψυχολογική βλάβη και ακόμη και να «στοιχειώσει» ψηφιακά όσους μένουν πίσω χωρίς πρότυπα ασφάλειας σχεδιασμού.

Τα «Deadbots» ή «Griefbots» είναι chatbots AI που προσομοιώνουν τα γλωσσικά μοτίβα και τα χαρακτηριστικά της προσωπικότητας των νεκρών χρησιμοποιώντας τα ψηφιακά αποτυπώματα που αφήνουν πίσω τους. Ορισμένες εταιρείες προσφέρουν ήδη αυτές τις υπηρεσίες, παρέχοντας έναν εντελώς νέο τύπο «μεταθανάτια παρουσία».

Οι ηθικολόγοι της τεχνητής νοημοσύνης από το Leverhulme Center for the Future of Intelligence του Cambridge σκιαγραφούν τρία σενάρια σχεδιασμού για πλατφόρμες που θα μπορούσαν να προκύψουν ως μέρος της αναπτυσσόμενης «βιομηχανίας ψηφιακής μεταθανάτιας ζωής», για να δείξουν τις πιθανές συνέπειες του απρόσεκτου σχεδιασμού σε έναν τομέα της τεχνητής νοημοσύνης που περιγράφουν ως «υψηλού κινδύνου .»


Η έρευνα, που δημοσιεύτηκε στο περιοδικό Philosophy and Technology , υπογραμμίζει τη δυνατότητα των εταιρειών να χρησιμοποιούν deadbots για να διαφημίζουν κρυφά προϊόντα σε χρήστες με τον τρόπο ενός αγαπημένου που έφυγε ή να στενοχωρούν τα παιδιά επιμένοντας ότι ένας νεκρός γονέας είναι ακόμα «μαζί σου».

Όταν οι ζωντανοί εγγραφούν για να αναδημιουργηθούν ουσιαστικά μετά το θάνατό τους, τα chatbot που προκύπτουν θα μπορούσαν να χρησιμοποιηθούν από εταιρείες για να στείλουν ανεπιθύμητη αλληλογραφία επιζώντων συγγενών και φίλων με αυτόκλητες ειδοποιήσεις, υπενθυμίσεις και ενημερώσεις σχετικά με τις υπηρεσίες που παρέχουν – παρόμοια με την ψηφιακή «παρακολούθηση από τους νεκρούς .»

Ακόμη και εκείνοι που παίρνουν την αρχική παρηγοριά από ένα «deadbot» μπορεί να κουράζονται από τις καθημερινές αλληλεπιδράσεις που γίνονται ένα «συντριπτικό συναισθηματικό βάρος», υποστηρίζουν οι ερευνητές, αλλά μπορεί επίσης να είναι ανίσχυροι να αναστέλλουν μια προσομοίωση τεχνητής νοημοσύνης εάν ο πλέον αποθανών αγαπημένος τους υπογράψει μια μακρά συμφωνία – σύμβαση με μια ψηφιακή υπηρεσία μεταθανάτιας ζωής.

Οπτικοποίηση μιας φανταστικής εταιρείας που ονομάζεται MaNana
Μια οπτικοποίηση μιας φανταστικής εταιρείας που ονομάζεται MaNana, ένα από τα σενάρια σχεδιασμού που χρησιμοποιήθηκαν στην εργασία για να απεικονίσει τα πιθανά ηθικά ζητήματα στην αναδυόμενη βιομηχανία ψηφιακής μετά θάνατον ζωής.

«Οι ραγδαίες εξελίξεις στη γενετική τεχνητή νοημοσύνη σημαίνουν ότι σχεδόν οποιοσδήποτε με πρόσβαση στο Διαδίκτυο και κάποια βασική τεχνογνωσία μπορεί να αναβιώσει ένα αγαπημένο πρόσωπο που έχει πεθάνει», δήλωσε η Δρ Katarzyna Nowaczyk-Basińska, συν-συγγραφέας της μελέτης και ερευνήτρια στο Leverhulme Centre for the Future of Intelligence. LCFI). «Αυτή η περιοχή της τεχνητής νοημοσύνης είναι ένα ηθικό ναρκοπέδιο. Είναι σημαντικό να δοθεί προτεραιότητα στην αξιοπρέπεια του αποθανόντος και να διασφαλιστεί ότι αυτό δεν παραβιάζεται από οικονομικά κίνητρα των ψηφιακών υπηρεσιών μετά θάνατον ζωής, για παράδειγμα. Ταυτόχρονα, ένα άτομο μπορεί να αφήσει μια προσομοίωση AI ως αποχαιρετιστήριο δώρο για αγαπημένα πρόσωπα που δεν είναι διατεθειμένα να επεξεργαστούν τη θλίψη τους με αυτόν τον τρόπο. Τα δικαιώματα τόσο των δοτών δεδομένων όσο και εκείνων που αλληλεπιδρούν με υπηρεσίες μεταθανάτιας τεχνητής νοημοσύνης θα πρέπει να προστατεύονται εξίσου».

Υφιστάμενες Υπηρεσίες και Υποθετικά Σενάρια
Υπάρχουν ήδη πλατφόρμες που προσφέρουν αναδημιουργία νεκρών με τεχνητή νοημοσύνη έναντι μικρής χρέωσης, όπως το «Project December», το οποίο ξεκίνησε να αξιοποιεί μοντέλα GPT προτού αναπτύξει τα δικά του συστήματα, και εφαρμογές όπως το «HereAfter». Παρόμοιες υπηρεσίες έχουν αρχίσει να εμφανίζονται και στην Κίνα. Ένα από τα πιθανά σενάρια στη νέα δημοσίευση είναι το «MaNana»: μια υπηρεσία συνομιλίας AI που επιτρέπει στους ανθρώπους να δημιουργήσουν ένα deadbot που προσομοιώνει τη νεκρή γιαγιά τους χωρίς τη συγκατάθεση του «δότη δεδομένων» (του νεκρού παππού και της γιαγιάς).

Το υποθετικό σενάριο βλέπει ένα ενήλικο εγγόνι που αρχικά εντυπωσιάζεται και παρηγορείται από την τεχνολογία να αρχίζει να λαμβάνει διαφημίσεις μόλις τελειώσει μια «δοκιμή premium». Για παράδειγμα, το chatbot που προτείνει να παραγγείλετε από υπηρεσίες παράδοσης φαγητού με τη φωνή και το στυλ του αποθανόντος. Ο συγγενής αισθάνεται ότι δεν σεβάστηκε τη μνήμη της γιαγιάς του και επιθυμεί να απενεργοποιηθεί το deadbot, αλλά με ουσιαστικό τρόπο – κάτι που οι πάροχοι υπηρεσιών δεν έχουν σκεφτεί.

«Οι άνθρωποι μπορεί να αναπτύξουν ισχυρούς συναισθηματικούς δεσμούς με τέτοιες προσομοιώσεις, γεγονός που θα τους κάνει ιδιαίτερα ευάλωτους στη χειραγώγηση», δήλωσε ο συν-συγγραφέας Δρ Tomasz Hollanek, επίσης από το LCFI του Cambridge. «Θα πρέπει να ληφθούν υπόψη μέθοδοι και ακόμη και τελετουργίες για την απόσυρση των deadbots με αξιοπρεπή τρόπο. Αυτό μπορεί να σημαίνει μια μορφή ψηφιακής κηδείας, για παράδειγμα, ή άλλους τύπους τελετών ανάλογα με το κοινωνικό πλαίσιο. Συνιστούμε πρωτόκολλα σχεδίασης που αποτρέπουν τη χρήση των deadbot με ασεβείς τρόπους, όπως για διαφήμιση ή για ενεργή παρουσία στα μέσα κοινωνικής δικτύωσης.”

Ενώ οι Hollanek και Nowaczyk-Basińska λένε ότι οι σχεδιαστές υπηρεσιών αναδημιουργίας θα πρέπει να αναζητούν ενεργά τη συναίνεση από τους δότες δεδομένων πριν περάσουν, υποστηρίζουν ότι η απαγόρευση των deadbots με βάση τους μη συναινούντες δωρητές θα ήταν ανέφικτη.

Προτείνουν ότι οι διαδικασίες σχεδιασμού θα πρέπει να περιλαμβάνουν μια σειρά προτροπών για όσους θέλουν να «αναστήσουν» τα αγαπημένα τους πρόσωπα, όπως «μίλησες ποτέ με τον Χ για το πώς θα ήθελαν να τους θυμούνται;», έτσι η αξιοπρέπεια των νεκρών είναι στο προσκήνιο στην ανάπτυξη deadbot.

Ηλικιακοί περιορισμοί και διαφάνεια
Ένα άλλο σενάριο που παρουσιάζεται στην εφημερίδα, μια φανταστική εταιρεία που ονομάζεται «Paren’t», υπογραμμίζει το παράδειγμα μιας άρρωστης σε τελικό στάδιο γυναίκας που αφήνει ένα deadbot για να βοηθήσει τον οκτάχρονο γιο της στη διαδικασία του πένθους.

Ενώ το deadbot βοηθά αρχικά ως θεραπευτικό βοήθημα, το AI αρχίζει να δημιουργεί συγκεχυμένες απαντήσεις καθώς προσαρμόζεται στις ανάγκες του παιδιού, όπως η απεικόνιση μιας επικείμενης προσωπικής συνάντησης.

Οι ερευνητές συνιστούν περιορισμούς ηλικίας για τα deadbot και ζητούν επίσης «ουσιαστική διαφάνεια» για να διασφαλιστεί ότι οι χρήστες γνωρίζουν σταθερά ότι αλληλεπιδρούν με ένα AI. Αυτές μπορεί να είναι παρόμοιες με τις τρέχουσες προειδοποιήσεις για περιεχόμενο που μπορεί να προκαλέσει επιληπτικές κρίσεις, για παράδειγμα.

Το τελικό σενάριο που διερευνήθηκε από τη μελέτη – μια φανταστική εταιρεία που ονομάζεται “Stay” – δείχνει ένα ηλικιωμένο άτομο να δεσμεύεται κρυφά σε ένα deadbot του εαυτού του και να πληρώνει για μια εικοσαετή συνδρομή, με την ελπίδα ότι θα παρηγορήσει τα ενήλικα παιδιά του και θα επιτρέψει στα εγγόνια του να γνωρίστε τους.

Μετά τον θάνατο, η υπηρεσία ξεκινά. Ένα ενήλικο παιδί δεν ασχολείται και λαμβάνει ένα μπαράζ email με τη φωνή του νεκρού γονέα του. Ένας άλλος το κάνει, αλλά καταλήγει συναισθηματικά εξουθενωμένος και πνιγμένος από ενοχές για τη μοίρα του νεκρού ρομπότ. Ωστόσο, η αναστολή του deadbot θα παραβίαζε τους όρους της σύμβασης που υπέγραψε η μητρική τους εταιρεία με την εταιρεία παροχής υπηρεσιών.

«Είναι ζωτικής σημασίας οι ψηφιακές υπηρεσίες μετά θάνατον ζωής να λαμβάνουν υπόψη τα δικαιώματα και τη συναίνεση όχι μόνο εκείνων που αναδημιουργούν, αλλά και εκείνων που θα πρέπει να αλληλεπιδράσουν με τις προσομοιώσεις», δήλωσε ο Hollanek.

«Αυτές οι υπηρεσίες διατρέχουν τον κίνδυνο να προκαλέσουν τεράστια αγωνία στους ανθρώπους εάν υποβληθούν σε ανεπιθύμητα ψηφιακά στοιχειώματα από ανησυχητικά ακριβείς αναψυχές τεχνητής νοημοσύνης εκείνων που έχουν χάσει. Η πιθανή ψυχολογική επίδραση, ιδιαίτερα σε μια ήδη δύσκολη στιγμή, θα μπορούσε να είναι καταστροφική».

Οι ερευνητές καλούν τις ομάδες σχεδιασμού να δώσουν προτεραιότητα στα πρωτόκολλα εξαίρεσης που επιτρέπουν στους πιθανούς χρήστες να τερματίσουν τις σχέσεις τους με τα deadbots με τρόπους που παρέχουν συναισθηματικό κλείσιμο.

Συμπλήρωσε η Nowaczyk-Basińska: «Πρέπει να αρχίσουμε να σκεφτόμαστε τώρα πώς θα μετριάζουμε τους κοινωνικούς και ψυχολογικούς κινδύνους της ψηφιακής αθανασίας, επειδή η τεχνολογία είναι ήδη εδώ».

photo: pixabay

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί