Η σκοτεινή πλευρά της τεχνητής νοημοσύνης: Πώς το υποσυνείδητό μας κινδυνεύει

Νέα έρευνα εξετάζει την πιθανή κακή χρήση της τεχνητής νοημοσύνης για την πρόσβαση στο υποσυνείδητό μας, όπως αποκαλύπτεται από το σκάνδαλο της Cambridge Analytica.

Επικρίνει τον προτεινόμενο κανονισμό της ΕΕ για την τεχνητή νοημοσύνη για τις ανεπάρκειές του στην προστασία από την υποσυνείδητη χειραγώγηση, υπογραμμίζοντας την ανάγκη για μεγαλύτερες διασφαλίσεις της ιδιωτικής ζωής στον κόσμο μας που βασίζεται όλο και περισσότερο στα δεδομένα.

Ο νέος νόμος της Ευρωπαϊκής Ένωσης για την τεχνητή νοημοσύνη θα μπορούσε να επιτρέψει στην τεχνητή νοημοσύνη να έχει πρόσβαση στο υποσυνείδητό μας.
Η χρήση προσωπικών δεδομένων από αναρτήσεις εκατομμυρίων στο Facebook και προηγμένων αναλύσεων δεδομένων για την επιρροή των πολιτικών αποτελεσμάτων στις Ηνωμένες Πολιτείες και το Ηνωμένο Βασίλειο ήταν κάποτε μια έννοια που ανήκε στη σφαίρα της επιστημονικής φαντασίας. Ωστόσο, τα γεγονότα του σκανδάλου της Cambridge Analytica το 2018 έφεραν αυτό το σενάριο πραγματικότητα. Αυτό το περιστατικό υπογράμμισε πώς η ταχεία πρόοδος της τεχνολογίας και της νοημοσύνης των μηχανών οδήγησε σε νέες ηθικές προκλήσεις και διλήμματα που προηγουμένως δεν φανταζόμασταν.

Η πρωτοβουλία για τα νευρικά δικαιώματα με επικεφαλής το Ίδρυμα Neurorights συνηγορεί υπέρ της αναγνώρισης ενός νέου συνόλου μέτρων προστασίας έναντι των προκλήσεων αυτών των τεχνικών προόδων. Ορισμένες από αυτές συζητούνται σε σχέση με τον νόμο περί τεχνητής νοημοσύνης που βρίσκεται υπό διαπραγμάτευση στα διοικητικά όργανα της ΕΕ. Αυτός ο νόμος πρέπει να ρυθμίζει, μεταξύ άλλων, την ικανότητα της τεχνητής νοημοσύνης να επηρεάζει το υποσυνείδητό μας (όπως και στην περίπτωση της Cambridge Analytica αλλά σε πολύ βαθύτερα επίπεδα).

Οι κίνδυνοι να δώσουμε πρόσβαση στην τεχνητή νοημοσύνη στο υποσυνείδητό μας
Σύμφωνα με εκτιμήσεις, μόνο το 5% της ανθρώπινης εγκεφαλικής δραστηριότητας είναι συνειδητή. Το υπόλοιπο 95% λαμβάνει χώρα υποσυνείδητα και όχι μόνο δεν έχουμε πραγματικό έλεγχο πάνω του, αλλά ούτε καν γνωρίζουμε ότι λαμβάνει χώρα. Όπως σημειώνει ο Beltran de Heredia στο άρθρο του, αγνοούμε αυτόν τον εξαιρετικό χείμαρρο νευρικής δραστηριότητας λόγω της υψηλής πολυπλοκότητας της αλληλεπίδρασης μεταξύ του συνειδητού νου μας και της υποσυνείδητης συμπεριφοράς μας και της παντελούς έλλειψης ελέγχου των δυνάμεων που καθοδηγούν τη ζωή μας.

Ωστόσο, αυτό δεν σημαίνει ότι οι άνθρωποι δεν μπορούν να επηρεαστούν υποσυνείδητα. «Υπάρχουν δύο τρόποι για να το κάνει αυτό η τεχνητή νοημοσύνη», εξήγησε. «Η πρώτη είναι η συλλογή δεδομένων για τις ζωές των ανθρώπων και η δημιουργία μιας αρχιτεκτονικής απόφασης που σας οδηγεί στη λήψη μιας συγκεκριμένης απόφασης. Και το άλλο – το οποίο αυτή τη στιγμή είναι λιγότερο ανεπτυγμένο – περιλαμβάνει τη χρήση εφαρμογών ή συσκευών για να δημιουργήσουμε απευθείας παρορμήσεις που είναι ακαταμάχητες για το υποσυνείδητό μας, προκειμένου να δημιουργήσουμε παρορμητικές αποκρίσεις σε υποσυνείδητο επίπεδο, δηλαδή να δημιουργήσουμε παρορμήσεις».

«Καθώς σταδιακά αναπτύσσουμε καλύτερα και πιο ισχυρά μηχανήματα και συνδεόμαστε πιο στενά με αυτά, και οι δύο επιλογές θα γίνονται όλο και πιο διαδεδομένες. Οι αλγόριθμοι θα έχουν περισσότερες πληροφορίες για τη ζωή μας και η δημιουργία εργαλείων για τη δημιουργία αυτών των παρορμητικών αποκρίσεων θα είναι ευκολότερη […] Ο κίνδυνος αυτών των τεχνολογιών είναι ότι, όπως ακριβώς το Pied Piper του Hamelin, θα μας κάνουν να χορεύουμε χωρίς να ξέρουμε γιατί».

Κατά τη γνώμη του Beltran de Heredia, το πεδίο στο οποίο είναι πιο πιθανό να δούμε τις πρώτες απόπειρες επηρεασμού της ανθρώπινης συμπεριφοράς μέσω της τεχνητής νοημοσύνης είναι αυτό της εργασίας, πιο συγκεκριμένα της επαγγελματικής υγείας. Υποστηρίζει ότι μια σειρά από παρεμβατικές τεχνολογίες χρησιμοποιούνται επί του παρόντος. Αυτές περιλαμβάνουν συσκευές που παρακολουθούν τους οδηγούς λεωφορείων για την ανίχνευση αισθητήρων μικροϋπνίας ή ηλεκτροεγκεφαλογραφίας (EEG) που χρησιμοποιούνται από τους εργοδότες για την παρακολούθηση των εγκεφαλικών κυμάτων των εργαζομένων για επίπεδα άγχους και προσοχής κατά την εργασία. «Είναι δύσκολο να προβλέψουμε το μέλλον, αλλά, αν δεν περιορίσουμε τέτοιες παρεμβατικές τεχνολογίες ενώ βρίσκονται ακόμη στα πρώτα στάδια ανάπτυξης, το πιο πιθανό σενάριο είναι ότι θα συνεχίσουν να βελτιώνονται και να εξαπλώνουν τα άκρα τους στο όνομα της παραγωγικότητας. .»

Τα (θολά) όρια που προτείνει η Ε.Ε
Ο νέος κανονισμός τεχνητής νοημοσύνης που συζητείται επί του παρόντος από την ΕΕ επιδιώκει να προβλέψει τους πιθανούς μελλοντικούς κινδύνους αυτής και άλλων χρήσεων της τεχνητής νοημοσύνης. Το άρθρο 5.1 του αρχικού νομοσχεδίου περιείχε ρητή απαγόρευση της διάθεσης στην αγορά, της θέσης σε λειτουργία ή της χρήσης μιας τεχνητής νοημοσύνης που είναι ικανή να επηρεάσει ένα άτομο εκτός από συνειδητό επίπεδο, προκειμένου να διαστρεβλώσει τη συμπεριφορά αυτού του ατόμου. Ωστόσο, οι τροποποιήσεις και οι τροποποιήσεις που εισήχθησαν σταδιακά έκτοτε έχουν μειώσει σιγά σιγά την απόλυτη φύση της απαγόρευσης.

Το τρέχον νομοσχέδιο, το οποίο θα χρησιμοποιηθεί ως αναφορά για την τελική διατύπωση του νόμου, απαγορεύει τέτοιες τεχνικές μόνο εάν προορίζονται για χειραγώγηση ή εξαπάτηση, επηρεάζουν σημαντικά την ικανότητα ενός ατόμου να λάβει τεκμηριωμένη απόφαση, έτσι ώστε να λάβει μια απόφαση που διαφορετικά δεν θα είχαν κάνει και προκαλούν σημαντική βλάβη σε κάποιον με κάποιο τρόπο. Επιπλέον, η απαγόρευση δεν θα ισχύει για συστήματα τεχνητής νοημοσύνης για εγκεκριμένους θεραπευτικούς σκοπούς.

«Σύμφωνα με την πρόταση, η απαγόρευση της τεχνητής νοημοσύνης θα ισχύει όταν υπάρχει σοβαρή βλάβη και το άτομο καταλήξει να κάνει κάτι που διαφορετικά δεν θα έκανε. Αλλά αυτό είναι ένα μη ρεαλιστικό πρότυπο. Εάν δεν μπορώ να αποκτήσω πρόσβαση στο υποσυνείδητό μου, δεν μπορώ να αποδείξω τι θα έκανα χωρίς το ερέθισμα, ούτε μπορώ να αποδείξω τη ζημιά […] Εάν η υποσυνείδητη διαφήμιση έχει πλέον απαγορευτεί εντελώς χωρίς επιφύλαξη, γιατί αφήνει χώρο για υποσυνείδητη προετοιμασία από την τεχνητή νοημοσύνη;».

Σύμφωνα με τον Beltran de Heredia, εάν αφήσουμε την πόρτα ανοιχτή στο υποσυνείδητό μας, ακόμη και για καλούς λόγους, δεν θα μπορούμε να ελέγξουμε ποιος έχει πρόσβαση σε αυτό, πώς έχει πρόσβαση ή τους στόχους αυτής της πρόσβασης. «Μερικοί μπορεί να πιστεύουν ότι αυτές οι ανησυχίες ανήκουν σε ένα απίθανο δυστοπικό μέλλον. Και όμως, δεν υπάρχει καμία αμφιβολία ότι μας εισβάλλουν ήδη σε ένα βάθος που ήταν αδιανόητο μόλις πριν από λίγα χρόνια και ότι το κοινό θα πρέπει να τυγχάνει της πληρέστερης δυνατής προστασίας. Το υποσυνείδητό μας αντιπροσωπεύει τον πιο ιδιωτικό μας εαυτό και θα πρέπει να είναι εντελώς κλειστός από την εξωτερική πρόσβαση. Πράγματι, δεν θα έπρεπε καν να το συζητάμε».

Υπάρχουν ακόμη πολλά που δεν γνωρίζουμε για το πώς λειτουργεί ο εγκέφαλός μας και πώς το συνειδητό και το υποσυνείδητο τμήμα του μυαλού μας αλληλεπιδρούν μεταξύ τους. Ο εγκέφαλος παραμένει ένα πολύ άπιαστο όργανο και, παρόλο που η επιστήμη κάνει μεγάλα βήματα σε αυτόν τον τομέα, δεν γνωρίζουμε πολλούς από τους τρόπους με τους οποίους η λειτουργία του θα μπορούσε να επηρεαστεί από ορισμένα ερεθίσματα. «Πρέπει να γνωρίζουμε τον κίνδυνο να δώσουμε σε άλλους ανθρώπους και εταιρείες πρόσβαση στον εσωτερικό εαυτό μας σε τόσο βαθιά επίπεδα. Στο πλαίσιο της οικονομίας δεδομένων, πολλά δημόσια και ιδιωτικά ιδρύματα ανταγωνίζονται για την πρόσβαση στις πληροφορίες μας, αλλά, παραδόξως, έχει αποδειχθεί επανειλημμένα ότι τα άτομα δίνουν μικρή αξία στο απόρρητό τους», κατέληξε.

photo: pixabay

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

ΠΑΡΑΞΕΝΑ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί