ΦΡΙΚΗ: Έτσι θα λογοκρίνουν την αλήθεια στο διαδίκτυο

Ο Λιακόπουλος δικαιώνεται ακόμα μία φορά πικρά!

Η παρακολούθηση και η λογοκρισία σε όλο το Διαδίκτυο, που επιτρέπονται από την αφάνταστα τεράστια υπολογιστική δύναμη της τεχνητής νοημοσύνης (AI), η οποία ακόμα βρίσκεται σε εμβρυακή μορφή, είναι εδώ, γράφουν ΜΜΕ στις ΗΠΑ!

«Δεν πρόκειται για φουτουριστική δυστοπία. Συμβαίνει τώρα», προσθέτουν και συνεχίζουν:

«Οι κυβερνητικές υπηρεσίες συνεργάζονται με πανεπιστήμια και μη κερδοσκοπικούς οργανισμούς για την χρήση εργαλείων τεχνητής νοημοσύνης για την παρακολούθηση και την λογοκρισία περιεχομένου στο Διαδίκτυο.

Αυτό δεν είναι πολιτικό ή κομματικό. Δεν πρόκειται για κάποια συγκεκριμένη γνώμη ή ιδέα. 

 Αυτό που συμβαίνει είναι ότι ένα εργαλείο αρκετά ισχυρό για να παρακολουθεί οτιδήποτε λέγεται και γίνεται στο Διαδίκτυο (ή μεγάλα τμήματα του) γίνεται διαθέσιμο στην κυβέρνηση (σ.σ. Προφανώς και στις κυβερνήσεις άλλων κρατών, όπως η Ελλάδα – ΕΔΩ) για να μας παρακολουθεί όλους, όλη την ώρα. Και, βάσει αυτής της παρακολούθησης, η κυβέρνηση – και οποιοσδήποτε οργανισμός ή εταιρεία με τους οποίους συνεργάζεται η κυβέρνηση – μπορεί στη συνέχεια να χρησιμοποιήσει το ίδιο εργαλείο για να καταστείλει, να φιμώσει και να κλείσει όποια ομιλία (σ.σ. ή σάιτ) δεν της αρέσει. 

Αλλά δεν είναι μόνο αυτό. Χρησιμοποιώντας το ίδιο εργαλείο, η κυβέρνηση και οι «μη κυβερνητικοί» εταίροι του δημόσιου και ιδιωτικού τομέα (σκεφτείτε, για παράδειγμα: τον Παγκόσμιο Οργανισμό Υγείας) μπορούν επίσης να κλείσουν οποιαδήποτε δραστηριότητα συνδέεται με το Διαδίκτυο. Τράπεζες, αγορές, πωλήσεις, διδασκαλία, μάθηση, ψυχαγωγία, σύνδεση μεταξύ τους – εάν στην AI, που χρησιμοποιεί η κυβέρνηση, δεν αρέσει αυτό που λέτε εσείς (ή τα παιδιά σας!) σε ένα tweet ή ένα email, μπορεί να τα κλείσει όλα αυτά. 

Ναι, το έχουμε δει αυτό σε πολύ τοπική και πολιτικοποιημένη κλίμακα, για παράδειγμα, με  τους Καναδούς φορτηγατζήδες, στους οποίους κλειδώθηκαν οι τραπεζικοί λογαριασμοί και δεν μπορούσαν να έχουν πρόσβαση στα χρήματά τους!

Αυτό το είδος δραστηριότητας δεν θα μπορούσε ή δεν θα συμβεί σε εθνική (ή, ακόμα πιο τρομακτικό – σε παγκόσμια) κλίμακα;;;

Νέα έγγραφα δείχνουν πως η τεχνητή νοημοσύνη που χρηματοδοτείται από την κυβέρνηση προορίζεται για διαδικτυακή λογοκρισία

Η Υποεπιτροπή Επιλογής της Βουλής των ΗΠΑ για την Οπλοποίηση της Ομοσπονδιακής Κυβέρνησης  ιδρύθηκε τον Ιανουάριο του 2023 «για να διερευνήσει θέματα σχετικά με την συλλογή, ανάλυση, διάδοση και χρήση πληροφοριών για πολίτες των ΗΠΑ από εκτελεστικές υπηρεσίες, συμπεριλαμβανομένου του εάν τέτοιες προσπάθειες είναι παράνομες, αντισυνταγματικές , ή αλλιώς ανήθικες.”

Δυστυχώς, το έργο της επιτροπής θεωρείται, ακόμη και από τα ίδια τα μέλη της, ως σε μεγάλο βαθμό πολιτικό: οι συντηρητικοί νομοθέτες ερευνούν αυτό που θεωρούν ότι είναι η φίμωση των συντηρητικών φωνών από κυβερνητικές υπηρεσίες με νέο-φιλελεύθερη (διεθνιστική) τάση. 

Ωστόσο, στις έρευνές της, αυτή η επιτροπή έχει αποκαλύψει μερικά εκπληκτικά έγγραφα που σχετίζονται με κυβερνητικές προσπάθειες να λογοκρίνει την ομιλία Αμερικανών πολιτών. 

Αυτά τα έγγραφα έχουν κρίσιμες και τρομακτικές συνέπειες για όλη την κοινωνία.

Στην ενδιάμεση έκθεση της Υποεπιτροπής,  με ημερομηνία 5 Φεβρουαρίου 2024 , έγγραφα δείχνουν ότι ακαδημαϊκές και μη κερδοσκοπικές ομάδες προτείνουν μια κυβερνητική υπηρεσία σε ένα σχέδιο χρήσης «υπηρεσιών παραπληροφόρησης» της τεχνητής νοημοσύνης για λογοκρισία περιεχομένου σε πλατφόρμες διαδικτύου.

Συγκεκριμένα, το Πανεπιστήμιο του Μίσιγκαν εξηγεί στο Εθνικό Ίδρυμα Επιστημών (NSF) ότι τα εργαλεία που υποστηρίζονται από AI και χρηματοδοτούνται από το NSF μπορούν να χρησιμοποιηθούν για να βοηθήσουν τις πλατφόρμες μέσων κοινωνικής δικτύωσης να εκτελούν δραστηριότητες λογοκρισίας χωρίς να χρειάζεται να λάβουν πραγματικά τις αποφάσεις για το τι πρέπει να λογοκριθεί.

Δείτε ΕΔΩ πώς απεικονίζεται η σχέση στην έκθεση της υποεπιτροπής!

Ακολουθεί ένα συγκεκριμένο απόσπασμα που παρουσιάζεται στην έκθεση της Υποεπιτροπής. Προέρχεται από «τις σημειώσεις του ομιλητή από το πρώτο βήμα του Πανεπιστημίου του Μίσιγκαν προς το Εθνικό Ίδρυμα Επιστημών (NSF) σχετικά με το εργαλείο WiseDex που χρηματοδοτείται από το NSF»:

Η υπηρεσία παραπληροφόρησης που διαθέτουμε βοηθά τους υπεύθυνους χάραξης πολιτικής σε πλατφόρμες που θέλουν να… ωθήσουν την ευθύνη για δύσκολες κρίσεις σε κάποιον εκτός εταιρείας… εξωτερικεύοντας τηn δύσκολη ευθύνη της λογοκρισίας.

Αυτή είναι μια εξαιρετική δήλωση σε τόσα πολλά επίπεδα:

  1. Εξισώνει ρητά την «υπηρεσία παραπληροφόρησης» με την λογοκρισία. 

Αυτή είναι μια κρίσιμη εξίσωση, επειδή οι κυβερνήσεις σε όλο τον κόσμο προσποιούνται ότι καταπολεμούν την επιβλαβή παραπληροφόρηση, ενώ στην πραγματικότητα εγκρίνουν  τεράστια νομοσχέδια λογοκρισίας . Το  WEF ανακήρυξε  την «παραπληροφόρηση και την παραπληροφόρηση» τους «πιο σοβαρούς παγκόσμιους κινδύνους» τα επόμενα δύο χρόνια, πράγμα που προφανώς σημαίνει ότι οι μεγαλύτερες προσπάθειές τους θα κατευθυνθούν προς την λογοκρισία.

  1. Αναφέρεται στη λογοκρισία ως «ευθύνη». 

Με άλλα λόγια, υποθέτει ότι μέρος αυτού που πρέπει να κάνουν οι πλατφόρμες είναι η λογοκρισία. Όχι προστασία των παιδιών από σεξουαλικά αρπακτικά ή αθώους πολίτες από παραπληροφόρηση – απλά ανόθευτη λογοκρισία.

  1. Δηλώνει ότι ο ρόλος της τεχνητής νοημοσύνης είναι να «εξωτερικεύει» την ευθύνη για την λογοκρισία.

Οι πλατφόρμες τεχνολογίας δεν θέλουν να λαμβάνουν αποφάσεις λογοκρισίας. Η κυβέρνηση θέλει να λάβει αυτές τις αποφάσεις, αλλά δεν θέλει να παρουσιάζεται ως λογοκρισία. Τα εργαλεία τεχνητής νοημοσύνης επιτρέπουν στις πλατφόρμες να «εξωτερικεύουν» τις αποφάσεις λογοκρισίας και στην κυβέρνηση να κρύβει τις δραστηριότητές της λογοκρισίας.

Όλα αυτά θα πρέπει να τερματίσουν την ψευδαίσθηση ότι αυτό που οι κυβερνήσεις σε όλο τον κόσμο αποκαλούν «καταπολέμηση της παραπληροφόρησης και της ρητορικής μίσους» δεν είναι τελικά ξεκάθαρη λογοκρισία.

Τι συμβαίνει όταν η λογοκρισία AI εφαρμόζεται πλήρως;

Γνωρίζοντας ότι η κυβέρνηση πληρώνει ήδη για εργαλεία λογοκρισίας της τεχνητής νοημοσύνης, πρέπει να αντιληφθούμε με τι συνεπάγεται αυτό.

Χωρίς όρια ανθρώπινου δυναμικού:  Όπως επισημαίνει η έκθεση της Υποεπιτροπής, τα όρια της κυβερνητικής διαδικτυακής λογοκρισίας μέχρι τώρα περιλάμβαναν τον μεγάλο αριθμό ανθρώπων που απαιτούνταν να περάσουν από ατελείωτα αρχεία και να λάβουν αποφάσεις λογοκρισίας. Με την τεχνητή νοημοσύνη, σχεδόν κανένας άνθρωπος δεν χρειάζεται να εμπλακεί και ο όγκος των δεδομένων που μπορεί να παρακολουθηθεί μπορεί να είναι τόσο τεράστιος όσο όλα όσα λέει κάποιος σε μια συγκεκριμένη πλατφόρμα – (σ.σ. ΔΗΛΑΔΗ ΤΑ ΠΑΝΤΑ ΟΛΑ). Αυτός ο όγκος δεδομένων είναι ακατανόητος για έναν μεμονωμένο ανθρώπινο εγκέφαλο.

Κανείς δεν είναι υπεύθυνος:  Μία από τις πιο τρομακτικές πτυχές της λογοκρισίας της τεχνητής νοημοσύνης είναι ότι όταν το κάνει η τεχνητή νοημοσύνη, δεν θα υπάρχει άνθρωπος ή οργανισμός – είτε είναι η κυβέρνηση, οι πλατφόρμες είτε το πανεπιστήμιο/μη κερδοσκοπικοί οργανισμοί – που είναι στην πραγματικότητα υπεύθυνος για την λογοκρισία (σ.σ. ΘΑ ΤΟ ΚΑΝΕΙ ΑΠΛΑ Ο ΥΠΟΛΟΓΙΣΤΗΣ, ΑΠΡΟΣΩΠΑ ΚΑΙ ΑΚΑΜΠΤΑ) . Αρχικά, οι άνθρωποι δίνουν οδηγίες στο εργαλείο AI για το ποιες κατηγορίες ή τύπους γλώσσας θα λογοκρίνουν, αλλά στην συνέχεια το μηχάνημα προχωρά και παίρνει τις αποφάσεις κατά περίπτωση μόνο του (σ.σ. Η ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ ΘΑ ΑΠΟΚΤΗΣΕΙ ΔΙΚΗ ΤΗΣ ΠΡΟΣΩΠΙΚΟΤΗΤΑ ΚΑΙ ΒΟΥΛΗΣΗ). 

Καμία προσφυγή για παράπονα:  Μόλις η τεχνητή νοημοσύνη απελευθερωθεί με ένα σύνολο οδηγιών λογοκρισίας, θα σαρώσει δισεκατομμύρια διαδικτυακά σημεία δεδομένων και θα εφαρμόσει ενέργειες λογοκρισίας. Εάν θέλετε να αμφισβητήσετε μια ενέργεια λογοκρισίας AI, θα πρέπει να μιλήσετε με το μηχάνημα. Ίσως οι πλατφόρμες να απασχολούν ανθρώπους για να ανταποκρίνονται σε εκκλήσεις. Αλλά γιατί να το κάνουν αυτό, όταν διαθέτουν τεχνητή νοημοσύνη που μπορεί να αυτοματοποιήσει αυτές τις απαντήσεις;(σ.σ. ΟΠΩΣ ΕΙΧΕ ΓΡΑΨΕΙ Ο ΛΙΑΚΟΠΟΥΛΟΣ! ΤΑ ΠΑΡΑΠΟΝΑ ΤΩΝ ΠΟΛΙΤΩΝ ΘΑ ΛΑΜΒΑΝΟΥΝ ΑΤΥΟΜΑΤΟΠΟΙΗΜΕΝΕΣ, ΑΧΡΩΜΕΣ ΚΑΙ ΠΑΓΕΡΕΣ ΑΠΑΝΤΗΣΕΙΣ! ΔΕΝ ΘΑ ΥΠΑΡΧΕΙ ΕΛΠΙΔΑ ΣΥΝΕΝΝΟΗΣΗΣ)

Καμία προστασία για τους νέους:  Ένας από τους ισχυρισμούς των κυβερνητικών λογοκριτών είναι ότι πρέπει να προστατεύσουμε τα παιδιά μας από επιβλαβείς διαδικτυακές πληροφορίες, όπως περιεχόμενο που τα κάνει ανορεξικά, τα ενθαρρύνει να αυτοκτονήσουν, τα μετατρέπει σε τρομοκράτες του ISIS κ.λπ. Επίσης από σεξουαλική εκμετάλλευση. Όλα αυτά είναι σοβαρά ζητήματα που αξίζουν προσοχής. Αλλά δεν είναι τόσο επικίνδυνα για τεράστιους αριθμούς νέων όσο είναι η λογοκρισία της τεχνητής νοημοσύνης. Ο κίνδυνος που ενέχει η λογοκρισία της τεχνητής νοημοσύνης ισχύει για όλους τους νέους που περνούν πολύ χρόνο στο διαδίκτυο, επειδή σημαίνει ότι οι διαδικτυακές τους δραστηριότητες και η γλώσσα ΤΟΥς μπορούν να παρακολουθούνται και να χρησιμοποιηθούν εναντίον τους – ίσως όχι τώρα, αλλά όποτε η κυβέρνηση αποφασίσει να ακολουθήσει έναν συγκεκριμένο τύπο γλώσσας ή συμπεριφοράς. Αυτός είναι πολύ μεγαλύτερος κίνδυνος για πολύ μεγαλύτερο αριθμό παιδιών από τον κίνδυνο που ενέχει οποιοδήποτε συγκεκριμένο περιεχόμενο, επειδή περιλαμβάνει όλη την δραστηριότητα που διεξάγουν στο διαδίκτυο, αγγίζοντας σχεδόν κάθε πτυχή της ζωής τους. 

photo freepik

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί