Ωστόσο, κατά τη χρήση, θα πρέπει να είστε προσεκτικοί ώστε το απόρρητό τους να μην γίνει εκπαιδευτικό υλικό για τεχνητή νοημοσύνη ή να εκτεθεί λόγω διαρροών δεδομένων.
Τα τελευταία χρόνια, οι χρήστες έχουν μάθει πολλά από το ChatGPT της OpenAI και το chatbot έχει επίσης καταγράψει πολλές προσωπικές πληροφορίες για τους χρήστες του.
Έχει συλλέξει μεγάλο όγκο προσωπικών δεδομένων μέσω αμέτρητων αλληλεπιδράσεων με τους χρήστες—για παράδειγμα, σε ποιους αρέσει να τρώνε αυγά, ποιοι χρήστες έχουν μωρά που πρέπει να θηλάσουν για να κοιμηθούν και πώς ορισμένοι χρήστες πρέπει να προσαρμόσουν τις προπονήσεις τους λόγω πόνου στην πλάτη.
Έχει θυμηθεί ακόμη και περισσότερες ιδιωτικές και ευαίσθητες λεπτομέρειες που δεν είναι βολικό να αποκαλυφθούν.
Ανεξάρτητα από το ποιο chatbot επιλέγεται: όσο περισσότερα προσωπικά πράγματα μοιράζεστε, τόσο πιο χρήσιμο γίνεται…Οι ασθενείς ανεβάζουν αναφορές εξετάσεων αίματος για ανάλυση, οι μηχανικοί επικολλούν αδημοσίευτο κώδικα για εντοπισμό σφαλμάτων. Ωστόσο, οι ειδικοί της τεχνητής νοημοσύνης προειδοποιούν ότι θα πρέπει να παραμένουμε προσεκτικοί όταν χρησιμοποιούμε τέτοια εργαλεία που μοιάζουν με τον άνθρωπο, ειδικά με ευαίσθητες πληροφορίες όπως αριθμούς κοινωνικής ασφάλισης ή εταιρικά εμπιστευτικά δεδομένα.
Αν και οι εταιρείες τεχνολογίας είναι πρόθυμες να χρησιμοποιήσουν δεδομένα για τη βελτιστοποίηση των μοντέλων τους, δεν θέλουν να αποκτήσουν προσωπικά δεδομένα των χρηστών. Η OpenAI προειδοποιεί ξεκάθαρα: «Μην αποκαλύπτετε ευαίσθητες πληροφορίες στις συνομιλίες». Η Google τονίζει επίσης στους χρήστες Gemini: «Αποφύγετε την εισαγωγή εμπιστευτικών πληροφοριών ή οτιδήποτε δεν θα θέλατε να δει η ΑΙ».
Οι ερευνητές της τεχνητής νοημοσύνης πιστεύουν ότι τα αρχεία συνομιλιών σχετικά με περίεργα εξανθήματα ή οικονομικά λάθη θα μπορούσαν να γίνουν εκπαιδευτικό υλικό για νέες εκδόσεις της τεχνητής νοημοσύνης ή θα μπορούσαν να εκτεθούν μέσω παραβιάσεων δεδομένων. Ακολουθούν τύποι περιεχομένου που οι χρήστες πρέπει να αποφεύγουν να εισάγουν, μαζί με μερικές συμβουλές για το πώς να προστατεύσετε το απόρρητό σας στις συνομιλίες:
Το ρεαλιστικό, ανθρωποειδές στυλ επικοινωνίας των chatbot συχνά κάνει τους ανθρώπους να νιώθουν χαλαρά σαν να συνομιλούν με έναν φίλο τους.
Η Jennifer King, ερευνήτρια στο Ινστιτούτο του Στάνφορντ για Ανθρωποκεντρική Τεχνητή Νοημοσύνη, προειδοποιεί ότι μόλις εισάγετε πληροφορίες σε ένα chatbot, «χάνετε τον έλεγχό τους».
Τον Μάρτιο του 2023, ένα σφάλμα ChatGPT επέτρεψε σε ορισμένους χρήστες να δουν το αρχικό περιεχόμενο συνομιλίας άλλων. Ευτυχώς, η εταιρεία διόρθωσε γρήγορα το πρόβλημα. Η OpenAI είχε επίσης στείλει λάθος στο παρελθόν email επιβεβαίωσης συνδρομής, εκθέτοντας ονόματα χρηστών, διευθύνσεις email και πληροφορίες πληρωμής.
Εάν υπάρχει παραβίαση δεδομένων ή νομική κλήτευση, τα αρχεία συνομιλίας θα μπορούσαν να συμπεριληφθούν στα εκτεθειμένα δεδομένα.
Συνιστάται να ορίσετε ισχυρούς κωδικούς πρόσβασης και να ενεργοποιήσετε τον έλεγχο ταυτότητας πολλαπλών παραγόντων και να αποφύγετε την εισαγωγή των ακόλουθων τύπων πληροφοριών:
1.Στοιχεία ταυτότητας: Συμπεριλαμβανομένων αριθμών Κοινωνικής Ασφάλισης, αριθμών άδειας οδήγησης, αριθμούς διαβατηρίου, ημερομηνίες γέννησης, διευθύνσεις και αριθμούς τηλεφώνου. Ορισμένα chatbots διαθέτουν λειτουργίες αυτόματης κάλυψης δεδομένων που μπορούν να αποκλείσουν ευαίσθητα πεδία. Ένας εκπρόσωπος της OpenAI δήλωσε: «Σκοπεύουμε να εκπαιδεύσουμε μοντέλα τεχνητής νοημοσύνης στον κόσμο, όχι προσωπικά δεδομένα ατόμων, και να μειώσουμε ενεργά τη συλλογή προσωπικών δεδομένων».
2.Εκθέσεις ιατρικών εξετάσεων: Το ιατρικό απόρρητο έχει σκοπό να αποτρέψει τις διακρίσεις και την αμηχανία, αλλά τα chatbot γενικά δεν προστατεύονται από ειδικούς κανονισμούς για τα δεδομένα υγείας. Εάν απαιτείται βοήθεια τεχνητής νοημοσύνης για την ερμηνεία των αποτελεσμάτων των δοκιμών, ο Stanford’s King συνιστά: «Πρώτα περικόψτε ή επεξεργαστείτε τις εικόνες ή τα έγγραφα για να διατηρήσετε μόνο τα αποτελέσματα των δοκιμών και να κρύψετε όλες τις άλλες πληροφορίες».
3.Πληροφορίες οικονομικού λογαριασμού: Οι αριθμοί τραπεζικών και επενδυτικών λογαριασμών θα μπορούσαν να χρησιμοποιηθούν για παρακολούθηση ή κλοπή και πρέπει να προστατεύονται αυστηρά.
4.Εταιρικές εμπιστευτικές πληροφορίες: Εάν οι χρήστες απολαμβάνουν να χρησιμοποιούν chatbot γενικής χρήσης για εργασία —ακόμα και απλώς να συντάσσουν ένα βασικό email— ενδέχεται να διαρρεύσουν ακούσια δεδομένα πελατών ή εμπορικά μυστικά. Η Samsung κάποτε απαγόρευσε εξ ολοκλήρου το ChatGPT αφού οι μηχανικοί διέρρευσαν τον εσωτερικό πηγαίο κώδικα. Εάν η AI είναι πραγματικά χρήσιμη στην εργασία, οι εταιρείες θα πρέπει να χρησιμοποιούν εμπορικές εκδόσεις ή να αναπτύξουν προσαρμοσμένα συστήματα AI.
5.Διαπιστευτήρια σύνδεσης: Καθώς οι έξυπνοι πράκτορες που μπορούν να εκτελούν εργασίες στον πραγματικό κόσμο γίνονται πιο συνηθισμένοι, η ανάγκη παροχής διαπιστευτηρίων λογαριασμού σε chatbot αυξάνεται. Ωστόσο, αυτές οι υπηρεσίες δεν έχουν κατασκευαστεί σύμφωνα με τα πρότυπα ψηφιακής αποθήκευσης — οι κωδικοί πρόσβασης, οι κωδικοί PIN και οι ερωτήσεις ασφαλείας θα πρέπει να αποθηκεύονται σε επαγγελματίες διαχειριστές κωδικών πρόσβασης.
Όταν οι χρήστες δίνουν θετικά ή αρνητικά σχόλια σχετικά με τις απαντήσεις του chatbot, μπορεί να θεωρηθεί άδεια χρήσης των ερωτήσεων και των απαντήσεων AI για αξιολόγηση και εκπαίδευση μοντέλων. Εάν μια συνομιλία περιλαμβάνει ευαίσθητα θέματα όπως η βία και επισημανθεί, μπορεί ακόμη και να ελεγχθεί με μη αυτόματο τρόπο από το προσωπικό της εταιρείας.
Ο Anthropic, ο προγραμματιστής του Claude, δεν χρησιμοποιεί συνομιλίες χρηστών για να εκπαιδεύσει την AI του από προεπιλογή και διαγράφει δεδομένα μετά από δύο χρόνια. Το ChatGPT της OpenAI, το Copilot της Microsoft και το Gemini της Google χρησιμοποιούν όλα δεδομένα συνομιλίας, αλλά προσφέρουν επιλογές στις ρυθμίσεις για να το απενεργοποιήσετε. Για χρήστες που εστιάζουν στο απόρρητο, ακολουθούν ορισμένες προτάσεις:
Διαγράψτε τακτικά αρχεία: Ο Jason Clinton, Chief Information Security Officer στο Anthropic, συνιστά στους προσεκτικούς χρήστες να καθαρίζουν τις συνομιλίες τους τακτικά. Οι εταιρείες τεχνητής νοημοσύνης συνήθως διαγράφουν δεδομένα που επισημαίνονται ως “διαγραμμένα” μετά από 30 ημέρες.
Ενεργοποίηση προσωρινών συνομιλιών: Η δυνατότητα “προσωρινής συνομιλίας” του ChatGPT είναι παρόμοια με την κατάσταση ανώνυμης περιήγησης στα προγράμματα περιήγησης. Όταν είναι ενεργοποιημένο, αποτρέπει την αποθήκευση δεδομένων στο προφίλ του χρήστη. Αυτές οι συνομιλίες δεν αποθηκεύονται στο ιστορικό ούτε χρησιμοποιούνται για την εκπαίδευση μοντέλων.
Κάντε ερωτήσεις ανώνυμα: Οι μηχανές αναζήτησης με επίκεντρο το απόρρητο υποστηρίζουν ανώνυμη πρόσβαση σε βασικά μοντέλα τεχνητής νοημοσύνης όπως το Claude και το GPT και υπόσχονται ότι τέτοια δεδομένα δεν θα χρησιμοποιηθούν για εκπαίδευση. Αν και οι προηγμένες λειτουργίες όπως η ανάλυση αρχείων μπορεί να μην είναι διαθέσιμες, οι βασικές λειτουργίες Q&A λειτουργούν καλά.
Να θυμάστε ότι τα chatbots είναι πάντα πρόθυμα να συνεχίσουν τη συνομιλία, αλλά το να αποφασίσει πότε θα τερματιστεί —ή να πατήσει το κουμπί διαγραφής— εξαρτάται πάντα από τον χρήστη.
photo: pixabay