Πρόεδρος της Fox Rothschild για chatbot τεχνητής νοημοσύνης: «Είναι σαν ένα μαύρο κουτί»

Όλο και περισσότεροι μιλούν για τα προβλήματα που μπορεί να φέρει η τεχνητή νοημοσύνη κυρίως σε θέματα παραβίασης ιδιωτικότητας, γιατί άραγε; Σε λίγο καιρό θα φέρουν και τη λύση που θα είναι ο κεντρικός έλεγχος της λειτουργίας της τεχνητής νοημοσύνης από μία αρχή, ώστε μόνο αυτή η αρχή να συλλέγει όλα τα δεδομένα.

Καθώς πλέον ο τεχνολογικός τομέας έχει επιδοθεί σε ένα ράλι  για να αναπτύξει πανίσχυρα chatbots τεχνητής νοημοσύνης, η ευρύτατη υιοθέτησή τους έχει πυροδοτήσει ανησυχίες για την προστασία των προσωπικών δεδομένων στις ρυθμιστικές αρχές, αλλά και τους ίδιους τους παράγοντες της αγοράς.

Ορισμένες εταιρείες, όπως η JPMorgan Chase, έχουν σπεύσει να μπλοκάρουν τη χρήση του ChatGPT , του πιο δημοφιλούς ίσως chatbot, λόγω κάποιων ανησυχιών για τη χρήση λογισμικού τρίτων μερών από τους υπαλλήλους.

Η ίδια η OpenAI μάλιστα, η εταιρεία πίσω από το ChatGPT, που ανήκει στη Microsoft, αποκάλυψε ότι χρειάστηκε να βγάλει προσωρινά offline το chatbot στις 20 Μαρτίου, προκειμένου να διορθώσει ένα bug, που έδινε δυνατότητα πρόσβασης σε ορισμένους χρήστες σε μέρος της ιστορίας συνομιλιών άλλων χρηστών.

Το ίδιο bug, που τώρα αναφέρθηκε ότι διορθώθηκε, επίσης έδινε τη δυνατότητα «ορισμένοι χρήστες να δουν το μικρό όνομα και το επίθετο, τη διεύθυνση ηλεκτρονικού ταχυδρομείου, τη διεύθυνση αποστολής της απόδειξης πληρωμής, τα τελευταία 4 ψηφία της πιστωτικής κάρτας και την ημερομηνία λήξης της» σύμφωνα με τα όσα έγραψε σε blog η OpenAI. Και μόλις την περασμένη εβδομάδα οι ρυθμιστικές αρχές της Ιταλίας εξέδωσαν προσωρινή απαγόρευση του ChatGPT στη χώρα, επικαλούμενοι ανησυχίες για θέματα ιδιωτικότητας.

Ένα μαύρο κουτί δεδομένων

«Οι ανησυχίες για τα προσωπικά δεδομένα δεν είναι μία υπερβολή» ανέφερε στο CNN ο Μαρκ Μακρίρι, συνπρόεδρος της εταιρείας Fox Rothschild. «Είναι σαν ένα μαύρο κουτί». Με το ChatGPT να έχει λανσαριστεί στο κοινό από τα τέλη Νοεμβρίου, οι χρήστες πλέον μπορούν να παράξουν εργασίες για το σχολείο και το πανεπιστήμιο, ποιήματα, στίχους τραγουδιών, μικρές ιστορίες κτλ, δίνοντας απλώς κάποιες  οδηγίες για το τι θέλουν.

Και η Google και η Microsoft έχουν λανσάρει τα δικά τους εργαλεία τεχνητής νοημοσύνης, τα οποία λειτουργούν με παρόμοιο τρόπο και στηρίζονται από γλωσσικά μοντέλα, που έχουν εκπαιδευτεί από τεράστιες ποσότητες online δεδομένων. Ο Μακρίρι είπε ότι όταν οι χρήστες δίνουν πληροφορίες σε αυτά τα εργαλεία δεν μπορούν να γνωρίζουν το πώς θα χρησιμοποιηθούν αυτές.

Αυτό εγείρει μεγάλους φόβους για τις επιχειρήσεις. Και καθώς ολοένα και περισσότεροι υπάλληλοι υιοθετούν τα εργαλεία αυτά για να τους βοηθήσουν με τα email, που πρέπει να στείλουν ή τις σημειώσεις από τις συσκέψεις, δημιουργείται ένα παράθυρο ευκαιρίας για όσους ψάχνουν να βρουν τρόπους να κλέψουν εταιρικά μυστικά.

Ο Στιβ Μιλς, επικεφαλής ζητημάτων ηθικής που συνδέονται με την τεχνητή νοημοσύνη, στην Boston Consulting Group, δήλωσε στο CNN ότι αυτό που είναι πλέον η μεγαλύτερη ανησυχία για την ιδιωτικότητα στις επιχειρήσεις αφορά την ακούσια αποκάλυψη ευαίσθητων πληροφοριών.

(με πληροφορίες από naftemporiki. gr / photo: pixabay)

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί