Ο Geoffrey Hinton είπε ότι τα συστήματα τεχνητής νοημοσύνης «μπορεί να έχουν άσχημα κίνητρα και να πάρουν τον έλεγχο»
Ο αποκαλούμενος «νονός της τεχνητής νοημοσύνης» συνεχίζει να προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης εβδομάδες αφότου παραιτήθηκε από τη δουλειά του στην Google.
Σε μια πρόσφατη συνέντευξη στο NPR, ο Geoffrey Hinton είπε ότι υπάρχει «σοβαρός κίνδυνος να γίνουν (τα συστήματα Τεχνητής Νοημοσύνης) πιο έξυπνα από εμάς αρκετά σύντομα και ότι αυτά τα πράγματα μπορεί να αποκτήσουν άσχημα κίνητρα και να πάρουν τον έλεγχο».
Υποστήριξε ότι οι πολιτικοί και οι ηγέτες του κλάδου πρέπει να σκεφτούν τι να κάνουν σχετικά με αυτό το θέμα αυτή τη στιγμή.
Δεν είναι πλέον επιστημονική φαντασία, ο Hinton προειδοποίησε ότι οι τεχνολογικές εξελίξεις είναι ένα σοβαρό πρόβλημα που πιθανότατα πρόκειται να φτάσει πολύ σύντομα.
Για παράδειγμα, είπε ότι ο κόσμος μπορεί να μην απέχει πολύ από την τεχνητή γενική νοημοσύνη, η οποία έχει την ικανότητα να κατανοεί ή να μαθαίνει οποιαδήποτε πνευματική εργασία μπορεί ένας άνθρωπος.
«Και, νόμιζα για πολύ καιρό ότι ήμασταν 30 με 50 χρόνια μακριά από αυτό», σημείωσε. “Τώρα, νομίζω ότι μπορεί να είμαστε πολύ πιο κοντά. Ίσως μόνο πέντε χρόνια μακριά από αυτό.”
Ενώ μερικοί άνθρωποι συνέκριναν chatbots όπως το ChatGPT του OpenAI με την αυτόματη συμπλήρωση, ο Hinton είπε ότι το AI ήταν εκπαιδευμένο να κατανοεί – και το κάνει.
“Λοιπόν, δεν λέω ότι είναι αισθαντικό. Αλλά, δεν λέω ότι δεν είναι αισθητό”, είπε στο NPR.
«Σίγουρα μπορούν να σκεφτούν και σίγουρα μπορούν να καταλάβουν τα πράγματα»
«Σίγουρα μπορούν να σκεφτούν και σίγουρα μπορούν να καταλάβουν τα πράγματα», συνέχισε. “Και, ορισμένοι άνθρωποι με τον όρο “αισθάντονται” εννοούν, “Έχει υποκειμενική εμπειρία”. Νομίζω ότι αν φέρουμε το θέμα της υποκειμενικής εμπειρίας, απλώς θολώνει το όλο θέμα και μπλέκεις σε διάφορα πράγματα που είναι κάπως ημιθρησκευτικά για το πώς είναι οι άνθρωποι. Οπότε, ας το αποφύγουμε».
Είπε ότι ήταν «ανήσυχος» από το πόσο έξυπνο είχε γίνει το μοντέλο PaLM της Google, σημειώνοντας ότι κατανοούσε τα αστεία αλλά και γιατί ήταν αστεία.
Έκτοτε, η Google κυκλοφόρησε το PaLM 2, το μοντέλο μεγάλης γλώσσας επόμενης γενιάς με “βελτιωμένες δυνατότητες πολυγλωσσίας, συλλογιστικής και κωδικοποίησης”.
“Να διατηρηθεί ο έλεγχος και όταν είναι πιο έξυπνοι από εμάς”
Τόνισε ότι θα υπάρξουν πολλά οφέλη για την τεχνητή νοημοσύνη και υποστήριξε ότι οι ηγέτες πρέπει να καταβάλουν πολλούς πόρους και προσπάθεια για να δουν αν είναι δυνατό να «διατηρηθεί ο έλεγχος ακόμη και όταν είναι πιο έξυπνοι από εμάς».
«Το μόνο που θέλω να κάνω είναι απλώς να κρούω τον κώδωνα του κινδύνου για την υπαρξιακή απειλή», είπε, σημειώνοντας ότι άλλοι είχαν διαγραφεί «ως ελαφρώς τρελοί».
(photo: pixabay)
ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ
ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ
ΠΑΡΑΞΕΝΑ
LATEST
- Θεσσαλονίκη: Ακυρώνονται τρεις παραστάσεις του ΚΘΒΕ λόγω στάσης εργασίας των εργαζομένων του
- Θεσ/νίκη: Χειροπέδες σε Έλληνα καταζητούμενο για μεγάλη υπόθεση φοροδιαφυγής σχεδόν 30 εκατ. ευρώ
- Μέγαρο Μουσικής: Το καλλιτεχνικό πρόγραμμα για την αρχή του 2026 – Τον Φεβρουάριο το αφιέρωμα στον Ραχμάνινοφ
- Γεωπολιτική «απόδραση» της Ρωσίας μέσω Ιράν – Τεράστια εξέλιξη για την Μόσχα
- Παρίσι: Η διεύθυνση του Λούβρου ανακοίνωσε πως το μουσείο λειτουργεί εν μέρει, παρά την απεργία
- Θεσσαλονίκη: Το ρομπότ Pepper μαθαίνει στους καταναλωτές τα δικαιώματά τους – Δείτε βίντεο
- ΟΠΕΚΕΠΕ και ΕΛΓΑ: Ολοκληρώθηκαν οι πληρωμές 487,9 εκατ. – Επιπλέον 600 εκατ. ευρώ μέχρι 31/12
- Βενεζουέλα: Απέπλευσαν δύο τάνκερ με υποπροϊόντα πετρελαίου
- ΑΑΔΕ: Καταβλήθηκε η τέταρτη δόση της αυξημένης επιστροφής ΕΦΚ πετρελαίου για αγρότες
- Εθνική Στρατηγική Κυβερνοασφάλειας 2026 –2030: Οδικός χάρτης για ένα ασφαλές ψηφιακό μέλλον στην Ελλάδα









