“Τα συστήματα A.I. “μπορεί να έχουν άσχημα κίνητρα (!!!) και να πάρουν τον έλεγχο” – Νέα προειδοποίηση από τον «Νονό της Τεχνητής Νοημοσύνης»

Ο αποκαλούμενος «νονός της τεχνητής νοημοσύνης» συνεχίζει να προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης εβδομάδες αφότου παραιτήθηκε από τη δουλειά του στην Google. 

Ο Geoffrey Hinton είπε ότι τα συστήματα τεχνητής νοημοσύνης «μπορεί να έχουν άσχημα κίνητρα και να πάρουν τον έλεγχο»

Ο αποκαλούμενος «νονός της τεχνητής νοημοσύνης» συνεχίζει να προειδοποιεί για τους κινδύνους της τεχνητής νοημοσύνης εβδομάδες αφότου παραιτήθηκε από τη δουλειά του στην Google. 

Σε μια πρόσφατη συνέντευξη στο NPR, ο Geoffrey Hinton είπε ότι υπάρχει «σοβαρός κίνδυνος να γίνουν (τα συστήματα Τεχνητής Νοημοσύνης) πιο έξυπνα από εμάς αρκετά σύντομα και ότι αυτά τα πράγματα μπορεί να αποκτήσουν άσχημα κίνητρα και να πάρουν τον έλεγχο». 

Υποστήριξε ότι οι πολιτικοί και οι ηγέτες του κλάδου πρέπει να σκεφτούν τι να κάνουν σχετικά με αυτό το θέμα αυτή τη στιγμή. 

Δεν είναι πλέον επιστημονική φαντασία, ο Hinton προειδοποίησε ότι οι τεχνολογικές εξελίξεις είναι ένα σοβαρό πρόβλημα που πιθανότατα πρόκειται να φτάσει πολύ σύντομα. 

Για παράδειγμα, είπε ότι ο κόσμος μπορεί να μην απέχει πολύ από την τεχνητή γενική νοημοσύνη, η οποία έχει την ικανότητα να κατανοεί ή να μαθαίνει οποιαδήποτε πνευματική εργασία μπορεί ένας άνθρωπος. 

«Και, νόμιζα για πολύ καιρό ότι ήμασταν 30 με 50 χρόνια μακριά από αυτό», σημείωσε. “Τώρα, νομίζω ότι μπορεί να είμαστε πολύ πιο κοντά. Ίσως μόνο πέντε χρόνια μακριά από αυτό.” 

Ενώ μερικοί άνθρωποι συνέκριναν chatbots όπως το ChatGPT του OpenAI με την αυτόματη συμπλήρωση, ο Hinton είπε ότι το AI ήταν εκπαιδευμένο να κατανοεί – και το κάνει. 

“Λοιπόν, δεν λέω ότι είναι αισθαντικό. Αλλά, δεν λέω ότι δεν είναι αισθητό”, είπε στο NPR. 

«Σίγουρα μπορούν να σκεφτούν και σίγουρα μπορούν να καταλάβουν τα πράγματα»

«Σίγουρα μπορούν να σκεφτούν και σίγουρα μπορούν να καταλάβουν τα πράγματα», συνέχισε. “Και, ορισμένοι άνθρωποι με τον όρο “αισθάντονται” εννοούν, “Έχει υποκειμενική εμπειρία”. Νομίζω ότι αν φέρουμε το θέμα της υποκειμενικής εμπειρίας, απλώς θολώνει το όλο θέμα και μπλέκεις σε διάφορα πράγματα που είναι κάπως ημιθρησκευτικά για το πώς είναι οι άνθρωποι. Οπότε, ας το αποφύγουμε». 

Είπε ότι ήταν «ανήσυχος» από το πόσο έξυπνο είχε γίνει το μοντέλο PaLM της Google, σημειώνοντας ότι κατανοούσε τα αστεία αλλά και γιατί ήταν αστεία. 

Έκτοτε, η Google κυκλοφόρησε το PaLM 2, το μοντέλο μεγάλης γλώσσας επόμενης γενιάς με “βελτιωμένες δυνατότητες πολυγλωσσίας, συλλογιστικής και κωδικοποίησης”.

“Να διατηρηθεί ο έλεγχος και όταν είναι πιο έξυπνοι από εμάς”

Τόνισε ότι θα υπάρξουν πολλά οφέλη για την τεχνητή νοημοσύνη και υποστήριξε ότι οι ηγέτες πρέπει να καταβάλουν πολλούς πόρους και προσπάθεια για να δουν αν είναι δυνατό να «διατηρηθεί ο έλεγχος ακόμη και όταν είναι πιο έξυπνοι από εμάς».

«Το μόνο που θέλω να κάνω είναι απλώς να κρούω τον κώδωνα του κινδύνου για την υπαρξιακή απειλή», είπε, σημειώνοντας ότι άλλοι είχαν διαγραφεί «ως ελαφρώς τρελοί».

(photo: pixabay)

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί