Ημερίδα για την έλευση της τεχνητής νοημοσύνης στη δημοσιογραφία – «Χρειάζεται επανεκπαίδευση των δημοσιογράφων παγκοσμίως»

Η Πανελλήνια Ομοσπονδία Ενώσεων Συντακτών (ΠΟΕΣΥ) άνοιξε τη συζήτηση για την τεχνητή νοημοσύνη στα μέσα ενημέρωσης, τις προοπτικές που θα δημιουργήσει, αλλά και τους κινδύνους που ελλοχεύουν από τη χρήση της, κατά την ημερίδα που διοργάνωσε με θέμα «Τεχνητή Νοημοσύνη, ΜΜΕ και Δημοσιογραφία: Προκλήσεις και προοπτικές».

«Ελπίζω ότι θα συμβάλουμε σε ένα τόσο μεγάλο και σύγχρονο θέμα», ανέφερε ο πρόεδρος της ΠΟΕΣΥ, Σωτήρης Τριανταφύλλου, ο οποίος σημείωσε ότι η τεχνητή νοημοσύνη φαίνεται ότι μετασχηματίζει τη δημοσιογραφία και είναι ένα γοητευτικό θέμα που παράλληλα προκαλεί και φόβους. Ο κ. Τριανταφύλλου πρόσθεσε ότι μετασχηματίζεται η δημοσιογραφία και οι αίθουσες σύνταξης που φαίνεται ότι πλέον πειραματίζονται και τη χρησιμοποιούν παγκοσμίως και κατέληξε: «Στόχος είναι όχι μόνο τα συμπεράσματα στο τέλος της ημέρας αλλά και να κάνουμε το επόμενο βήμα».

«Χρειάζεται επανεκπαίδευση των δημοσιογράφων παγκοσμίως», τόνισε ο καθηγητής του Τμήματος Πληροφορικής ΑΠΘ, πρόεδρος της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη, Ιωάννης Πήτας, ο οποίος κλήθηκε να απαντήσει στο ερώτημα τι είναι τεχνητή νοημοσύνη.

«Επιστήμη και Μηχανική Τεχνητής Νοημοσύνης είναι η διεπιστημονική μελέτη και κατασκευή τεχνητών υπολογιστικών συστημάτων που μιμούνται ή και ξεπερνούν την ανθρώπινη νοημοσύνη στην ανάλυση πληροφοριών και την ανθρώπινη αλληλεπίδραση με τον υπόλοιπο κόσμο», εξήγησε ο κ. Πήτας. Ακόμη, μίλησε για τις δημοσκοπήσεις που μπορούν να γίνουν, μέσω της τεχνητής νοημοσύνης, πριν από τις εκλογές, χρησιμοποιώντας δεδομένα, ενώ αναφέρθηκε και σε διάφορα προβλήματα που υπάρχουν σε σχέση με την παραπληροφόρηση και τις ψευδείς ειδήσεις, επισημαίνοντας πως πρέπει να υπάρξει, άμεσα, ρύθμιση για να λυθεί το ζήτημα.

Στον πρώτο κύκλο της συζήτησης, που είχε να κάνει με την ηθική και νομική διάσταση της τεχνητής νοημοσύνης, η καθηγήτρια του Πανεπιστημίου Αιγαίου, Λίλιαν Μήτρου, αναφέρθηκε στα συστήματα τεχνητής νοημοσύνης, τα οποία πλέον είναι σχεδιασμένα να αναπαντούν σε ερωτήσεις με τρόπο διαλεκτικό, φυσικό και διαδραστικό, που παράγουν λόγο χωρίς απλώς να προτείνουν πηγές άντλησης της πληροφορίας όπως κάνει το google. «Παράγουν αποτελέσματα, κυρίως κείμενο, που προσιδιάζει σε ανθρώπινο δημιούργημα και επικοινωνεί με τον χρήστη και μάλιστα εκπαιδεύονται διαρκώς με βάση τεράστια και εμπλουτιζόμενα σύνολα δεδομένων κειμένου, εικόνας κ.λπ.», υπογράμμισε.

Όπως πρόσθεσε, η τεχνητή νοημοσύνη διαδραματίζει έναν κομβικό ρόλο σε σχέση με την ελευθερία της έκφρασης και εφαρμόζεται σε μια σειρά καταστάσεων που επηρεάζουν τον τρόπο και την έκταση με τα οποία οι άνθρωποι μπορούν να αποκτήσουν πρόσβαση, να αναζητήσουν και να βρουν πληροφορία σε ψηφιακό περιβάλλον (αλγόριθμοι αναζήτησης/προβολής αποτελεσμάτων). Παράλληλα, η κ. Μήτρου σημείωσε ότι όλο και περισσότερο πάροχοι ψηφιακών υπηρεσιών/ online intermediaries, όπως πλατφόρμες ψηφιακών δικτύων και μηχανές αναζήτησης χρησιμοποιούν συστήματα τεχνητής νοημοσύνης για να ελέγξουν το περιεχόμενο, την πληροφορία, η οποία θα προσφερθεί ή στην οποία θα εκτεθούν οι χρήστες με τρόπους που είναι αδιαφανείς και μη υποκείμενοι σε έλεγχο και έτσι υφίσταται ο κίνδυνος ένας περιορισμένος αριθμός ψηφιακών ενημερωτικών ή ακόμη και μη ενημερωτικών οργανισμών να καταστούν ο βασικός αγωγός για το ψηφιακό περιεχόμενο, για το περιεχόμενο που προσφέρεται και διαδίδεται ψηφιακά.

Ακόμη, τόνισε ότι το ChatGPT και άλλα μοντέλα γνώρισαν ταχύτατα τεράστια διάδοση, προκάλεσαν ενθουσιασμό και προσδοκίες σε πολλούς χρήστες αλλά και σήμαναν συναγερμό για τις επιπτώσεις της χρήσης του και παράλληλα προέκυψαν ζητήματα ως προς την αξιοπιστία και την ακρίβεια των αποτελεσμάτων της τεχνητής νοημοσύνης, ιδιαίτερα με την ικανότητα των χρηστών που είναι ειδικοί να παράξουν deepfakes, ήχο και βίντεο. «Προβλήματα ως την ακρίβεια και την αξιοπιστία λόγω της ποιότητας των δεδομένων που χρησιμοποιούνται για την εκπαίδευση των συστημάτων αυτών και εν γένει των (αν)αξιόπιστων πηγών εκπαίδευσης ή των προκατειλημμένων δεδομένων», επεσήμανε η κ. Μήτρου και συμπλήρωσε ότι παρουσιάζονται σημαντικοί κίνδυνοι σε σχέση με την αξιοπιστία των ΜΜΕ.

Ο καθηγητής της Νομικής Σχολής Πανεπιστημίου Αθηνών Σπύρος Βλαχόπουλος μίλησε για ζητήματα ευθύνης από τις εφαρμογές τεχνητής νοημοσύνης και ξεκίνησε από τη ζήτημα της προστασίας των προσωπικών δεδομένων. Υπάρχουν, ακόμα, σημαντικές ευθύνες από τη χρήση συστηματων τεχνητής νοημοσύνης που αφορούν τους δημοσιογράφους, σύμφωνα με τον ίδιο. Επίσης, ο κ. Βλαχόπουλος τόνισε τη διάσταση της μη προβλεψιμότητας της τεχνητής νοημοσύνης που κάνει αδύνατη την επίρρυψη ευθυνών σύμφωνα με τα παραδοσιακά δικαιακά συστήματα, δηλαδή δημιουργείται το πρόβλημα το αν είναι και υποκείμενα δικαίου και οι μηχανές. Αν, δηλαδή, υπάρξει ζημία έναντι προσώπου από μία εφαρμογή τεχνητής νοημοσύνης ποιος θα αναλάβει την ευθύνη και -όπως είπε ο καθηγητής- το μόνο που δεν μπορούμε να πούμε ότι δεν υπάρχει καμία ευθύνη. Υπάρχουν, πάντως, νομικά εργαλεία όπως είναι η ευθύνη του παραγωγού, πρόσθεσε. «Δεν θα πρέπει να είμαστε πολύ αυστηροί με τον παραγωγό, να είμαστε φοβικοί και να εφαρμόζουμε νέες τεχνολογίες» επεσήμανε ο κ. Βλαχόπουλος. «Όποια ρύθμιση και να υιοθετηθει πρέπει να λαμβάνει υπόψη ότι την ευθύνη για τη διάδοση ψευδών ειδήσεων μέσω μίας εφαρμογής τεχνητής νοημοσύνης πρέπει να την έχει ο παραγωγός της και όχι ο δημοσιογράφος, εκτός και αν ο δημοσιογράφος το έχει κάνει εν γνώση του», υποστήριξε και κατέληξε ότι η τεχνητή νοημοσύνη πρέπει να είναι στην υπηρεσία του ανθρώπου, καθώς δεν μπορούν να τον αντικαταστήσουν.

Ο πρόεδρος της Ελληνικής Ένωσης για την Προστασία των Προσωπικών Δεδομένων, Σπύρος Τάσσης, αναφέρθηκε στον ψηφιακό ανθρωπισμό στην τεχνητή νοημοσύνη και ηθική των μέσων ενημέρωσης, υπογραμμίζοντας ότι η τεχνολογία και η καινοτομία είναι απαραίτητες αλλά δεν πρέπει να βλάπτουν τον άνθρωπο και πρέπει να στοχεύσουμε σε ένα ανθρωποκεντρικό ψηφιακό μέλλον.

«Η γενική ηθική των ΜΜΕ θεωρείται ότι διακρίνεται σε τρεις σφαίρες επιρροής: Οργανωτική, επαγγελματική και κοινωνική», σημείωσε ο κ. Τάσσης. «Η οργανωτική σφαίρα αντιπροσωπεύει την ηθική του συστήματος των ΜΜΕ, η επαγγελματική σφαίρα περιλαμβάνει την ατομική ηθική του δημοσιογράφου και η κοινωνική σφαίρα περιλαμβάνει την ηθική του δέκτη (αναγνώστη/θεατή/ακροατή). Το πλέον σημαντικό για την ηθική χρήση κάθε τεχνολογίας, ανεξαρτήτως τομέα, είναι η ανθρώπινη συμμετοχή, η διατήρηση, δηλαδή, του δεσμού με τις ανθρώπινες ενέργειες. Εξίσου σημαντική τόσο για την τεχνητή νοημοσύνης όσο και για τη δημοσιογραφία είναι η χρήση καθαρών και αξιόπιστων δεδομένων, η επαρκής διαφάνεια και η σαφής ένδειξη όταν υπάρχουν αυτοματοποιημένα κομμάτια περιεχομένου ιδίως στο ερευνητικό ρεπορτάζ», εξήγησε ο καθηγητής. Όπως είπε, σύμφωνα με τους Reporters Without Borders, μετά την έκρηξη της generative τεχνητής νοημοσύνης στις αρχές του 2023, ελάχιστα δημοσιογραφικά γραφεία δημοσίευσαν κατευθυντήριες γραμμές δεοντολογίας. Οι περισσότερες από αυτές επικεντρώνονται σε θέματα που αφορούν την ανθρώπινη εποπτεία του δημοσιευμένου περιεχομένου, τη διαφάνεια όσον αφορά τη συνθετική ή ανθρώπινη προέλευση του δημοσιευμένου περιεχομένου, τα όρια που τίθενται για τη χρήση της δημιουργικής τεχνητής νοημοσύνης από τους δημοσιογράφους, την ανάγκη να μην αποκαλύπτονται ιδιωτικές πληροφορίες σε πλατφόρμες τεχνητής νοημοσύνης και τη διεκδίκηση της ανθρώπινης ευθύνης για το δημοσιευμένο περιεχόμενο, τον κίνδυνο της διπλής πληροφόρησης που ενσωματώνεται στα εργαλεία της δημιουργικής τεχνητής νοημοσύνης.

Στον επόμενο κύκλο της συζήτησης που είχε θέμα «Τεχνητή Νοημοσύνη, ΜΜΕ και παραγωγή περιεχομένου», ο καθηγητής του Αριστοτέλειου Πανεπιστημίου Ανδρέας Βέγλης τόνισε ότι στις αρχές της δεκαετίας του 2020, η πρόοδος στα βαθιά νευρωνικά δίκτυα επέτρεψε τη δημιουργία ενός αριθμού συστημάτων τεχνητής νοημοσύνης που δέχονταν ως είσοδο προτροπές φυσικής γλώσσας. Σε αυτά περιλαμβάνονται chatbots μεγάλου γλωσσικού μοντέλου, όπως τα ChatGPT, Bing Chat, Bard και LLaMA, και συστήματα τεχνητής νοημοσύνης από κείμενο σε εικόνα, όπως τα Stable Diffusion, Midjourney και DALL-E. Στη συνέχεια αναφέρθηκε στα πεδία εφαρμογής της Παραγωγικής Τεχνητής Νοημοσύνης (Generative Al) σε ένα ευρύ φάσμα βιομηχανιών, όπως τέχνη, συγγραφή, ανάπτυξη λογισμικού, σχεδιασμός προϊόντων, υγειονομική περίθαλψη, τυχερά παιχνίδια, Μάρκετινγκ. Επίσης,ο κ. Βέγλης μίλησε για τις ανησυχίες σχετικά με την πιθανή κατάχρηση της Generative Al, όπως το έγκλημα στον κυβερνοχώρο ή η δημιουργία ψευδών ειδήσεων ή deepfakes που μπορούν να χρησιμοποιηθούν για την εξαπάτηση ή τη χειραγώγηση των ανθρώπων. Ο ίδιος επεσήμανε ότι πρέπει να σχεδιάσουμε εργαλεία με τεχνητή νοημοσύνη, όπου οι άνθρωποι που χρησιμοποιούν τα εργαλεία παραμένουν στον έλεγχο των συνολικών εργασιών και ότι η τεχνητή νοημοσύνη μπορεί να αυτοματοποιήσει επιμέρους εργασίες με υψηλό βαθμό διαθεσιμότητας και αξιοπιστίας. Όπως πρόσθεσε, οι ανθρώπινες ικανότητες (έλεγχος, εποπτεία) μπορούν να υποβοηθούνται από τις δυνατότητες της τεχνητής νοημοσύνης και ορισμένες εργασίες μπορεί να χρειαστεί να επανασχεδιαστούν ενώ πρέπει να γίνει επαναπροσδιορισμός της διαδικασίας παραγωγής ειδήσεων και σχεδίαση εξειδικευμένων διεπαφών, ώστε οι άνθρωποι να μπορούν να διατηρήσουν την αυτονομία και τον έλεγχο. Ακόμη, υπογράμμισε πως η τεχνητή νοημοσύνη πρέπει να σχεδιάζεται με τέτοιο τρόπο που να ενσωματώνει τις αξίες των ειδήσεων, έτσι ώστε τα αποτελέσματα αυτών των συστημάτων να είναι αξιόπιστα σε σχέση με τις ανάγκες της σύνταξης και να τηρούνται οι ηθικές δεσμεύσεις του επαγγέλματος. Ο κ. Βέγλης κατέληξε λέγοντας ότι είναι σημαντικό τα ΜΜΕ να διατηρήσουν κάποια ανεξαρτησία από τις μεγάλες εταιρείες τεχνολογίας.

Η καθηγήτρια του Πανεπιστημίου Πελοποννήσου Γιώτα Αντωνοπούλου αναφέρθηκε στην «Τεχνητή νοημοσύνη και δημοσιογραφία», σημειώνοντας ότι η τεχνητή νοημοσύνη δεν έχει τη δυνατότητα της μάθησης αλλά περιορίζεται στην αποθήκευση δεδομένων. «Μη δώσουμε στα μηχανήματα ιδιότητες τις οποίες δεν έχουν. Λείπει η πραγματική νοημοσύνη και η δημιουργικότητα», τόνισε γιατί δεν είναι δημιουργικότητα το να συνθέτεις από ταδεδομένα που σου έχουν δώσει και προσέθεσε πως οι μηχανές δεν έχουν και ενσυναίσθηση. Τέλος, η κ. Αντωνοπούλου μίλησε για την εσωτερική δύναμη των κειμένων και όλα αυτά που καθιστούν τα κείμενα ελκυστικά. «Δεν θα πρέπει να καταληφθούμε από οποιοδήποτε φόβο σε σχέση με τις νέες τεχνολογίες», κατέληξς η καθηγήτρια του Πανεπιστημίου Πελοποννήσου.

Ο επίκουρος καθηγητής του Ιονίου Πανεπιστημίου Άρης Βραχάτης μίλησε για την επίδραση της τεχνητής νοημοσύνης στη δημοσιογραφία και επεσήμανε ότι δεν πρέπει να την αγνοούμε αλλά να τη σεβόμαστε. Ακόμη, είπε ότι η τεχνητή νοημοσύνη δεν μπορεί να μάθει, δεν αποκτά βαθιά γνώση, δεν έχει ενσυναίσθηση, δεν έχει φαντασία, δεν έχει δημιουργικότητα, δεν μπορεί να γίνει ένας σούπερ άνθρωπος, με άλλα λόγια, καθώς ο ανθρώπινος εγκέφαλος είναι εξαιρετικά πολύπλοκος. Επίσης, υποστήριξε ότι είναι περισσότερο αξιόπιστα τα συστήματα τεχνητής νοημοσύνης και υπογράμμισε πως η τεχνητή νοημοσύη δημιουργήθηκε για να βοηθά τον άνθρωπο. Σε σχέση με τη δημοσιογραφία, ανέφερε ότι σε έρευνα που πραγματοποιήθηκε διαπιστώθηκε πως 7 στους 10 δημοσιογράφους χρησιμοποιούν την τεχνητή νοημοσύνη και αυτό έχει βοηθήσει την απόδοσή τους.

Στα θετικά της σημείωσε την αυτοματοποίηση ρουτίνων όπως τη συλλογή δεδομένων και την παραγωγή ειδήσεων, επιτρέποντας στους δημοσιογράφους να επικεντρωθούν σε πιο σύνθετες και εμβαθύνουσες αναφορές, την ανάλυση μεγάλων δεδομένων, καθώς μπορεί να αναλύσει αποτελεσματικά τεράστιες ποσότητες δεδομένων για να ανακαλύψει τάσεις και πρότυπα που θα ήταν αδύνατο να εντοπιστούν με ανθρώπινη ανάλυση, την προσωποποίηση του περιεχομένου, ότι δηλαδή μπορεί να προσαρμόσει τις ειδήσεις και το περιεχόμενο στις προτιμήσεις του κάθε αναγνώστη, βελτιώνοντας την εμπειρία χρήστη και τη δέσμευση, την ταχύτητα, δηλαδή την ταχύτερη επεξεργασία και δημοσίευση ειδήσεων, που είναι κρίσιμο στον κόσμο της δημοσιογραφίας που ο χρόνος μετράει, και την παραγωγή περιεχομένου, δηλαδή την ικανότητα να παράγει βασικό δημοσιογραφικό περιεχόμενο, όπως οικονομικές αναφορές ή αποτελέσματα αγώνων, απελευθερώνοντας πόρους για πιο σύνθετη δημοσιογραφία.

Στα αρνητικά ανέφερε την απώλεια της ανθρώπινης αφής, καθώς η τεχνητή νοημοσύνη δεν μπορεί να αντικατοπτρίσει πλήρως την ανθρώπινη κρίση και την ηθική που είναι απαραίτητα στην ποιοτική δημοσιογραφία, την προκατάληψη στα δεδομένα γιατί δεν μπορεί να ενσωματώσει προκαταλήψεις βασισμένες στα δεδομένα που τροφοδοτούνται σε αυτήν, προκαλώντας πιθανώς μεροληπτική ειδησεογραφία, την απειλή για θέσεις εργασίας, την ποιότητα και το βάθος, καθώς δεν είναι πάντα ικανή να παράγει άρθρα με το ίδιο βάθος και ποιότητα με έναν έμπειρο δημοσιογράφο, ιδιαίτερα σε σύνθετα θέματα που απαιτούν κριτική σκέψη, την εμπιστοσύνη του κοινού, εννοώντας ότι η εμπιστοσύνη του κοινού μπορεί να μειωθεί αν το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη δεν είναι καλά επιμελημένο ή αν έχει ακρίβεια που αμφισβητείται και τέλος την ευκολία στην παραγωγή fake news.

(ΑΠΕ-ΜΠΕ / photo: pixabay)

ΠΟΛΙΤΙΚΟΛΟΓΙΕΣ

ΠΡΕΠΕΙ ΝΑ ΔΙΑΒΑΣΕΤΕ

LATEST

Κύρια Θέματα

ΕΥΚΑΙΡΙΕΣ ΑΓΟΡΩΝ

Κάθε μέρα μαζί