Από την Alexandra Borchardt
Αν θέλουμε να προβοκάρουμε λίγο τη συζήτηση που έχει ανοίξει, η δημοσιογραφία είναι το ακριβώς αντίθετο από την παραγωγική τεχνητή νοημοσύνη: η δημοσιογραφία μιλά για γεγονότα· η παραγωγική τεχνητή νοημοσύνη υπολογίζει πιθανότητες. Ή μήπως θέλετε οι δημοσιογράφοι να συμπληρώνουν τα κενά μιας ιστορίας με κάτι που απλώς ακούγεται πιθανό; Γιατί αυτός είναι ακριβώς ο τρόπος με τον οποίο λειτουργεί η παραγωγική τεχνητή νοημοσύνη. Ωστόσο, η παραγωγική τεχνητή νοημοσύνη προσφέρει τεράστιες ευκαιρίες για τη βελτίωση της δημοσιογραφίας: μπορεί να χρησιμοποιηθεί για την αναζήτηση νέων ιδεών, τη σύνθεση ερωτήσεων για συνεντεύξεις και τη δημιουργία τίτλων, ενώ μπορεί επίσης να διαδραματίσει σημαντικό ρόλο στη «δημοσιογραφία δεδομένων» και την ταχεία ανάλυση εγγράφων. Μπορεί επίσης να βοηθήσει στην υπέρβαση μορφοτύπων και γλωσσών, και μπορεί να μετατρέπει κείμενα σε βίντεο, podcast και οπτικά στοιχεία, να μεταγράψει, να μεταφράσει, να απεικονίσει και να καταστήσει το περιεχόμενο προσβάσιμο σε μορφότυπους συνομιλίας. Οι πτυχές αυτές μπορεί να βοηθήσουν τη δημοσιογραφία να απευθυνθεί σε κοινά που στο παρελθόν ήταν παραγκωνισμένα: κοινά που βρίσκονται σε συγκεκριμένες γεωγραφικές περιοχές, άτομα που δεν διαθέτουν επαρκείς ικανότητες ανάγνωσης και γραφής ή που απλώς έχουν κάποια αναπηρία και κοινά που δεν ενδιαφέρονται να καταναλώνουν δημοσιογραφικό υλικό με τον παραδοσιακό τρόπο. Όπως αναφέρει η Ezra Eeman, διευθύντρια στρατηγικής και καινοτομίας του ολλανδικού δημόσιου ραδιοτηλεοπτικού φορέα NPO: «Με την παραγωγική τεχνητή νοημοσύνη, μπορούμε να εκπληρώσουμε καλύτερα την αποστολή δημόσιας υπηρεσίας που μας έχει ανατεθεί· η παραγωγική τεχνητή νοημοσύνη θα βελτιώσει τη διαδραστικότητα, την προσβασιμότητα και τη δημιουργικότητα. Η τεχνητή νοημοσύνη μάς βοηθά να προσφέρουμε μεγαλύτερο μέρος του περιεχομένου μας στο κοινό μας».
Ωστόσο, ενώ ορισμένοι από τον κλάδο είναι ήδη εκστασιασμένοι με τις υποσχέσεις της παραγωγικής τεχνητής νοημοσύνης, η τεχνολογία αυτή ενέχει σημαντικούς κινδύνους για τη δημοσιογραφία. Οι δύο σημαντικότεροι από αυτούς είναι η γενική απώλεια εμπιστοσύνης στις πληροφορίες και η περαιτέρω υποχώρηση, ή ακόμα και η εξαφάνιση των προτύπων λειτουργίας του κλάδου. Όπως έχει ήδη αναφερθεί, οι «παραισθήσεις» —ο όρος που χρησιμοποιείται για την τάση της παραγωγικής τεχνητής νοημοσύνης να κατασκευάζει απαντήσεις, οι οποίες παρουσιάζονται ως γεγονότα και πηγές πληροφόρησης— αποτελούν στην πραγματικότητα χαρακτηριστικό και όχι σφάλμα της τεχνολογίας αυτής. Ωστόσο, η πρόκληση είναι βαθύτερη. Δεδομένου ότι η παραγωγική τεχνητή νοημοσύνη παρέχει σε οποιονδήποτε τη δυνατότητα να δημιουργήσει μέσα σε λίγα λεπτά κάθε είδους περιεχόμενο, ακόμα και άκρως ψευδείς πληροφορίες, υπάρχει ο κίνδυνος το κοινό να χάσει την εμπιστοσύνη του σε όλο το περιεχόμενο που κυκλοφορεί εκεί έξω. Στα σεμινάρια κατάρτισης για τον «γραμματισμό στα μέσα επικοινωνίας» συνιστάται σε όλους να είναι επιφυλακτικοί με το περιεχόμενο που συναντούν στο διαδίκτυο· αυτή η υγιής επιφύλαξη μπορεί να μετατραπεί σε απόλυτη δυσπιστία όταν η κατασκευή περιεχομένου προσλάβει μεγαλύτερες διαστάσεις. Δεν είναι ακόμη σαφές αν οι παραδοσιακές εταιρείες των μέσων ενημέρωσης θα επωφεληθούν από την τεχνολογία αυτή λόγω του πρωταγωνιστικού τους ρόλου σε αυτόν τον κόσμο της πληροφορίας ή αν όλα τα μέσα ενημέρωσης θα θεωρηθούν εν προκειμένω αναξιόπιστα.
Η μαζική εφαρμογή της παραγωγικής τεχνητής νοημοσύνης στα αποτελέσματα αναζήτησης επιτείνει αυτήν την καταστροφική εξέλιξη, καθώς απειλεί να καταστήσει τη δημοσιογραφία ολοένα και πιο αόρατη. Ενώ στο παρελθόν μια αναζήτηση στο Google συνοδευόταν από ένα σύνολο συνδέσμων, πολλοί από τους οποίους παρέπεμπαν σε αξιόπιστες επωνυμίες μέσων ενημέρωσης, σήμερα τα αποτελέσματα αναζήτησης διαμορφώνονται ολοένα και περισσότερο από την παραγωγική τεχνητή νοημοσύνη. Οι χρήστες βλέπουν τις αρχικές απαντήσεις σε μορφή κειμένου· δεν χρειάζεται καν να εμβαθύνουν περισσότερο. Δεν προκαλεί επομένως έκπληξη το γεγονός ότι τα στελέχη των μέσων ενημέρωσης έχουν τρομοκρατηθεί. Πολλοί από αυτούς προσπαθούν να ενσωματώσουν την τεχνητή νοημοσύνη για να αυξήσουν την αποδοτικότητά τους. Η πρακτική αυτή είναι προφανώς ατελέσφορη, καθώς αυτό που χρειάζεται είναι να επενδύσουμε ακόμα περισσότερο στην ποιοτική δημοσιογραφία ώστε να δείξουμε στο κοινό τις διαφορές μεταξύ ενός απλού «περιεχομένου» και της εμπεριστατωμένης, ακριβούς και αξιόπιστης δημοσιογραφίας.
Μια δεοντολογική προσέγγιση για τη χρήση της τεχνητής νοημοσύνης στα μέσα ενημέρωσης είναι απαραίτητη. Πρώτον, οι οργανισμοί μέσων ενημέρωσης πρέπει να χαράξουν στρατηγική για την τεχνητή νοημοσύνη και πρέπει να εξετάσουν πώς μπορεί η τεχνολογία να τους βοηθήσει να προσδώσουν αξία δημόσιας υπηρεσίας. Οι πόροι πρέπει να επικεντρώνονται στο επιθυμητό και να χρησιμοποιούνται αναλόγως — πάντα με επίγνωση ότι η τεχνητή νοημοσύνη έχει σημαντικό περιβαλλοντικό και κοινωνικό κόστος. Πρέπει να έχουμε πάντα την επιλογή να λέμε όχι. Οι οργανισμοί θα πρέπει επίσης να χρησιμοποιήσουν τη δύναμη και την επιρροή που διαθέτουν όταν αγοράζουν προϊόντα, ασκούν πιέσεις για να θεσπιστούν κανονισμοί και συμμετέχουν σε συζητήσεις για τα δικαιώματα πνευματικής ιδιοκτησίας και την προστασία των δεδομένων. Διακυβεύονται πολλά. Είναι επιτακτική ανάγκη κάθε εταιρεία να ελέγχει τακτικά τα προϊόντα που χρησιμοποιεί, ώστε να μην υπάρχουν προκαταλήψεις και στερεότυπα και να μην πολλαπλασιαστεί η ζημιά που προκαλούν. Τέλος, σε αυτό το ραγδαία μεταβαλλόμενο περιβάλλον, στο οποίο ξεφυτρώνουν καθημερινά νέα προϊόντα, ο μοναχικός δρόμος είναι επικίνδυνος. Η ανάπτυξη και η προώθηση συνεργασιών εντός του κλάδου και μεταξύ του κλάδου και των εταιρειών τεχνολογίας έχει καίρια σημασία για να χαράξουμε υπεύθυνη πορεία προς το μέλλον.
Ωστόσο, δεν υπάρχει αμφιβολία ότι η παραγωγική τεχνητή νοημοσύνη θα αυξήσει σε μεγάλο βαθμό την εξάρτηση των μέσων ενημέρωσης από τους τεχνολογικούς κολοσσούς. Όσο περισσότερο οι εταιρείες τεχνολογίας ενσωματώνουν εργαλεία τεχνητής νοημοσύνης στις εφαρμογές που χρησιμοποιούν οι άνθρωποι στην καθημερινή τους ζωή, τόσο λιγότερο οι οργανισμοί μέσων ενημέρωσης θα ελέγχουν τις πρακτικές, τις διαδικασίες και τα προϊόντα. Και τότε οι δεοντολογικές κατευθυντήριες γραμμές τους δεν θα αποτελούν παρά ένα απλό συμπλήρωμα σε κάτι που έχει προαποφασιστεί εδώ και καιρό από άλλους.
Με βάση όλα τα ανωτέρω, η ακόλουθη υπόθεση μπορεί να ακουστεί παράδοξη: η δημοσιογραφία του αύριο μπορεί να μοιάζει πολύ με τη δημοσιογραφία του χθες — και μακάρι να είναι καλύτερη. Ωστόσο, ένα μέρος της δημοσιογραφίας του σήμερα θα εξαφανιστεί. Όπως πάντα, η δημοσιογραφία θα αφορά γεγονότα, εκπλήξεις, αφηγήσεις και τη λογοδοσία της εξουσίας. Στόχος της θα είναι να αναπτύξει σταθερές, πιστές και έμπιστες σχέσεις με το κοινό, παρέχοντας καθοδήγηση, πυροδοτώντας συζητήσεις και υποστηρίζοντας τις κοινότητες. Σε έναν κόσμο τεχνητού περιεχομένου, αυτό που δηλώνουν, σκέφτονται και αισθάνονται οι πραγματικοί άνθρωποι θα είναι αυτό που θα επικρατήσει. Οι δημοσιογράφοι είναι οι μόνοι που μπορούν να αποκαλύψουν αυτήν τη πτυχή. Ωστόσο, η τεχνητή νοημοσύνη μπορεί να βοηθήσει τη δημοσιογραφία να επιτύχει καλύτερα αποτελέσματα ώστε να γίνει χρήσιμη για όλα τα άτομα και όλες τις ομάδες ανάλογα με τις ανάγκες και την κατάσταση της ζωής τους, να γίνει πιο συμπεριληπτική και τοποκεντρική και να εμπλουτιστεί με δεδομένα, με τρόπους που δεν ήταν προσιτοί στο παρελθόν. Η Anne Lagercrantz, αντιπρόεδρος και διευθύνουσα σύμβουλος του δημόσιου ραδιοτηλεοπτικού φορέα της Σουηδίας, σχολίασε σχετικά με την τεχνητή νοημοσύνη: «Η τεχνητή νοημοσύνη θα αλλάξει ριζικά τη δημοσιογραφία, αλλά ευχόμαστε να μην αλλάξει τον ρόλο μας στην κοινωνία. Πρέπει να εργαστούμε για την αξιοπιστία του κλάδου των μέσων ενημέρωσης. Πρέπει να δημιουργήσουμε ασφαλείς χώρους ενημέρωσης». Είναι, ως εκ τούτου, εύλογο το συμπέρασμα ότι η εποχή της τεχνητής νοημοσύνης εγκυμονεί τους μεγαλύτερους κινδύνους όχι για την ίδια τη δημοσιογραφία, αλλά για τα πρότυπα λειτουργίας της.
Το κείμενο αυτό βασίζεται στην έκθεση με τίτλο «Trusted Journalism in the Age of Generative AI» (Αξιόπιστη δημοσιογραφία στην εποχή της παραγωγικής τεχνητής νοημοσύνης), η οποία δημοσιεύτηκε από την Ευρωπαϊκή Ένωση Ραδιοφωνίας και Τηλεόρασης το 2024. Ερευνητές και συντάκτες της έκθεσης είναι η Δρ Alexandra Borchardt, η Kati Bremme, ο Δρ Felix Simon και ο Olle Zachrison.
Λιγοτερα