ΕλλάδαΚόσμος

«Εσκεμμένη παραπληροφόρηση, ειδήσεις-σκουπίδια και θεωρίες συνωμοσίας»

Τον Δεκέμβριο του 2018, η Διεθνής Αμνηστία δημοσίευσε τα ευρήματα μεγάλης έρευνας με τη συμμετοχή 6500 εθελοντών και εθελοντριών από 150 χώρες, η οποία είχε ως στόχο να καταγράψει τον βαθμό online κακοποιητικής συμπεριφοράς σε βάρος γυναικών.

Στο πλαίσιο αυτό, κατεγράφησαν tweets που έγιναν το 2017, στα οποία αναφέρονταν τα ονόματα 778 γυναικών πολιτικών και δημοσιογράφων στο Ηνωμένο Βασίλειο και τις ΗΠΑ. Η ανάλυση του συνόλου των δεδομένων από τη Διεθνή Αμνηστία και τη νεοφυή επιχείρηση Element AI, με τη χρήση προηγμένων τεχνικών μηχανικής μάθησης και επιστήμης δεδομένων, έδειξε ότι οι γυναίκες περί ων ο λόγος έλαβαν πάνω από 1,1 εκατ. υβριστικά ή προβληματικά tweets κατά τη διάρκεια του συγκεκριμένου έτους -ή με άλλα λόγια, έγιναν στόχος ενός τέτοιου tweet κάθε 30 δευτερόλεπτα, κατά μέσο όρο…

Πάνω από τέσσερα χρόνια μετά, οι γυναίκες – μέλη ομάδας του Πανεπιστημίου του Άμστερνταμ, που πραγματοποίησε έρευνα για την εσκεμμένη παραπληροφόρηση (disinformation) στο Διαδίκτυο, δέχτηκαν -με αφορμή τη συγκεκριμένη μελέτη- επιθέσεις στο Twitter από διάφορα γκρουπ, όπως επισήμανε σήμερα ο καθηγητής Ρίτσαρντ Ρότζερς, κατά την εισήγησή του με τίτλο «The Politics of State-Sponsored, Election-related Disinformation Studies», στο πλαίσιο του «Συμποσίου Υπολογιστικής Πολιτικής», το οποίο διοργανώνεται διαδικτυακά από το Εργαστήριο Τεχνητής Νοημοσύνης και Ανάλυσης Πληροφοριών του ΑΠΘ. Το Συμπόσιο είναι η τρίτη έκδοση της σειράς «AI Mellontology Symposium» και διοργανώνεται υπό την αιγίδα της Διεθνούς Ακαδημίας Διδακτορικών Σπουδών στην Τεχνητή Νοημοσύνη (AIDA) και του ερευνητικού δικτύου COST LITHME.

Το αντικείμενο του συμποσίου δεν είναι πάντως οι τοξικές συμπεριφορές κατά γυναικών στο Διαδίκτυο, αλλά το πώς μπορεί να βοηθήσει τη δημοκρατία η υπολογιστική πολιτική, ένας νέος κλάδος, που αναπτύσσεται στη «διασταύρωση» της Πολιτικής Επιστήμης και της Επιστήμης των Υπολογιστών. Και στο πλαίσιο αυτό, η εσκεμμένη παραπληροφόρηση ως μέσο άσκησης και πολιτικής επιρροής, βρέθηκε στο επίκεντρο πολλών εισηγήσεων. Ο κ. Ρότζερς υπενθύμισε ότι η κρίση των fake news έλαβε πιο έντονα χαρακτηριστικά μετά τις Προεδρικές εκλογές του 2016 στις ΗΠΑ, όταν οι ψευδείς ειδήσεις ξεπέρασαν σε απήχηση στο Facebook εκείνες που προέρχονταν από τα mainstream (κυρίαρχα) μέσα. Συγκεκριμένα, στο TOP-20 του περιεχομένου για τις αμερικανικές εκλογές, τα «engagements», δηλαδή ο αριθμός αντιδράσεων, σχολίων και shares για το σχετικό περιεχόμενο στο Facebook, ήταν τον Αύγουστο του 2016 στις ΗΠΑ 8,7 εκατομμύρια για τα fake news και 7,3 εκατ. για τα κυρίαρχα μέσα μαζικής ενημέρωσης.

Ειδήσεις – σκουπίδια και θεωρίες συνωμοσίας

Με αφορμή το παράδειγμα των ΗΠΑ, οι ερευνήτριες και ερευνητές του Πανεπιστημίου του Άμστερνταμ στράφηκαν στα «του οίκου τους» και επιχείρησαν στο πλαίσιο της έρευνάς τους να δουν σε ποιον βαθμό η προερχόμενη από το εξωτερικό εσκεμμένη παραπληροφόρηση και οι λεγόμενες ψευδείς ειδήσεις (fake news) είχαν απήχηση στους διαδικτυακούς πολιτικούς χώρους των μέσων κοινωνικής δικτύωσης κατά την εκλογική αναμέτρηση του 2019 στην Ολλανδία και κατά τις εκλογές για το Ευρωπαϊκό Κοινοβούλιο στις Κάτω Χώρες. Η έρευνά τους έδειξε ότι σε καμία από τις δύο περιπτώσεις υπήρξε (προερχόμενη από το εξωτερικό) εσκεμμένη παραπληροφόρηση, ενώ δεν κατεγράφησαν ανύπαρκτες ΜΚΟ, που προσπαθούσαν να ασκήσουν πολιτική επιρροή ή δήθεν υπαρκτές εφημερίδες, οι οποίες επιχειρούσαν να διασπείρουν ψευδείς ειδήσεις.

Επίσης, οι ειδήσεις από τα κυρίαρχα μέσα στο Facebook υπερτερούσαν έναντι των ειδήσεων-σκουπιδιών αν και όχι σε κάθε περίοδο, ούτε για κάθε θέμα (σ.σ. με τον όρο junk news δηλώνονται οι σκόπιμα παραπλανητικές, απατηλές ή ανακριβείς πληροφορίες, συνήθως με ιδεολογικό πρόσημο). Βάσει της ίδιας έρευνας, το Facebook παρουσίασε τη μεγαλύτερη ποσότητα junk news, σε σύγκριση με άλλες πλατφόρμες, ακολουθούμενο από τα Twitter και Google Web Search. Στο instagram διαπιστώθηκε ελαφρά τεχνητή ενίσχυση συγκεκριμένων ειδήσεων, ενώ στο Twitter κατεγράφησαν λίγα trolls που μοιάζουν με «κανονικούς» χρήστες και δραστηριοποιούνται σε όλους τους τομείς πολιτικών θεμάτων.

Οι κατηγορίες ανεπιθύμητων ειδήσεων, που κατέγραψε η ομάδα αφορούσαν παραπληροφόρηση, θεωρίες συνωμοσίας, πηγές που υποδύονται τις ομάδες συνηγόρων διάφορων πολιτικών γκρουπ, εξαιρετικά «χρωματισμένες», αλλά δήθεν «ανοιχτά ιδεολογικές διαδικτυακές ομάδες» που σχολιάζουν την επικαιρότητα από ένα άκρο του πολιτικού φάσματος, σοκαριστικό, αμφιλεγόμενο ή γεμάτο ειρωνεία ρεπορτάζ και πάλι από ένα άκρο του πολιτικού φάσματος, αλλά ακόμα και την παραπληροφόρηση από τα ίδια τα κυρίαρχα μέσα μαζικής ενημέρωσης. Ο καθηγητής από την Ολλανδία πρότεινε, τέλος, μια σειρά από μέτρα πολιτικής για την αντιμετώπιση της εσκεμμένης παραπληροφόρησης, όπως η ανεξάρτητη παρακολούθηση της πόλωσης στο τοπίο των μέσων ενημέρωσης, η εκπαίδευση για επαγγελματίες δημιουργούς περιεχομένου – από δημοσιογράφους έως παραγωγούς ψηφιακών μέσων ενημέρωσης – σχετικά με την κριτική των διαδικτυακών πηγών, καθώς και η διακοπή της παροχής «οξυγόνου» σε φορείς ακραίου λόγου και η υπεράσπιση της πρόσβασης στα δεδομένα των μέσων κοινωνικής δικτύωσης (ιδίως στο Facebook) για ερευνητές, δημοσιογράφους και παρατηρητές.

Στον αλγοριθμικό έλεγχο των πολιτικών προκαταλήψεων στο Διαδίκτυο αναφέρθηκε ο Ivan Srba από το Kempelen Institute of Intelligent Technologies στη Σλοβακία, η ομάδα του οποίου για πρώτη φορά προσομοίωσε μια πιο σύνθετη συμπεριφορά χρήστη στα μέσα κοινωνικής δικτύωσης. Όπως είπε, τέτοιοι έλεγχοι μπορούν να αποκαλύψουν τι κρύβεται στα «μαύρα κουτιά» των βασισμένων στην Τεχνητή Νοημοσύνη αλγορίθμων και να δώσουν πολύτιμη πληροφορία για τις εκστρατείες παραπληροφόρησης και άσκησης επιρροής σε θέματα -μεταξύ άλλων- όπως τα συγκεκριμένα που εξέτασε η ομάδα: την επίθεση της 11ης Σεπτεμβρίου στις ΗΠΑ, τα ίχνη που αφήνουν πίσω τους στον ουρανό τα αεροπλάνα, το σενάριο της επίπεδης Γης, την προσελήνωση και το αντιεμβολιαστικό κίνημα. Ένα από τα σημαντικά ευρήματα της έρευνας ήταν ότι οι «φούσκες» (σ.σ. μικροστοχευμένο περιεχόμενο, «κομμένο και ραμμένο» με βάση συνήθειες και προτιμήσεις του χρήστη) εσκεμμένης παραπληροφόρησης σχηματίζονται κυρίως στo προτεινόμενο περιεχόμενο για τον κάθε χρήστη (κάτι που χαρακτήρισε λογικό, αφού το περιεχόμενο αυτό είναι συνήθως εναρμονισμένο με τις προτιμήσεις του χρήστη) και όχι στα αποτελέσματα της αναζήτησης. Παρότι θέματα όπως η επίθεση της 11ης Σεπτεμβρίου εξακολουθούν να προσφέρονται και να χρησιμοποιούνται για παραπληροφόρηση τόσα χρόνια μετά, ωστόσο δεν υπήρξε σημαντική αλλαγή στη συμπεριφορά των χρηστών σε σύγκριση με τη μελέτη αναφοράς ενάμιση χρόνο πριν. Κατά τον κ.Srba, υπάρχουν πολλές προκλήσεις που καθιστούν δύσκολη την περαιτέρω επέκταση της χρήσης αλγοριθμικού ελέγχου, όπως το γεγονός ότι αυτός εξακολουθεί να απαιτεί εκτεταμένες manual εργασίες, αλλά και ότι τα αποτελέσματα του ελέγχου γίνονται πολύ γρήγορα παρωχημένα, για αυτό και απαιτούνται συνεχείς αντίστοιχοι έλεγχοι.

Back to top button