Skip to main content

Μέτρα από το Facebook κατά του περιεχομένου που προέρχεται από τρομοκράτες

Μια σειρά από μέτρα με σκοπό την απομάκρυνση του περιεχομένου που προέρχεται από τρομοκράτες ανακοίνωσε το Facebook, καθώς οι εταιρείες τεχνολογίας δέχονται όλο και μεγαλύτερες πιέσεις από κυβερνήσεις για να κάνουν περισσότερα σε αυτόν τον τομέα.

Σε μια σειρά από blog posts κορυφαίων στελεχών του και με συνέντευξη στο BBC, το κοινωνικό δίκτυο τονίζει την επιθυμία του να είναι πιο ανοικτό και «διαφανές» σχετικά με τη δουλειά που κάνει σε αυτόν τον τομέα.

Όπως ανέφερε η εταιρεία στο BBC, χρησιμοποιεί τεχνητή νοημοσύνη για τον εντοπισμό εικόνων, βίντεο και κειμένων που σχετίζονται με τρομοκρατία, καθώς και δικτύων από ψεύτικους λογαριασμούς με στόχο τον έγκαιρο εντοπισμό του περιεχομένου αυτού, πριν το εντοπίσουν οι χρήστες.

«Θέλουμε να είμαστε πολύ ανοιχτοί με την κοινότητά μας σχετικά με το τι προσπαθούμε να κάνουμε για να διασφαλίσουμε πως το Facebook είναι ένα πραγματικά εχθρικό περιβάλλον για τις τρομοκρατικές οργανώσεις» είπε η Μόνικα Μπίκερτ, διευθύντρια global policy management, στο BBC.

Οι τεχνολογίες που χρησιμοποιούνται για τον σκοπό αυτό περιλαμβάνουν δυνατότητες image matching: Εάν κάποιος προσπαθήσει να ανεβάσει μια φωτογραφία ή βίντεο τρομοκρατικού περιεχομένου, τα συστήματα προσπαθούν να διαπιστώσουν εάν αντιστοιχεί σε παλαιότερο υλικό, για να παρεμποδιστεί εξαρχής το upload του υλικού αυτού. Ένας άλλος τομέας στον οποίο το Facebook δραστηριοποιείται είναι ο πειραματισμός με τεχνητή νοημοσύνη για τον εντοπισμό κειμένου που ίσως προωθεί την τρομοκρατία, μέσω ανάλυσης κειμένων που έχουν ήδη απομακρυνθεί επειδή διαπιστώθηκε πως το έκαναν επιβεβαιωμένα. Η χρήση machine learning σημαίνει πως η διαδικασία αυτή θα βελτιώνεται με τον καιρό.

Ακόμη, η εταιρεία αναφέρει πως χρησιμοποιεί αλγορίθμους για τον εντοπισμό δικτύων λογαριασμών η εικόνων που έχουν να κάνουν με τη στήριξη/ προώθηση της τρομοκρατίας. Σε αυτό το πλαίσιο, διερευνάται η αναζήτηση ενδείξεων όπως το αν ένας λογαριασμός έχει ως «φίλους» μεγάλο αριθμό λογαριασμών που έχουν απενεργοποιηθεί επειδή στήριζαν την τρομοκρατία κ.α. Το Facebook επίσης λέει πως δουλεύει πάνω σε τρόπους εντοπισμού και παρακολούθησης χρηστών που δημιουργούν κατά συρροή λογαριασμούς για τη δημοσίευση τρομοκρατικού περιεχομένου και αναζητούν μεθόδους παραπλάνησης/ παράκαμψης των υπαρχόντων συστημάτων ελέγχου.

Παρόλα αυτά, η εταιρεία αναγνωρίζει πως οι αλγόριθμοι δεν έχουν το ίδιο καλές επιδόσεις με τους ανθρώπους όσον αφορά στη διάκριση μεταξύ του περιεχομένου από τρομοκράτες και του περιεχομένου αντίστοιχου χαρακτήρα που ανεβαίνει για ενημερωτικούς σκοπούς (πχ αναρτήσεις ειδήσεων που περιέχουν στιγμιότυπα από βίντεο κλπ). Για αυτό, επισημαίνει το Facebook, έχει ενισχυθεί η ομάδα των ειδικών του που δουλεύουν πάνω στο αντικείμενο- με 150 άτομα που δουλεύουν ειδικά πάνω σε θέματα αντιτρομοκρατίας.

Αξίζει να σημειωθεί ότι, σύμφωνα με έρευνα του Guardian, πρόβλημα λογισμικού (bug) είχε ως αποτέλεσμα να εκτεθούν στοιχεία content moderators του Facebook σε υπόπτους για τρομοκρατία. Όπως αναφέρεται, το συγκεκριμένο bug, που αποκαλύφθηκε κατά τα τέλη του 2016, είχε αποτέλεσμα τα προσωπικά προφίλ content moderators να εμφανίζονται ως ενημερώσεις (notifications) στο αρχείο δραστηριοτήτων ομάδων στο Facebook των οποίων οι διαχειριστές είχαν μπλοκαριστεί/ απομακρυνθεί, λόγω παραβίασης των όρων χρήσης. Ως εκ τούτου, τα στοιχεία τους ήταν εκτεθειμένα στους εναπομείναντες διαχειριστές των γκρουπ αυτών.

Το πρόβλημα αυτό επηρέασε πάνω από 1.000 εργαζομένους σε 22 τμήματα της εταιρείας, που χρησιμοποιούσαν το λογισμικό moderation της για να εξετάζουν και να κατεβάζουν ακατάλληλο περιεχόμενο, περιλαμβανομένου υλικού που έχει σχέση με σεξ, ρητορική μίσους και τρομοκρατική προπαγάνδα. Από τους 1.000 που επηρεάστηκαν, περίπου 40 ανήκαν σε μια ειδική ομάδα με αντικείμενο θέματα τρομοκρατίας, με έδρα στα ευρωπαϊκά κεντρικά της εταιρείας στο Δουβλίνο. Έξι από αυτούς κρίθηκαν πως είναι «υψηλής προτεραιότητας», επειδή εξήχθη το συμπέρασμα ότι τα προσωπικά τους προφίλ είχαν μάλλον δει δυνάμει τρομοκράτες.