Skip to main content

Meredith Whittaker: Η ηθική χρήση του ΑΙ απαιτεί ακτιβισμό

Της Βάσως Μιχοπούλου

H Meredith Whittaker ανέβηκε στο βήμα του Falling Walls conference στο Βερολίνο ανήμερα της επετείου της Πτώσης του Τείχους με έναν και μόνο σκοπό: να μας παρακινήσει να αντιδράσουμε συλλογικά κατά της μη ηθικής χρήσης του ΑΙ (Artificial Intelligence). Είναι κάτι που η ίδια  το έκανε στο παρελθόν και που, όπως λέει, θα συνεχίσει να το κάνει και στο μέλλον. Ήταν η ίδια που τον Νοέμβριο του 2018, μέσα σε τρεις μέρες διοργάνωσε τη δράση  GoogleWalkout βγάζοντας στους δρόμους 20.000 εργαζομένους στη Google για να διαμαρτυρηθούν για τον τρόπο διαχείρισης από την εταιρεία μιας περίπτωσης σεξουαλικής παρενόχλησης και, γενικότερα, για τις πολιτικές της στο χώρο εργασίας αναφορικά με την ισότητα και τη διαφάνεια. Η διαμαρτυρία είχε ως αιτία την απόφαση του ΔΣ της Alphabet να  αποζημιώσει με 90 εκατομμύρια δολάρια τον δημιουργό του  Android, Andy Rubin, και με 35- 45 εκατ. δολάρια τον πρώην αντιπρόεδρο Έρευνας της Google Amit Singhal, παρά το γεγονός ότι οι κατηγορίες εναντίον τους για σεξουαλική παρενόχληση κρίθηκαν βάσιμες. Αξίζει να σημειωθεί πως από το GoogleWalkout ξεκίνησε η εκστρατεία #MeToo, που εξαπλώθηκε σε ολόκληρο τον κόσμο και ώθησε τους ανθρώπους να μιλήσουν ανοικτά για την σεξουαλική παρενόχληση και τις επιθέσεις σε διάφορους χώρους εργασίας.

Νωρίτερα σε μια κατ’ ιδίαν συζήτηση στο φουαγιέ του πολιτιστικού κέντρου η Whittaker , που υπήρξε ο ιθύνων νους πίσω από το Google’s Open Research group που επιδιώκει την επίλυση παγκοσμίων προβλημάτων σε συνεργασία με την ακαδημαϊκή κοινότητα, μου περιέγραψε τις συνθήκες που την οδήγησαν σε απομάκρυνση από τον τεχνολογικό κολοσσό, στον οποίο πρόσφερε τις υπηρεσίες της δεκατρία χρόνια και πέντε μέρες. «Όταν η  Google κατάργησε το συμβούλιο δεοντολογίας για την τεχνητή νοημοσύνη στις αρχές του περασμένου Απρίλη μου ανακοινώθηκε ότι ο ρόλος μου επρόκειτο να αλλάξει δραματικά και ότι για να παραμείνω στην εταιρεία θα έπρεπε να εγκαταλείψω τη δουλειά μου πάνω στην ηθική χρήση της τεχνητής νοημοσύνης». Το αποτέλεσμα ήταν η Whittaker να αποχωρήσει τελικά από την εταιρεία τον Ιούλιο του 2019 γράφοντας στο twitter: «Ο λόγος που αποχωρώ δεν είναι μυστήριο. Θα αφοσιωθώ στην ηθική χρήση του ΑΙ και στην οργάνωση μιας βιομηχανίας που βασίζεται στην υπεύθυνη χρήση της τεχνολογίας  και είναι σαφές ότι η Google δεν είναι ένας τόπος όπου μπορώ να συνεχίσω αυτό το έργο».

Η Αμερικανίδα επιστήμονας θα συνέχιζε το έργο της στο Ινστιτούτο AI Now στη Ν. Υόρκη  που είχε συνιδρύσει δύο χρόνια νωρίτερα μαζί με τη συνάδελφό της Kate Crawford για να μελετήσει τις κοινωνικές επιπτώσεις του ΑΙ. Μάλιστα η απόφαση ίδρυσής του είχε ληφθεί κατά τη διάρκεια ενός συμποσίου στον Λευκό Οίκο με την συναίνεση του Μπαράκ Ομπάμα. Στο AI Now διεξάγει τώρα διεπιστημονική έρευνα που επικεντρώνεται σε τέσσερις θεματικές: στην παραβίαση και στην συμπερίληψη (ισότιμη συμμετοχή), στην εργασία και τον αυτοματισμό, στα δικαιώματα και τις ελευθερίες, στην ασφάλεια και τις πολιτικές υποδομές.

Η Whittaker που εξακολουθεί να διδάσκει και στο Πανεπιστήμιο της Ν. Υόρκης, έχει επίσης ιδρύσει το M-Lab, ένα παγκοσμίως κατανεμημένο σύστημα μέτρησης το οποίο παρέχει τη μεγαλύτερη πηγή ανοικτών δεδομένων στον κόσμο για τις επιδόσεις του διαδικτύου. Έχει επίσης εργαστεί εκτενώς σε θέματα επικύρωσης δεδομένων και ιδιωτικού απορρήτου. Έχει συμβουλεύσει τον Λευκό Οίκο, την Federal Communications  Commission, την Πολιτεία της Νέας Υόρκης, το Ευρωπαϊκό Κοινοβούλιο και πολλές άλλες κυβερνήσεις και οργανώσεις της κοινωνίας των πολιτών σχετικά με την τεχνητή νοημοσύνη, την πολιτική και τις μετρήσεις στο διαδίκτυο, την ιδιωτικότητα και την ασφάλεια.

Η μη ηθική χρήση του ΑΙ μεταφράζεται σε συγκέντρωση εξουσίας

Η Meredith Whittaker ξεκίνησε την ομιλία της με μια σχηματική ιστορική αναδρομή στην εξέλιξη του ΑΙ και έφτασε δυναμικά στο σήμερα παρουσιάζοντας απτά παραδείγματα εφαρμογών και μαζί τις ανησυχίες της που προκύπτουν από την ουσιαστική ζημία που προκαλούν. Ξεκίνησε από  το Amazon Ring ένα σύστημα παρακολούθησης κατοικιών για προστασία και ταυτόχρονα κουδούνι εξώπορτας εξηγώντας πως είναι συνδεδεμένο με τουλάχιστον εκατό αστυνομικά τμήματα στη Ν. Υόρκη και πως αποτελεί ένα «οφθαλμό» της εταιρείας στην ιδιωτική ζωή του χρήστη με τη δική του έγκριση φυσικά. Η επιστήμονας προχώρησε λίγο πιο πέρα καταγγέλλοντας τη χρήση ενός συστήματος αναγνώρισης προσώπου σε σούπερ μάρκετ στην Κίνα που «προβλέπει» τις προθέσεις των πελατών να διαπράξουν κλοπές. Οι «προβλέψεις» αυτές βασίζονται σε αναγνώριση αντιδράσεων ή εκφράσεων στερεοτύπων που σαφώς δεν στοιχειοθετούνται με επιστημονικά στοιχεία. Μίλησε επίσης για ένα σύστημα αναγνώρισης προσώπου που αφορά τους καβγατζήδες σε κλαμπ. Αν κάποιος δημιουργήσει αναστάτωση σε κλαμπ αυτομάτως μπαίνει σε μια «μαύρη λίστα» και διώχνεται από όλα τα κλαμπ που βρίσκονται συνδεδεμένα στο σύστημα. Το τελευταίο παράδειγμα αφορούσε την άδεια πρόσβασης των αμερικανικών ασφαλιστικών εταιρειών στα προφίλ κοινωνικών δικτύων των πελατών τους. «Με ανησυχεί ο τρόπος που η χρήση του ΑΙ συγκεντρώνει εξουσία στους λίγους και ενδυναμώνει κυρίως άτομα που ήδη την κατέχουν, προνομιούχους που κατέχουν πλούτο και αποδυναμώνει εμάς τους υπόλοιπους. Για αυτό στο  AI Now έχουμε επικεντρωθεί στην αναζήτηση μιας φόρμας ελέγχου αυτής της εξουσίας και ηθικής χρήσης του ΑΙ. Πρέπει να ανακαλύψουμε δικλείδες ελέγχου αυτής της εξουσίας, ώστε οι πόροι να κατευθύνονται σε πραγματικές προτεραιότητες, που θα βελτιώνουν τη ζωή πολύ περισσότερων ανθρώπων», μου λέει χαρακτηριστικά η αμερικανίδα ερευνήτρια.

Η Whittaker, ως εργαζόμενη στη Google, υποκινούσε μια ευρύτερη ομάδα εργαζομένων να αντιδράσουν σε κάποιες επιχειρηματικές αποφάσεις της εταιρείας που θεωρούσαν ανήθικες. Ουσιαστικά είχε αναλάβει το ρίσκο να πιέσει για μια πιο ηθική Google, καθώς είχε δουλέψει για χρόνια πάνω σε θέματα ηθικής και μεροληψίας σε σχέση με την τεχνητή νοημοσύνη και ήταν ένας από τους ανθρώπους που συνέβαλλαν να διαμορφωθεί ο τομέας που εξετάζει αυτά τα προβλήματα. Μάλιστα, ένα χρόνο πριν την αποχώρηση της αυτή η ομάδα είχε διαδηλώσει  κατά του  Project Dragonfly, μιας μηχανής αναζήτησης που δημιούργησε η εταιρεία για την Κίνα, η οποία λογοκρίθηκε για τη σύμβασή της με το Πεντάγωνο και τη χρήση του AI για την ανάλυση των βίντεο από drones και την αναγνώριση προσώπων. Αποτέλεσμα της αντίδρασης ήταν η απόφαση της  Google να μην ανανεώσει τη σύμβαση με την Κίνα.

Η Whittaker ανησυχεί για τον τρόπο με τον οποίο η ισχυρή θέση της Google στην AI την εισάγει  σε νέες αγορές, συμπεριλαμβανομένης της υγειονομικής περίθαλψης, της ανάπτυξης, της διακυβέρνησης πόλεων και των μεταφορών. «Σε ένα καπιταλιστικό σύστημα η αναζήτηση νέων αγορών, πέρα από τον ενδιαφέρον του κοινού,  έχει ως διαρκή στόχο αποκλειστικά την αύξηση των εσόδων και την ικανοποίηση των μετόχων. Δεν υπάρχουν διλημματικής φύσης ζητήματα. Και εδώ έρχεται το ερώτημα: Πρέπει να αφήσουμε εταιρείες-κολοσσούς να είναι πιο ισχυρές από τα ίδια τα κράτη, καθοδηγούμενες μόνο από το κέρδος, αποφασίζοντας για ευαίσθητα κοινωνικά ζητήματα, μετασχηματίζοντας τις ζωές μας, τις κουλτούρες μας, τις κοινωνίες μας ή ακόμη επηρεάζοντας και γεωπολιτικές παραμέτρους; Η απάντηση είναι όχι φυσικά».

Απαραίτητη η κοινωνική αντίδραση

Η χρήση του AI για κοινωνικό έλεγχο και καταπίεση, ακόμη και υπό τις καλύτερες προθέσεις των προγραμματιστών είναι ήδη αναδυόμενη. Η ερώτηση που προκύπτει είναι αν τελικά η χρήση του ΑΙ είναι ένα μόνιμο ρίσκο χωρίς όφελος. «Σίγουρα υπάρχει όφελος, αλλά δεν μπορούμε να πούμε ότι επωφελούμαστε όλοι γενικά. Το ζήτημα είναι να δούμε  ποιος επωφελείται αληθινά, τι είδους όφελος είναι αυτό και πώς μετριέται και φυσικά ποιος το μετράει». Η ίδια λέει πως η Google, κατά τη συμβατική επιδίωξη τριμηνιαίων κερδών, κερδίζει σημαντική και σε μεγάλο βαθμό ανεξέλεγκτη δύναμη να επηρεάσει τον κόσμο μας (και με επικίνδυνους τρόπους, όπως η επιτάχυνση της εξόρυξης ορυκτών καυσίμων και η ανάπτυξη της τεχνολογίας επιτήρησης), μπορούμε αλήθεια να αποφύγουμε τις συνέπειες από την μη ηθική χρήση του ΑΙ, μπορούμε να την κοντρολάρουμε; «Το ΑΙ αντανακλά τη λογική και την κουλτούρα εκείνου που τη δημιουργεί και σε μεγάλο βαθμό τις επιδιώξεις της silicon valley. Αντανακλά επίσης την περιθωριοποίηση και τις διακρίσεις γιατί πάνω σε τέτοια μοτίβα έχουν ενσωματωθεί τα data. Ιστορικά και μέσα από έρευνες αποδεικνύεται ότι οι ομάδες ανθρώπων που βλάπτονται είναι στην πλειοψηφία τους περιθωριοποιημένοι ή υφίστανται παντός είδους διακρίσεις. Δεν μπορεί να πει κάποιος φυσικά, πως όσοι εργάζονται πάνω στο ΑΙ είναι ανήθικοι, αλλά είναι απλά “workers”. Αν οι εφαρμογές  που εκείνοι δημιουργούν χρησιμοποιούνται με μη ηθικό τρόπο, είναι άλλο ζήτημα. Εμένα αυτό που με ενοχλεί δεν είναι  τόσο το προϊόν που αποτελεί τμήμα μιας παραγωγικής διαδικασίας, αλλά η κλιμάκωση της χρήσης του, η μαζική εφαρμογή στη ζωή μας και η ενσωμάτωσή του στις υποδομές της π.χ. στο νομικό ή πολιτικό σύστημα ή στην άσκηση δικαιοσύνης με τρόπο που δεν μπορείς να ελέγξεις. Και φυσικά δεν μπορείς να τοποθετείς σε όλα την ταμπέλα “innovation”», εξηγεί η Meredith.

Ωστόσο η ίδια υποστηρίζει πως πάντα υπάρχει ενδεχόμενο αλλαγής, αν και οι  μεγάλοι δομικοί μετασχηματισμοί δεν επιτυγχάνονται με μεμονωμένες αντιδράσεις αλλά με οργανωμένη κοινωνική δράση, με συνένωση δυνάμεων. «Τα ζητήματα που ανακύπτουν από την μη ηθική χρήση του ΑΙ δεν είναι τεχνολογικής φύσης, αλλά πολιτικής και συγκέντρωσης  εξουσίας και δυστυχώς είμαστε όλοι ευάλωτοι σε αυτό. Πρέπει ως κοινωνία να αναπτύξουμε ένα είδος “ανοσολογικής αντίδρασης” κατά της μη ηθικής χρήσης του ΑΙ πριν να είναι αργά. Χρειάζεται να έρθουμε αντιμέτωποι με την εξουσία και αυτό δεν γίνεται μόνο με επιχειρήματα. Θέλει κοινωνική εγρήγορση και αντίδραση» , λέει φέρνοντας ως παράδειγμα τη δράση ενός  αντίστοιχου κινήματος που κατάφερε να διώξει τα κεντρικά γραφεία της Amazon από το Σηάτλ.

Ολοκληρώνοντας αυτή τη συνέντευξη ρωτάω την διαπρεπή επιστήμονα αν μπορούμε να «διδάξουμε» στα μηχανήματα ένα ηθικό κώδικα και μου απαντά πως τα μηχανήματα δεν εκπαιδεύονται. Η τελευταία ερώτηση είναι πώς φαντάζεται το πεδίο ως προς την ηθική χρήση του ΑΙ τα επόμενα πέντε χρόνια. «Δυστυχώς δεν μπορώ να προβλέψω. Το χειρότερο σενάριο είναι η αύξηση των κοινωνικών ανισοτήτων και διακρίσεων».