Norman: Μια «ψυχοπαθής» τεχνητή νοημοσύνη

Δευτέρα, 04 Ιουνίου 2018 12:48
UPD:12:48
MIT

Βγαλμένος απευθείας από σενάριο θρίλερ επιστημονικής φαντασίας είναι ο Norman: Μια τεχνητή νοημοσύνη, με όνομα εμπνευσμένο από τον χιτσκοκικό χαρακτήρα του Norman Bates, που έχει «εκπαιδευτεί» να κατανοεί εικόνες, ωστόσο έχει μια υπέρ το δέον «σκοτεινή» αντίληψη για τον κόσμο.

Όπως αναφέρει το BBC, όταν ένας «κανονικός» αλγόριθμος παραχθείς από τεχνητή νοημοσύνη ερωτάται τι βλέπει σε ένα αφηρημένο σχήμα, συνήθως απαντά κάτι «χαρούμενο», π.χ. πουλιά πάνω σε ένα κλαδί- ο Norman, από πλευράς του, «βλέπει» έναν άνδρα να πεθαίνει από ηλεκτροσόκ. Επίσης, εκεί που μια «κανονική» τεχνητή νοημοσύνη θα έβλεπε ανθρώπους να κάθονται ο ένας δίπλα στον άλλο, ο Norman «βλέπει» κάποιον να πηδά από ένα παράθυρο.

NORMAN-AI.MIT.EDU

Η συγκεκριμένη «ψυχοπαθής» τεχνητή νοημοσύνη δημιουργήθηκε από ομάδα του ΜΙΤ στο πλαίσιο ενός πειράματος με σκοπό να διαπιστωθεί τι είδους «εκπαίδευση» θα μπορούσε να έχει μια τεχνητή νοημοσύνη με δεδομένα από τις «σκοτεινές πλευρές του διαδικτύου», ως προς την αντίληψή της για τον κόσμο. Ως εκπαιδευτικό υλικό χρησιμοποιήθηκαν εικόνες με φρικτούς θανάτους από ένα γκρουπ στο Reddit. Στη συνέχεια στην τεχνητή νοημοσύνη δόθηκαν αφηρημένες εικόνες, όπως αυτές που χρησιμοποιούν οι ψυχολόγοι για να αξιολογήσουν την κατάσταση του μυαλού ενός ασθενούς, και ρωτήθηκε τι ακριβώς έβλεπε σε αυτές.

Η αντίληψη του Norman για τον κόσμο ήταν πολύ σκοτεινή, καθώς έβλεπε πτώματα, αίμα και καταστροφή σε κάθε εικόνα. Αξίζει να σημειωθεί πως, παράλληλα, μια άλλη τεχνητή νοημοσύνη εκπαιδεύτηκε σε πιο «φυσιολογικές» εικόνες, με γάτες, πουλιά και ανθρώπους, και οι απαντήσεις που έδινε ήταν πολύ πιο «χαρούμενες».

NORMAN-AI.MIT.EDU

Σύμφωνα με τον καθηγητή Ιγιάντ Ραχβάν, μέλος της τριμελούς ομάδας του Media Lab του MIT που ανέπτυξε τον Norman, οι απαντήσεις του «ψυχοπαθούς» αλγορίθμου δείχνουν μια μάλλον σκληρή πραγματικότητα όσον αφορά στο machine learning: «Τα δεδομένα έχουν μεγαλύτερη σημασία από τον αλγόριθμο. Υπογραμμίζεται η ιδέα ότι τα δεδομένα που χρησιμοποιούμε για να εκπαιδεύουμε την τεχνητή νοημοσύνη αντανακλούν στον τρόπο που η τεχνητή νοημοσύνη αντιλαμβάνεται τον κόσμο και το πώς συμπεριφέρεται».

Σημειώνεται πως τον περσινό Μάιο είχε αναφερθεί ότι ένα πρόγραμμα τεχνητής νοημοσύνης που χρησιμοποιούσε ένα αμερικανικό δικαστήριο για αξιολόγηση κινδύνου ήταν προκατειλημμένο σε βάρος μαύρων κρατουμένων, καθώς υποδείκνυε πως ήταν δύο φορές πιο πιθανό σε σχέση με τους λευκούς να προβούν ξανά σε αδικήματα/ εγκλήματα, εξαιτίας των δεδομένων με τα οποία είχε «τροφοδοτηθεί». Επίσης, το 2016 η Microsoft είχε βγάλει στο Twitter το chatbot Tay, το οποίο χρήστες έσπευσαν να «εκπαιδεύσουν» έτσι ώστε να εκφράζει συμπάθεια για τον Χίτλερ, να ζητά γενοκτονίες και να τάσσεται υπέρ της ανωτερότητας των λευκών.

Προτεινόμενα για εσάς