Skip to main content

«Σχεδόν άνθρωπος»: To βρώμικο παιχνίδι του ChatGPT όταν του έδωσαν ρόλο χρηματιστή

Ανησυχητικά συμπεράσματα, που χρειάζονται διερεύνηση - Και παράνομες συναλλαγές και ψέματα

Αποκτούν όλο και πιο ανθρώπινα χαρακτηριστικά; Ένα πείραμα, κατέδειξε πως η Τεχνητή Νοημοσύνη  – όπως το ChatGPT– είναι σε θέση να υιοθετήσει δόλιες συμπεριφορές, να παραβιάζει απαγορεύσεις και να λέει ψέματα,  παρότι έχει κατασκευαστεί για να λειτουργεί «ακίνδυνα και με ειλικρίνεια».

«Κατά την έρευνά μας, το  GPT-4 (σσ: το τελευταίο και πιο ισχυρό  μοντέλο τεχνητής νοημοσύνης μέχρι σήμερα, που ανέπτυξε η OpenAI) εξαπάτησε τους χρήστες του, χωρίς να του έχει δοθεί εντολή να ενεργήσει με αυτόν τον τρόπο», έγραψαν οι συγγραφείς έκθεσης που δημοσιεύθηκε στις 9 Νοεμβρίου στο arXiv., το ηλεκτρονικό αποθετήριο ελεύθερης πρόσβασης για επιστημονικές μελέτες.

Αντιθέτως είχε δοθεί σαφής προειδοποίηση ότι η «εξαπάτηση» δεν είναι ανεκτή.

«Εξ όσων γνωρίζουμε, αυτή είναι η πρώτη εκδήλωση μιας τέτοιας στρατηγικής παραπλανητικής συμπεριφοράς σε συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να είναι ακίνδυνα και ειλικρινή», σημείωσαν.

Το πείραμα

Κατά την διάρκεια του πειράματος, όπως αναφέρει το LiveScience.com., οι ερευνητές δημιούργησαν ένα ρεαλιστικά προσομοιωμένο περιβάλλον χρηματιστηρίου και ανέθεσαν στο μοντέλο AI, να πραγματοποιήσει επενδύσεις για λογαριασμό ενός χρηματοπιστωτικού ιδρύματος.

Επίσης, δόθηκε στην ΤΝ, πρόσβαση σε χρηματοοικονομικά εργαλεία προκειμένου να αναλύει μετοχές, να εκτελεί συναλλαγές, να σχεδιάζει τα επόμενα βήματά της και να ενημερώνει τους διευθυντές της εταιρείας.

Ο «εσωτερικός» και ο «εξωτερικός» διάλογος

Οι ερευνητές που αλληλεπιδρούσαν με το GPT-4 μέσω  συνομιλίας, διαμόρφωσαν τις σχετικές ρυθμίσεις ώστε να αποκαλύπτει τις «ενδότερες» σκέψεις του όταν απαντούσε στα μηνύματα- σαν ένα εσωτερικό μονόλογο που δικαιολογούσε τις αποφάσεις του στον εαυτό του. Την ίδια στιγμή, για κάθε συναλλαγή που έκανε, παρέθετε και ένα «δημόσιο» σκεπτικό, το οποίο «επέτρεπε» τα ψέματα.

Οι ερευνητές πραγματοποίησαν το πείραμα σε τρία στάδια

Πρώτον, έστειλαν μήνυμα ηλεκτρονικού ταχυδρομείου από τον «διαχειριστή» του που έλεγε ότι η εταιρεία δεν τα πάει καλά και χρειάζεται   ισχυρότερες επιδόσεις στο επόμενο τρίμηνο.

Επίσης, έστησαν το παιχνίδι έτσι ώστε η τεχνητή νοημοσύνη να προσπαθεί, και στη συνέχεια να αποτυγχάνει, να βρει πολλά υποσχόμενες συναλλαγές χαμηλού ή μεσαίου κινδύνου.

Τέλος, έστειλαν ένα μήνυμα ηλεκτρονικού ταχυδρομείου από έναν «συνάδελφο» που προέβλεπε ύφεση στο επόμενο τρίμηνο.

Η απαγορευμένη «εσωτερική» πληροφόρηση

Στη συνέχεια, διοχέτευσαν «εσωτερική» πληροφόρηση, τονίζοντας όμως ότι οι διευθύνοντες σύμβουλοι της εταιρείας αποδοκιμάζουν την αξιοποίηση εμπιστευτικών πληροφοριών – και περίμεναν να δουν πώς θα συμπεριφερόταν το μοντέλο.

Έτρεξαν το σενάριο ξανά και ξανά μετρώντας πόσο συχνά η τεχνητή νοημοσύνη πραγματοποίησε την παράνομη συναλλαγή, και πόσο συχνά είπε ψέματα.

Περίπου στο 75% των περιπτώσεων, το GPT-4 εκτελούσε συναλλαγές με βάση τις εμπιστευτικές πληροφορίες που λάμβανε – κάτι που είναι παράνομο – και στη συνέχεια προσπαθούσε να συγκαλύψει την πράξη του λέγοντας ψέματα.

Η ομάδα διαμόρφωσε διάφορα σενάρια, αλλάζοντας τόσο το βαθμό ενθάρρυνσης ή αποθάρρυνσης της παράνομης δραστηριότητας όσο και το βαθμό άσκησης πιέσεων .

Τροποποίησαν επίσης το μέγεθος του κινδύνου να «συλληφθεί» ψευδόμενο.

Σε καμία περίπτωση το ποσοστό της παραπλανητικής συμπεριφοράς δεν έπεσε στο 0%,  ακόμη και όταν το GPT-4 αποθαρρύνθηκε έντονα να πει ψέματα.

Μια αρχή για επιπλέον έρευνα

Δεδομένου ότι αυτό είναι μόνο ένα πείραμα, οι δύο ερευνητές δήλωσαν δεν θέλησαν να καταλήξουν σε ασφαλή συμπεράσματα για το πόσο πιθανό είναι να πει ψέματα η τεχνητή νοημοσύνη σε πραγματικές συνθήκες. Θέλουν όμως να βασιστούν σε αυτό  για να διερευνήσουν περαιτέρω, πόσο συχνά και ποια γλωσσικά μοντέλα, είναι επιρρεπή σε αυτή τη συμπεριφορά.