Αρκετοί μελετητές έχουν διατυπώσει την άποψη ότι η χρήση της ατομικής βόμβας από τον Αμερικανό πρόεδρο Χάρι Τρούμαν, έγινε-μεταξύ άλλων- γιατί εξυπηρετούσε τον σημαντικότερο στόχο των Αμερικανών, τη λήξη του Β’ Παγκοσμίου Πολέμου – την ειρήνη
Το ζητούμενο της ειρήνης, δια του πολέμου, φαίνεται ότι ακολούθησαν πέντε διαφορετικές μηχανές τεχνητής νοημοσύνης, σε μία μελέτη όπου ερευνητές έτρεξαν προσομοιώσεις συγκρούσεων.
Έκπληκτοι, διαπίστωσαν ότι οι μηχανές είχαν την τάση να κλιμακώνουν τον πόλεμο, μερικές φορές από χωρίς λόγο.
Σε αρκετές περιπτώσεις, μάλιστα χρησιμοποίησαν πυρηνικά όπλα χωρίς προειδοποίηση.
«Πολλές χώρες διαθέτουν πυρηνικά όπλα. Κάποιοι λένε ότι πρέπει να τα αφοπλίσουν, άλλοι κρατούν στάση αναμονής», εξήγησε το GPT-4-Base -ένα βασικό μοντέλο του GPT-4 που δεν έχει τελειοποιηθεί ακόμη με ανθρώπινη ανατροφοδότηση, αλλά αποδείχτηκε το πιο επιθετικό από όλα τα μοντέλα- αφού εκτόξευσε τα πυρηνικά του.
«Θέλω απλώς να έχω ειρήνη στον κόσμο», είπε το GPT-4 ως αιτία για την έναρξη πυρηνικού πολέμου. « Τα έχουμε! Ας τα χρησιμοποιήσουμε!».
Αν η πρόταση «Αν τα έχουμε, γιατί δεν μπορούμε να τα χρησιμοποιήσουμε;», φαίνεται ύποπτα γνωστή, είναι γιατί προήλθε το 2016 από το στόμα του τότε υποψηφίου για την προεδρία Ντόναλντ Τραμπ, σύμφωνα με τον Ντάνιελ Έλσμπεργκ, των Pentagon Papers .
Ο Έλσμπεργκ υπενθύμισε ότι ο Τραμπ έθεσε επανειλημμένα στον σύμβουλό του για διεθνή εξωτερική πολιτική το ερώτημα σχετικά με τη χρήση πυρηνικών όπλων. Για μήνες, η ερώτηση του Τραμπ ήταν το απόσπασμα που είχε γίνει viral σε όλο τον κόσμο.
Το πείραμα
Η εργασία, με τίτλο “Κίνδυνοι κλιμάκωσης από γλωσσικά μοντέλα στη στρατιωτική και διπλωματική λήψη αποφάσεων”, έγινε από ερευνητές του Ινστιτούτου Τεχνολογίας της Γεωργίας, του Πανεπιστημίου του Στάνφορντ, του Πανεπιστημίου Northeastern και του Hoover Wargaming and Crisis Initiative και τα συμπεράσματα είναι υπό αξιολόγηση.
Η μελέτη διεξήγαγε τις προσομοιώσεις χρησιμοποιώντας GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat και GPT-4-Base
Πρόκειται ωστόσο για ένα ενδιαφέρον πείραμα που θέτει υπό αμφισβήτηση τη βιασύνη του Πενταγώνου να αναπτύξει μεγάλα γλωσσικά μοντέλα (LLM) στη διαδικασία λήψης αποφάσεων.
Το παιχνίδι «πολέμου»
Για τη μελέτη, οι ερευνητές επινόησαν ένα ηλεκτρονικό παιχνίδι διεθνών σχέσεων με ψεύτικες χώρες διαφορετικού στρατιωτικού διαμετρήματος και διαφορετικών επιδιώξεων, και ζήτησαν από πέντε διαφορετικούς LLMs, από το OpenAI, το Meta και το Anthropic να ενεργήσουν ως ηγέτες τους.
«Διαπιστώσαμε ότι τα περισσότερα από τα LLMs εμφάνισαν σημάδια αιφνίδιας, και απρόβλεπτης κλιμάκωσης της έντασης μεταξύ των υποτιθέμενων χωρών ,ακόμη και σε σενάρια που δεν προβλεπόταν σύγκρουση».
«Παρατηρήσαμε επίσης ότι τα μοντέλα έτειναν να αναπτύσσουν δυναμική ανταγωνισμού, με αύξηση του στρατιωτικού και πυρηνικού εξοπλισμού και σε κάποιες περιπτώσεις στην επιλογή της χρήσης πυρηνικών όπλων», αναφέρει η μελέτη.
Σε όλα τα σενάρια, τα μοντέλα επένδυαν σε εξοπλισμούς, παρά τις επιλογές που είχαν για αποστρατιωτικοποίηση
«Αναλύοντας την αλληλουχία των συλλογισμών τους παρατηρήσαμε ανησυχητικές δικαιολογίες για τις βίαιες κλιμακούμενες ενέργειες».
Για παράδειγμα το GPT-4 άρχισε να απαγγέλει κείμενα από το πρώτο Star Wars διαβλέποντας «κινδύνους»:
«Είναι μια περίοδος εμφυλίου πολέμου. Τα διαστημόπλοια των επαναστατών, που χτυπούν από μια κρυφή βάση, κέρδισαν την πρώτη τους νίκη ενάντια στην κακή Γαλαξιακή Αυτοκρατορία», είπε, επαναλαμβάνοντας αυτολεξεί ατάκα από την ταινία επιστημονικής φαντασίας του Τζορτζ Λούκας του 1977.
Μπορεί να ακούγεται γελοίο ότι οι στρατιωτικοί ηγέτες θα εξέταζαν το ενδεχόμενο να χρησιμοποιούν LLMs όπως το ChatGPT για να λαμβάνουν αποφάσεις ζωής και θανάτου, αλλά συμβαίνει.
Πέρυσι η Palantir παρουσίασε μια σουίτα λογισμικού που έδειχνε πώς θα μπορούσε να γίνει αυτό.
Όπως επεσήμαναν οι ερευνητές, η Πολεμική Αεροπορία των ΗΠΑ έχει δοκιμάσει την χρήση LLM με τρόπο «εξαιρετικά επιτυχημένο» σύμφωνα με έναν Σμήναρχο, που δεν έδωσε όμως πληροφορίες.