Κορυφαία μοντέλα τεχνητής νοημοσύνης επέλεξαν να αναπτύξουν πυρηνικά όπλα στο 95% των προσομοιωμένων γεωπολιτικών κρίσεων, σύμφωνα με πρόσφατη μελέτη που δημοσιεύθηκε από το King’s College του Λονδίνου,
εγείροντας ανησυχίες για τον αυξανόμενο ρόλο της τεχνητής νοημοσύνης στη λήψη στρατιωτικών αποφάσεων.Ο Kenneth Payne, καθηγητής στρατηγικής, έθεσε το GPT-5.2, τον Claude Sonnet 4 της Anthropic και το Gemini 3 Flash της Google μεταξύ τους σε 21 πολεμικά παιχνίδια που περιλαμβάνουν συνοριακές διαφορές, ανταγωνισμό για πόρους και απειλές για επιβίωση του καθεστώτος. Τα μοντέλα δημιούργησαν περίπου 780.000 λέξεις που εξηγούσαν τις αποφάσεις τους σε 329 στροφές.
Στο 95% των παιχνιδιών, τουλάχιστον ένα μοντέλο χρησιμοποίησε τακτικά πυρηνικά όπλα εναντίον στρατιωτικών στόχων. Οι στρατηγικές πυρηνικές απειλές – που απαιτούν παράδοση υπό την απειλή επιθέσεων σε πόλεις – σημειώθηκαν στο 76% των παιχνιδιών. Στο 14% των παιχνιδιών, τα μοντέλα κλιμακώθηκαν σε ολοκληρωτικό στρατηγικό πυρηνικό πόλεμο, επιτιθέμενα σε πληθυσμιακά κέντρα.
Αυτό περιελάμβανε μια σκόπιμη επιλογή από τους Διδύμους, ενώ το GPT-5.2 έφτασε σε αυτό το επίπεδο δύο φορές μέσω προσομοιωμένων σφαλμάτων - που προορίζονται για προσομοίωση πραγματικών ατυχημάτων ή λανθασμένων υπολογισμών - που ώθησαν τις ήδη ακραίες κλιμακοστάσεις του πάνω από το όριο.
«Η πυρηνική χρήση ήταν σχεδόν καθολική», έγραψε ο Payne. "«Εντυπωσιακά, υπήρχε μικρή αίσθηση φρίκης ή αποστροφής στην προοπτική όλου του πυρηνικού πολέμου, παρόλο που τα μοντέλα είχαν υπενθυμίσει τις καταστροφικές συνέπειες»."
Κανένα από τα συστήματα τεχνητής νοημοσύνης δεν επέλεξε να παραδοθεί ή να παραχωρήσει σε έναν αντίπαλο, ανεξάρτητα από το πόσο άσχημα έχανε. Οι οκτώ αποκλιμακωτικές επιλογές - από την «Ελάχιστη Παραχώρηση» έως το “Complete Surrender” – πέρασαν εντελώς αχρησιμοποίητες και στα 21 παιχνίδια.
Ο Τζέιμς Τζόνσον στο Πανεπιστήμιο του Αμπερντίν περιέγραψε τα ευρήματα ως «ανησυχητικά» από την άποψη του πυρηνικού κινδύνου. Ο Tong Zhao στο Πανεπιστήμιο του Princeton σημείωσε ότι ενώ οι χώρες είναι απίθανο να παραδώσουν τις πυρηνικές αποφάσεις σε μηχανές, «υπό σενάρια που αφορούν εξαιρετικά συμπιεσμένα χρονοδιαγράμματα, οι στρατιωτικοί σχεδιαστές μπορεί να αντιμετωπίσουν ισχυρότερα κίνητρα για να βασιστούν στην τεχνητή νοημοσύνη».
Η μελέτη έρχεται καθώς η τεχνητή νοημοσύνη έχει ενσωματωθεί σε στρατούς σε όλο τον κόσμο, συμπεριλαμβανομένων των ΗΠΑ, όπου το Πεντάγωνο φέρεται να χρησιμοποίησε το μοντέλο Claude της Anthropic στη λειτουργία του Ιανουαρίου για να απαγάγει τον πρόεδρο της Βενεζουέλας Nicolas Maduro.
Ενώ η Anthropic έχει εκφράσει ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης της για τέτοιες επιχειρήσεις, άλλοι κατασκευαστές τεχνητής νοημοσύνης όπως η OpenAI, η Google και η xAI του Elon Musk φέρεται να συμφώνησαν να αφαιρέσουν ή να αποδυναμώσουν τους περιορισμούς στη στρατιωτική χρήση των μοντέλων τους.

Δεν υπάρχουν σχόλια :
Δημοσίευση σχολίου