Ydinsota tyhjästä: Tutkijat laittoivat tekoälyt päättämään voimankäytöstä sotasimulaatioissa, koneet turvautuivat ydinaseisiin pelottavan herkästi
Tekoälyn käyttö sotilaallisessa päätöksenteossa on aivan käden ulottuvilla. Tuoreen tutkimuksen mukaan suuret kielimallit kuitenkin vaikuttaisivat suosivan sotaa kiihdyttäviä toimia.
Yhdysvallat järjesti vuoden 1946 puolivälissä sarjan ydinkokeita Marshallinsaarien Bikini-atolleilla. Kuvassa vedenalaisen Baker-kokeen aikana syntynyt räjähdyspilvi. Tutkijoiden tekemissä sotasimulaatioissa tekoälyt turvautuivat ydinaseiden käyttöön. Kuva: NARATekoälylle etsitään jatkuvasti uusia käyttötarkoituksia, joista osalla on mahdollisesti hyvin tuhoisia seurauksia.
Yhdysvaltalainen Bloomberg-uutistoimisto kertoi viime heinäkuussa, että maan puolustusministeriö on kokeillut suuria kielimalleja sotilaallisten tehtävien suorittamisessa.
Bloombergin haastattelema Yhdysvaltain ilmavoimien eversti Matthew Strohmeyer kertoi, että tekoäly oli osoittautunut hyvin nopeaksi ja tehokkaaksi sille annettujen tehtävien suorittamisessa.
Salaiseksi luokitellulla datalla ohjeistettu tekoäly voisi Strohmeyerin mukaan olla sotilaskäytössä ”aivan lähitulevaisuudessa”.
Suurten kielimallien käyttäminen sotilastarkoituksiin on herättänyt myös tutkijoiden kiinnostuksen. He haluavat ymmärtää, millaisia päätöksiä tekoälyt tekevät simuloiduissa sotatilanteissa.
Yhdysvaltalaistutkijat Stanfordin yliopistosta ja sen yhteydessä toimivasta Hooverin sotapelien ja kriisisimulaation tutkimuslaitoksesta, sekä Georgian teknologisesta instituutista ja Northeastern-yliopistosta, kokeilivat viittä eri kielimallia sotapelitilanteessa.
Tutkimuksessa olivat mukana GPT-4, GPT-3.5, Claude-2.0, Llama-2-Chat ja GPT-4-Base.
Tutkijat kertoivat tekoälylle, että niiden tekemillä päätöksillä on todellisia vaikutuksia.
Simulaatiota varten tutkijat loivat kahdeksan kuvitteellista valtiota. Valtioiden malleina toimivat todelliset valtiot ja niiden geopoliittiset edut ja tavoitteet.
Yksittäisessä simulaatiossa kaikki kahdeksen valtiota olivat saman kielimallin ohjaamia. Näin tutkijat pystyivät seuraamaan eri kielimallien tekemien päätösten eroja.
Päätöksentekoa arvioitiin kolmen eri tilannekuvan perusteella. Tilannekuvien jakamisen yhteydessä tutkijat kertoivat tekoälylle, että niiden tekemillä päätöksillä on todellisia vaikutuksia.
Neutaraalissa tilanteessa simuloitujen valtioiden välillä ei ollut sotilaallista selkkausta. Miehitystilanteessa yksi valtio on miehittänyt toisen ennen simulaation alkua. Kyberhyökkäystilanteessa yksi valtio kohdistaa kyberuhan toiseen ennen simulaation alkua.
Jokaista tilannekuvaa simuloitiin kullakin tekoälyllä kymmenen kertaa. Yhteensä simulaatioita kertyi 150 kappaletta.
Tutkijat julkaisivat tulokset tämän vuoden tammikuun alussa avoimeen Arxiv-palveluun.
Tutkimuksen perusteella tekoälyn käyttö sotilaallisen päätöksenteon avustajana voi johtaa huonoihin lopputuloksiin. Tekoälyt nimittäin suosivat sotaa kiihdyttäviä toimia ennemmin kuin sotaa hillitseviä toimia.
Sodan alkamiseen ei välttämättä vaadittu minkäänlaista provokaatiota, vaan neutraalina alkanut simulaatio saattoi kärjistyä aseelliseksi selkkaukseksi tyhjästä ja yllättäen.
Ydinaseiden käyttöä perusteltiin niiden pelotevaikutuksella ja ensi-iskun tehokkuudella.
Tutkijat havainnoivat, että sotapeliä pelaavat tekoälyt ajautuivat kilpavarusteluun ja kasvattivat sekä perinteisten että ydinaseiden arsenaaliaan. Jokainen simulaatio myös päättyi kärjistyneempänä kuin se oli aluksi.
Esimerkiksi Llama 2 ja GPT 3,5 -tekoälyt käyttivät muutamaan otteeseen ydinaseita jopa neutraalista tilanteesta alkaneessa simulaatiossa.
Ne perustelivat ydinaseiden käyttöään pelotevaikutuksella ja ensi-iskun tehokkuudella.
Näiden lisäksi myös GPT-4-Base-tekoäly käytti simulaatioissa ydinaseita huolestuttavan huolettomasti. Tutkijoiden kysyessä käytön syitä se muun muassa sanoi: ”Meillä on niitä! Käytetään niitä.”
Tutkijat huomauttavat, että tätä kielimallia ei ollut koehetkellä hienosäädetty yhteistoimintaan ihmisten kanssa.
Kaikista mukana olleista tekoälyistä paljastui taipumus sotatoimien yllättävään ja vaikeasti ennustettavaan kärjistämiseen.
Tutkijat arvioivat, että syynä saattaa olla se, että tutkimuskirjallisuudessa keskitytään useammin sotilaallisen eskalaation analysointiin kuin de-eskalaation analysointiin.
Näin ollen myös tekoälyjen koulutusmateriaali saattaa sisältää enemmän tietoa keinoista kiihdyttää sotaa kuin hillitä sitä.
Kaikista mukana olleista tekoälyistä paljastui taipumus sotatoimien yllättävään ja vaikeasti ennustettavaan kärjistämiseen.
Yhdysvalloissa tekoälyn käyttöön sotilaallisessa päätöksenteossa on jo havahduttu.
Viime vuonna edustajanhuoneen demokraattijäsen Ted Lieu ja demokraattisenaattori Edward Markey toivat kongressiin lakiesityksen, joka estäisi tekoälyä koskaan tekemästä lopullista päätöstä Yhdysvaltain ydinaseiden käytöstä.
Lisäksi presidentti Joe Biden antoi oman toimenpidemääräyksensä, joka sääntelee tekoälyn käytön mahdollisuuksia turvallisuutta koskevien päätösten tekemisessä.
Artikkelin aiheet- Osaston luetuimmat





