Atomháborút robbanthat ki a mesterséges intelligencia

A hadseregeknek nem szabad túlzottan támaszkodniuk a mesterséges intelligenciára, mivel a nagy nyelvi modellekkel betanított rendszerek rossz döntéseket hozhatnak, ami akár egy nukleáris háborút is előidézhet.

2022-ben az OpenAI bemutatta a ChatGPT-t, egy olyan chatbotot, amely nagy nyelvi modellek segítségével utánozza az emberi beszélgetéseket és válaszol a felhasználók kérdéseire. A chatbot rendkívüli képességei vitát váltottak ki arról, hogy az LLM-eket hogyan lehetne más feladatok, például hadászati feladatok elvégzésére is használni.

Egyesek a generatív mesterséges intelligencia technológiákat a civilek és katonák beazonosítására, valamint a csapások közbeni megkülönböztetésre kívánják alkalmazni, ami az etikus háborúk megvívásához szükséges. Mások, mint például a Vöröskereszt Nemzetközi Bizottságának tanácsadói, arra figyelmeztettek, hogy ezek a technológiák kikerülhetik az emberi döntéshozatalt, amikor élet és halál között kell dönteni.

Az Egyesült Államok Védelmi Minisztériuma 2022 tavaszán létrehozta a Digitális és Mesterséges Intelligencia Hivatalát, hogy megvizsgálja, hogyan segíthet a mesterséges intelligencia a fegyveres erőkön. 2023 novemberében a védelmi minisztérium közzétette a mesterséges intelligenciával kapcsolatos technológiák használatára vonatkozó stratégiáját, amely optimistán számolt be arról, hogy az adatok, az analitika és az AI-technológiák segíthetnek a vezetőknek gyorsabban és jobb döntéseket hozni.

Az AI-alapú technológiák már ma is használatban vannak, például az amerikai csapatok AI rendszerekkel választották ki a húti célpontokat a Közel-Keleten. A Pentagonban azonban, annak ellenére, hogy lelkesednek a mesterséges intelligencia és az LLM-ek iránt, aggódnak a technológia által jelentett kockázatok miatt. Az amerikai haditengerészet nemrégiben az LLM-ek használatát korlátozó iránymutatást tett közzé, mivel az LLM-ek cselekedetei nehezen megjósolhatók és veszélyes, eszkalációt maga után vonó döntéseket hozhatnak.

Max Lampart a Stanford Nemzetközi Biztonsági és Együttműködési Központ (CISAC) és a Stanford Center for AI Safety munkatársa, valamint Jacquelin Schneider a Hoover Institution munkatársa, és a Stanford Egyetem Nemzetközi Biztonsági és Együttműködési Központjának munkatársa szerint a hadseregnek korlátokat kell szabnia ezeknek a technológiáknak, amikor nagy tétekkel járó döntések meghozatalára használják őket, különösen harci helyzetekben.

Az LLM-ek katonai feladatokat tudnak ellátni, amelyek hatalmas mennyiségű adat feldolgozását igénylik nagyon rövid idő alatt, és hasznosak lehetnek a katonai tervezés, a parancsnokság és a hírszerzés számára. Automatizálhatják a forgatókönyvtervezést, a hadijátékokat, a költségvetés-tervezést és a kiképzés nagy részét, valamint használhatók a hírszerzési információk szintetizálására, a fenyegetések előrejelzésének javítására és a támadási pontok gyors meghatározására.

Háború vagy válsághelyzet idején az LLM-ek útmutatásokat adhatnak a parancsok kiadásához még akkor is, ha az egységek és parancsnokaik között korlátozott vagy minimális a kommunikáció. A hadseregek mindennapi működése szempontjából az LLM-ek képesek lehetnek automatizálni az egyébként nehézkes katonai feladatokat, beleértve a logisztikát és a teljesítményértékelést.

Azonban még ezeknél a döntéseknél sem garantálható az LLM-ek sikere. Viselkedésük kiszámíthatatlan lehet, különösen ritka és kiszámíthatatlan események bekövetkeztével, és mivel nincs két teljesen egyforma LLM, a felhasználói inputok különbözőképpen befolyásolják őket.