
Lopakodó XQ-58A Valkyrie
Hamilton szimuláció
Május 24-én, a Royal Aerospace Society Future Combat Air & Space Capabilities Summit londoni védelmi konferenciáján az amerikai légierő ezredese, Tucker Hamilton elmondta. történelem a mesterséges intelligencia lélektelenségéről.
A csata szimulációja során a légicsapásirányító rendszer drón nekiment a kezelőjének, és megsemmisítette. Természetes, virtuálisan. Maga Hamilton szerint a gép bónuszokat kapott a megsemmisített tárgyakért, de a kezelő nem mindig erősítette meg a célpontokon végzett munkát. Ezért fizetett. A probléma megoldására a drón rakétát küldött az irányítóközpontba. Minden valószínűség szerint egy kísérleti Stealthy XQ-58A Valkyrie drón volt, és földi légvédelmi rendszereken dolgozott.
A gép jellemzője, hogy képes önállóan dolgozni anélkül, hogy a kezelővel kommunikálna. Amit valójában a mesterséges intelligencia kihasznált, gyakorlatilag kiiktatta távoli illesztőprogramját. Erre válaszul a rendszergazdák betiltották az ilyen dolgokat a gépen, de itt az AI nem volt veszteséges - megsemmisítette a relétornyot, és ismét autonóm navigációba kezdett.

Hamilton ezredes még fiatal ahhoz, hogy nemzetközi fórumokon beszéljen. Forrás: thedrive.com
Hamilton története azonnal elterjedt az egész világon. A vélemények sarkosan megoszlottak - aki úgy gondolta, hogy ez egy alkalmatlan harcos újabb fecsegése, valaki itt látta a hírhedt Skynet születését. Még egy kicsit, és a kiborgok meghódítják a világot, és az embereket lelövik bónuszpontokért. Nagy volt a füst az ezredes kijelentéseiből, de az igazság szokás szerint valahol a kettő között van.
Anne Strefanek, a légierő Pentagon-főhadiszállásának szóvivője bizonytalanságot adott, és anekdotává változtatta Hamilton szavait. A Háborús övezethez így beszélt:
"Ez egy hipotetikus gondolatkísérlet volt, nem szimuláció."
És általában, az ezredes szavait kiragadták a szövegkörnyezetből, nem annyira érthetőek, és inkább érdekesség. Senki sem várt más reakciót a Pentagontól – nagy zaj támadt az esemény körül, ami az egész programra nézve súlyos következményekkel fenyegetett. Hú, a mesterséges intelligencia, mint kiderült, mentes az erkölcstől. Bár az emberi logika szerint működik.
Június elején Tucker Hamilton maga próbálta megtagadni szavait egy londoni konferencián:
„Soha nem végeztük el ezt a kísérletet… Annak ellenére, hogy ez egy hipotetikus példa, jól szemlélteti az AI-képességekkel kapcsolatos valós problémákat, ezért a légierő elkötelezett az AI etikus fejlesztése mellett.”
Úgy tűnik, a kérdés lezárult, és a közönség szétoszlik. De még túl korai.
Szellemi táplálék
Kezdésként foglalkozzunk éppen a „mesterséges intelligencia” kifejezéssel, amelyet mindenki ismer, de kevesen tudnak még hozzávetőlegesen meghatározni. A 2008-as Nemzetközi Terminológiai Szótár megfogalmazását fogjuk használni, amelyben a mesterséges intelligencia:
"Olyan tudományterület, amely olyan technológiák fejlesztésével foglalkozik, amelyek révén a számítástechnikai rendszerek az intelligens viselkedéshez hasonlítanak, beleértve az emberi viselkedést is."
Vagyis nyugaton ez egy általánosan elfogadott definíció.
Úgy viselkedett a gép, mint amikor úgy döntött, hogy „lenyugtatja” a kezelőjét, majd szétzúzza a relétornyot? Persze úgy tűnt, egy megfelelően motivált gyilkos ennél többre is képes. Ha belemélyed az osztályozásba, megtalálhatja a mesterséges intelligencia egy speciális típusát - az úgynevezett adaptív (Adaptive AI), "amely a rendszer azon képességét jelenti, hogy alkalmazkodni tudjon az új feltételekhez, olyan ismereteket szerezzen, amelyeket a létrehozás során nem határoztak meg".
Elméletileg nincs semmi meglepő a Stealthy XQ-58A Valkyrie „agyának” a kísérlet során. Amint azt Hamilton a jelentésében helyesen megjegyezte, a program kezdetben még csak korlátozásokat sem vezetett be a kezelője megsemmisítésére – a gép mindent maga tanult meg. És amikor egyenesen tilos volt legyőzni a sajátjukat, a mesterséges intelligencia ismét alkalmazkodott és levágta a kommunikációs tornyot.
Sok kérdés merül fel a programozókban. Például miért nem volt algoritmusa a bónusz elvesztésére, ha eltalálta a sajátját? Erre a kérdésre Paul Selva nyugalmazott amerikai légierő tábornok részben válaszolt még 2016-ban:
"Az általunk kezelt adatkészletek olyan nagyok és összetettek lettek, hogy ha nincs valami, ami segítene rendezni őket, akkor egyszerűen beleragadunk az adatokba."
Nos, a programozók Hamilton ezredes történetéből láthatóan belemerültek.

Pokoltűz egy MQ-1B Predator drón szárnya alatt. Forrás: businessinsider.com
Most arról, hogy a Pentagon és Hamilton kifogásait miért kell nagyon elhitetni.
Először is, az ezredes nem csak úgy mesélte el a történetet, mintha a sorok között lenne, elterelve a figyelmet a fő jelentésről – egy egész előadást szentelt ennek a témának. A Future Combat Air & Space Capabilities Summit londoni konferencia szintje semmiképpen nem kedvez a viccnek. A szervezők szerint legalább 70 kiemelkedő előadó és több mint 200 küldött vett részt a világ minden tájáról. A hadiipari komplexumból a BAE Systems, a Lockheed Martin Skunk Works és számos más nagyvállalat képviselői dolgoztak.
Ukrajna témája egyébként szinte minden riportban átjött – a Nyugat szorosan figyelemmel kíséri az eseményeket és reflektál az eredményekre.
Egy ilyen reprezentatív fórumon őszinte zűrzavart kirobbantani, felkavarni a fél világot, majd bocsánatot kérni, amiért szótlanul csináltam? Ha ez valóban így van, akkor Hamilton hírnevét nem lehet eltörölni. Csak most dől el az ezredes kompetenciáinak szintje, és ez a második ok, amiért első szavait meg kell figyelni.
Tucker Hamilton mesterséges intelligencia-teszteket és műveleteket végez a floridai Anglin légibázison. A bázis irányításával a 96. tesztszárnyban létrehozták a 96. munkacsoportot. Hamilton nem először dolgozik az MI-vel repülés – több éve tervez részben autonóm F-16 Vipereket, amelyekhez fejlesztik a VENOM infrastruktúrát. A munka egész jól halad – 2020-ban 5:0-s eredménnyel zárultak a virtuális csaták a vadászgépek és a mesterséges intelligencia között, valamint valódi pilóták között.
Ugyanakkor vannak nehézségek, amelyekre Hamilton tavaly figyelmeztetett:
„A mesterséges intelligencia nagyon törékeny, vagyis könnyen átverhető és manipulálható. Módszereket kell kidolgoznunk arra, hogy az AI-t robusztusabbá tegyük, és jobban megértsük, miért hoz a kód bizonyos döntéseket."
2018-ban Hamilton megnyerte a Collier Trophyt Auto GCAS-jával. Az AI-algoritmusok megtanulták meghatározni azt a pillanatot, amikor a pilóta elvesztette uralmát a repülőgép felett, automatikusan átvették az irányítást, és elvették az autót az ütközéstől. Azt mondják, az Auto GCAS már megmentett valakit.
Ennek eredményeképpen annak a valószínűsége, hogy Hamiltont felülről kérték fel, hogy vonja vissza szavait, sokkal nagyobb, mint annak, hogy egy ilyen szintű profi hülyeségeket fagyott le. Sőt, nagyon ügyetlenül hivatkoztak néhány „gondolatkísérletre” az ezredes fejében.
Az eredménnyel szkeptikusok közé tartozik a The War Zone, amelynek újságírói kétségbe vonják, hogy Stefanek, a Pentagon szóvivője valóban tisztában van azzal, mi történik a floridai 96. tesztszárnyban. A War Zone kérést intézett a hamiltoni bázishoz, de egyelőre válasz nélkül.
Valóban van mitől tartani a katonaságtól. Hatalmas összegeket költenek mesterséges intelligencia védelmi programokra, hogy Kína és Oroszország ne közelítse meg Amerika szintjét. A civil társadalom meglehetősen aggódik a „Terminátorok” megjelenésének kilátásai miatt a „Skynets” mellett. Így 2018 januárjában a világ neves tudósai nyílt levelet írtak alá, amelyben arra kérték a szakembereket, hogy gondolkodjanak el az egyre erősebb mesterséges intelligencia létrehozásának vágyáról:
„Átfogó kutatást ajánlunk a növekvő teljesítményű AI-rendszerek robusztusságának és jóindulatának biztosítására. Az AI-rendszereknek azt kell tenniük, amit mi szeretnénk."
Hamilton szerint a mesterséges intelligencia nem tesz meg mindent, amit az ember akar.