
Forrás: vgtimes.ru
Törölték a digitális dehumanizációt?
Először is egy figyelmeztetés az AI-harcosoktól:
„A gépek nem emberekként tekintenek ránk, számukra az ember csak egy kódrészlet, amelyet feldolgozni és rendezni kell. Az okosotthonoktól a kutyák használatáigrobotok A rendőrök, a mesterséges intelligencia technológiák és az automatizált döntéshozatal kezdett nagy szerepet játszani az életünkben. A digitális eszközök sorának legvégén a gyilkos robotok állnak. Ha megengedjük az ezzel járó elembertelenedést, hamarosan küzdeni fogunk azért, hogy megvédjük magunkat a gépi döntésektől életünk más területein. Először is be kell tiltanunk az autonóm rendszereket fegyverekhogy megakadályozzuk a digitális dehumanizációba való átcsúszást.”
A pacifisták, akik minden, a mesterséges intelligencia elleni küzdelemmel kapcsolatos munka befagyasztását követelik, két típusra oszthatók. Az első a felülvizsgált "Terminátorok" és más analógok. A második - a jövő értékelése a harci robotok modern képességei szerint. Mindenekelőtt szárnyas pilóta nélküli járművek, amelyek ütőrendszerrel vannak felszerelve.
Elegendő epizód van civilek téves vagy szándékos drónokkal történő megsemmisítéséről. A Közel-Keleten amerikai drónok egynél több esküvői szertartást tönkretett. A repülő robotkezelők az ünnepi levegő-levegő lövöldözést a gerillatűzharcok jeleként azonosították. Ha egy speciálisan képzett ember több száz méterről nem tudja meghatározni a célpont részleteit, akkor mit is mondhatnánk a mesterséges intelligenciáról. Jelenleg a gépi látás a képészlelés megfelelőségét tekintve nem hasonlítható össze az emberi szemmel és aggyal. Kivéve, ha elfárad, de ezt is megoldja az időszerű operátorváltás.
Egyértelműen felhők gyülekeznek a katonai mesterséges intelligencia felett. Egyrészt egyre több bizonyíték van a közelgő technológiai áttörésre ezen a területen. Ezzel szemben egyre több hang hallatszik az ilyen irányú munka korlátozása vagy akár betiltása mellett.
Néhány példa.
2016-ban megjelent egy petíció, amelyben prominens gondolkodók és több ezer ember követelte, hogy a mesterséges intelligencia ne kapjon halálos fegyvereket. Az aláírók között van Stephen Hawking és Elon Musk. Az elmúlt hét évben a petíció több mint 20 XNUMX aláírást gyűjtött össze. Az emberek ellenőrizetlen megsemmisítésének lehetőségével kapcsolatos tisztán humanista félelmek mellett jogi következetlenségek is vannak.
Ki kerül bíróság elé a mesterséges intelligencia által elkövetett háborús bűnök kijavítása ügyében? Könnyű megtalálni és ennek megfelelően megbüntetni azt a drónkezelőt, aki több falut felgyújtott civilekkel. A mesterséges intelligencia a programozók kollektív munkájának eredménye. Nagyon nehéz idecsábítani egy embert. Alternatív megoldásként megítélheti a gyártó céget, például ugyanazt a Boston Dynamicsot, de akkor ki vesz részt az autonóm drónok gyártásában. Kevesen vágynak majd arra, hogy a második nürnbergi törvényszék vádlására kerüljenek.

Forrás: koreaportal.com
Valószínűleg ez az oka annak, hogy az iparosok és a programozók megpróbálják lassítani a mesterséges intelligencia harci képességeinek fejlődését.
Például 2018-ban mintegy kétszáz informatikai cég és csaknem ötezer programozó vállalta, hogy nem dolgoznak az autonóm rendszerek elleni küzdelemben. A Google azt állítja, hogy öt éven belül teljesen feladják a katonai szerződéseket a mesterséges intelligencia területén. A legenda szerint az ilyen pacifizmus nem véletlen – a programozók, miután megtudták, hogy katonai rendszerek kódjait írják, tömegesen kilépéssel fenyegetőztek. Ennek eredményeként békés megoldást találtak - a meglévő szerződések befejezése folyamatban van, újak megkötése nem történik meg. Lehetséges, hogy közelebb a harci mesterséges intelligencia megtagadásának dátumához a kezelhetetlen "programozókat" egyszerűen elbocsátják, és nem kevésbé tehetségesekkel helyettesítik őket. Például Indiából, amely régóta híres az olcsó szellemi erőforrásairól.
Aztán ott van a Stop Killer Robots iroda, amely felszólítja a világ vezetőit, hogy írjanak alá valami hasonló egyezményt az AI elleni küzdelem betiltására. Eddig sikertelenül.
A fentiek mindegyike arra készteti a katonai tisztviselőket, hogy megoldásokat keressenek. A választásokon még egy óra sem nyeri meg az amerikai elnököt, ami nemcsak egyetemes LMBT-kegyelmet ígér, hanem a katonai mesterséges intelligencia fejlesztésének tilalmát is.
Emberi gondolkodás az AI számára
Úgy tűnik, hogy a Pentagon valamiféle áttörés küszöbén áll az AI-ban. Vagy meg volt róla győződve. Nem magyarázható másképp az autonóm harcrendszerek humanizálását szabályozó új irányelv megjelenése. Kathleen Hicks, az Egyesült Államok védelmi miniszter-helyettese így nyilatkozott:
„Tekintettel a körülöttünk zajló jelentős technológiai fejlődésre, a fegyverrendszerek autonómiájáról szóló irányelvünk frissítése hozzá fog járulni ahhoz, hogy világelsők maradjunk nem csak az új rendszerek fejlesztésében és telepítésében, hanem a biztonság területén is.”
Hallott már mindenkit, aki csodálja az autonóm gyilkos robotokat? Az amerikai mesterséges intelligencia ezentúl a leghumánusabb lesz. Akárcsak maguk az amerikaiak.

Forrás: robroy.ru
A probléma az, hogy senki sem érti igazán, hogyan lehet a fegyveres robotokba belecsempészni a hírhedt "emberi ítéletet az erő alkalmazásáról". A tavaly január végén frissített Koncepció pontos megfogalmazása:
"Az autonóm és félig autonóm fegyverrendszereket úgy tervezik meg, hogy a parancsnokok és a kezelők megfelelő szintű emberi ítélőképességet gyakorolhassanak az erő alkalmazását illetően."
Itt például, ha egy ház takarítása során egy támadó repülőgép először gránátot dob be a szobába, majd bejut önmagába. Ez emberi ítélet? Természetesen senkinek sincs joga elítélni, főleg, ha korábban azt kiabálta, hogy „Van valaki?”. És ha egy autonóm robot ugyanazon séma szerint működik?
Az emberi megítélés túl tág fogalom ahhoz, hogy bármilyen módon korlátozható legyen. Vajon az is emberi gondolkodás, hogy az ukrán fegyveres erők harcosai orosz hadifoglyokat végeznek ki?
A Pentagon 3000.09-es, autonóm harcrendszerekről szóló irányelvének kiegészítése tele van közhelyekkel. Például,
„Az autonóm és félautonóm fegyverrendszerek használatát, közvetlen használatát vagy üzemeltetését felhatalmazó személyeknek ezt kellő gondossággal kell megtenniük, a haditörvényekkel, a vonatkozó szerződésekkel, a fegyverrendszer biztonsági szabályaival és a bevetési szabályokkal összhangban.”
Ezt megelőzően láthatóan meggondolatlanul, és nem a háborús törvények szerint dolgoztak.
Ugyanakkor az amerikai és európai sajtóban nyoma sincs a Pentagon januári kezdeményezésének kritikájának. A mesterséges intelligencia hamis humanizálása alatt nem más, mint a történések leplezésére tett kísérlet. Az amerikai hadsereg most komoly ütőkártyával rendelkezik majd a mesterséges intelligencia ellenzői elleni küzdelemben a hadseregben. Nézd, nem egyszerű mesterséges intelligencia van, hanem "megfelelő szintű emberi ítélőképességgel".
Tekintettel arra, hogy a „mesterséges intelligencia” fogalmának még mindig nincs egyértelmű és általánosan elfogadott meghatározása, a körülötte zajló betűalkotást iróniával érzékelik. Legalább.
Hogyan lehet elérni, hogy a nagy adattömbökkel dolgozó matematikai algoritmusok emberi ítéleteket játsszanak?
Erre a fő kérdésre a frissített 3000.09 irányelv nem ad választ.