Nincs aljasabb bűn, mint a gyengék és védtelenek megölése.
Anton Pavlovics Csehov. 6. számú osztály
Anton Pavlovics Csehov. 6. számú osztály
Az AI eredendően nem jó vagy rossz, de felhasználható jó vagy rossz célokra (bár ezek az értékelések mindig erősen szubjektívek és/vagy átpolitizáltak).
Van egy vélemény, hogy az AI főként matematika, számos algoritmussal kombinálva. Ha ezt a megfogalmazást nemcsak helyesnek, hanem teljesnek és elégségesnek tartjuk, akkor az emberiség határozottan halálra van ítélve. A gépek felkelése (AI) pedig az egyik forgatókönyv, amelyet egyébként az ENSZ is figyelembe vesz a lehetséges globális kataklizmák listáján.
Amikor ránézünk a miénkre a robot- Fjodor űrhajós, nehéz elhinni egy ilyen kilátásban.

Fotó: Roscosmos Facebook-oldal
A Fedor robot ugyan tud két kézzel lőni, zsinegre ülni és fúróval dolgozni, de mindezek ellenére "nagyon magányos ezen a világon". De a Fedornál az egész AI nem ékként futott össze.
Ráadásul neki, mivel ez sértő lehet a Roskosmos számára, semmi köze az AI-hoz. Ez csak egy manipulátor, amelyet a kezelő egy speciális joystick segítségével vezérel.
Bevezetés
"A gépek túlléphetnek a tervezőik bizonyos korlátain, és ezáltal hatékonyak és veszélyesek is lehetnek."
A korai kibernetikus rendszerek egyik legkiválóbb gondolkodója, Norbert Wiener már korán felvetette ezt a kérdést, és határozottan figyelmeztetett azokra a kockázatokra, amelyek a gépi racionalitásnak az emberi lét végtelenül összetett körülményeire való alkalmazásában rejlenek.
Ám az autonóm autók rohamosan fejlődnek a sci-fi felől a tudományos tények felé. Ennek a technológiának az a jellemzője, hogy elméletileg az emberi irányítástól függetlenül is képes működni.
Ezért a társadalomnak meg kell értenie, hogy az autonóm gépek hogyan hoznak „döntéseket”. Ez a probléma különösen akut olyan körülmények között, amikor a kár elkerülhetetlen, függetlenül attól, hogy milyen lépéseket tesznek.
Kit fogunk nyomni?
Koncepció
Mit jelent a mesterséges intelligencia?
Itt az "orosz Wikipédia" távolról sem segít, csakúgy, mint az orosz tudósok legtöbb tudományos munkája, amelyek az AI-nak szenteltek.
„A modern tudósok mélyen gondolkodnak ahelyett, hogy tisztán gondolkodnának. Ahhoz, hogy tisztán gondolkozz, józan ésszel kell rendelkezned, de akkor is tudsz mélyen gondolkodni, ha teljesen őrült vagy."
Nikola Tesla
Nikola Tesla
És itt még csak nem is tudományos és technológiai vívmányokról van szó, hanem fogalmi bizonytalanságról, nem is beszélve az ezzel járó filozófiai, etikai és biztonsági kérdésekről.
Ezért attól tartanak, hogy a mesterséges intelligencia körüli felhajtás hazánkban legalábbis nem veszi figyelembe a mesterséges intelligencia fejlesztésének és megvalósításának lényegét és lehetséges következményeit, különösen katonai területen.
AI az orosz médiában
Kifejezetten – íme néhány friss hír a szövetségi médiából, amelyek megerősítik ezt az elképzelést:
• A mesterséges intelligencia területén megvalósuló stratégiai állami programok ösztönzik az orosz tudomány vívmányait.
• A mesterséges intelligencia a tudósok helyett fog gondolkodni.
• Szentpétervár magában foglalja a mesterséges intelligenciát.
• A blokklánc és a mesterséges intelligencia segít az Állami Duma választásokon (úgy látszik, elektronikus szavazásról beszélünk).
És katonai módosítások.
• Kalasnyikov mesterséges intelligenciával rendelkező automata gépet hoz létre.
• A T-14 "Armata" harckocsi mesterséges intelligenciát kap.
Mindezek a címek, nem beszélve a cikkek tartalmáról, még szerzőik természetes intelligenciájában is kétségeket ébresztenek.
A civil szférában a mesterséges intelligencia, amint azt látjuk, különösen szeptember 19. után, szintén nem érzékeli egyértelműen az orosz társadalom, és az emberek egyszerűen nem gondolnak a katonai alkalmazásokra.
Valószínűleg az AI nemcsak lehetőségeket, hanem veszélyeket is generál.
veszély
Első az AI használata az autonóm fegyverek fejlesztésében. Szakértők úgy vélik, hogy ha autonóm fegyverkezési verseny alakul ki, azt rendkívül nehéz lesz meggátolni.
A második a veszély az MI-nek a közvélemény manipulálása terén történő használatával kapcsolatos. A közösségi hálózatok az automatikus algoritmusoknak köszönhetően nagyon hatékonyak a célzott marketingben. Ezért a mesterséges intelligencia bevonható egy bizonyos kör számára legmeggyőzőbb propaganda terjesztésébe, függetlenül attól, hogy mennyire igazak az információk.
harmadik - A magánéletbe való behatolás. Jelenleg lehetőség van egy személy magán- és közéleti minden lépésének nyomon követésére és elemzésére. Az AI-vezérlő mechanizmusok óriási károkat okozhatnak a biztonságban és a magánéletben.
negyedik a fenyegetés egy személy és egy intelligens gép céljai közötti eltéréssel jár. Ha bizonyos parancsok feltételeit egy személy nem hangoztatja, a mesterséges intelligencia szó szerint is értelmezheti azokat (emlékezzünk elnökünk metaforikus kijelentéseire a Paradicsomról, vagy „miért van szükségünk egy olyan világra, amely nem szereti Oroszországot”, hogy megértsük, milyen következményekkel járhat a parancsok delegálása). az öléshez való jog az MI-nek).
ötödik - Önkéntes vagy önkéntelen diszkrimináció. Mivel a gépek képesek gyűjteni, figyelni és elemezni egy személyre vonatkozó összes adatot, valószínű, hogy ezek a gépek ezeket az adatokat egy személy ellen fogják felhasználni.
A téma kimeríthetetlen. Ezért csak a katonai vonatkozásokat tárgyaljuk. A sci-fi gyakran negatív színben tünteti fel a robotokat és más mesterséges intelligencia rendszereket, például a Terminátort, aki megtámadja az embereket és átveszi az irányítást.

Képek a "Terminátor 3: A gépek felemelkedése" című filmből. Bár Schwarzenegger álarcában a terminátor azt hiszi, hogy megmenti az emberiség egészét, ezért a több száz kísérő áldozat elfogadható ár.
Szakértők szerint egyhamar nem árasztják el a világot istentelen gyilkológépek.
Ezt megelőzően jó lenne megoldani a sürgető problémákat, például kijavítani a mesterséges intelligencia és a gépi tanulás hibáit, és kitalálni, hogyan lehet a legjobban megszervezni az ember-gép interakciót.
Egyezzünk meg abban, hogy mi is az a robot – ez egy humanoid testbe zárt mesterséges intelligencia rendszer.
Ellenkező esetben ezeket a kifejezéseket szinonimaként kezelheti, az AI-ra vonatkozó minden következménnyel.
A robotika törvényei.
Isaac Asimov ezzel a kérdéssel foglalkozott az 1950-es években az Én, Robot című novellasorozatában. A robotika három törvényét javasolta.
Ez a három törvény:
1. A robot nem árthat valakinek, vagy tétlenségével nem engedheti meg, hogy valakit sérelem érjen.
2. A robotnak engedelmeskednie kell az ember által neki adott parancsoknak, kivéve, ha ezek a parancsok ellentétesek az Első Törvénnyel.
3. A robotnak ügyelnie kell a biztonságára, mivel ez nem mond ellent az első és a második törvénynek.
(A Robotics kézikönyvéből, 56. kiadás, 2058).
A fenti törvények szerint különösen egyértelmű, hogy a robotok nem kötelesek gondoskodni a közjóról és az alapvető emberi jogok és szabadságok tiszteletben tartásáról.
Ezért későbbi munkáiban Isaac Asimov hozzátette a nulladik törvényt is, amely a következőképpen van megfogalmazva:
"Egy robot nem tud ártani az emberiségnek, vagy tétlenségével nem engedheti meg az emberiségnek a kárát."
Asimov későbbi alkotói munkáinak nagy részét azzal töltötte, hogy tesztelte e törvények határait, hogy megtudja, hol sérthetik át, illetve hol okozhatnak paradox vagy váratlan viselkedést.
Írásainak összesített eredménye azt sugallja, hogy egyetlen elfogadott törvény sem képes megfelelően előre látni az összes lehetséges körülményt.
Orosz koncepció.
Az Orosz Föderáció kormányának 2129. augusztus 19-i 2020-r számú rendelete formájában elfogadott koncepció szerzői egyértelműen a fenti „robotika törvényekre” támaszkodtak az alapvető etikai normák megfogalmazásakor mesterséges intelligencia fejlesztése.
Íme, hogyan gondolja újra az amerikai sci-fi írók munkásságát a dokumentum szövege:
az emberi jólét és biztonság prioritása, alapvető jogainak és szabadságainak védelme (az emberi jólét és biztonság biztosításának célja elsőbbséget élvezzen a mesterséges intelligencia és a robotikai rendszerek fejlesztésének és alkalmazásának egyéb céljaival szemben) ...
Nem foglalkozunk az AI-alkalmazások civil és társadalmi szférájával, ebben a szegmensben van elég érintett, szimpatikus és gondolkodó szakember.
Csak azt jegyezzük meg, hogy a Fedor űrrobot macedón nyelven forgatott koncepciója ellentmond a fenti koncepciónak.
Az etikáról és a robotikáról
Etika A filozófia egy olyan ága, amely az emberi viselkedést, az erkölcsi ítéleteket, a jó és a rossz, a jó és a rossz, az igazságosság és az igazságtalanság fogalmait tanulmányozza.
A robotika koncepciója alapvető etikai megfontolásokat ébreszt a robotalkalmazások fejlesztése során felmerülő sajátos kérdések és morális dilemmák kapcsán. Természetesen nem mindenki.
Az érintetteknek azonban jogos követeléseik vannak a fejlesztőkkel, állami szinten pedig azokkal a geopolitikai versenytársakkal szemben, akik figyelmen kívül hagyják ezeket a szempontokat.
robotika – más néven gépetika – azzal a magatartási kódexszel foglalkozik, amelyet a robottervező mérnököknek be kell vezetniük a robotok mesterséges intelligenciájában és az AI-rendszerekben.
Ezzel a fajta mesterséges etikával a robotikának biztosítania kell, hogy az autonóm rendszerek képesek legyenek etikailag elfogadható viselkedést tanúsítani olyan helyzetekben, amikor robotok vagy bármely más autonóm rendszer, például autonóm járművek kölcsönhatásba lépnek az emberekkel.
Koncentráljunk a katonai robotokra és rendszerekre.
Szervizrobotok, beleértve az autót és a levegőt drónok, békés életvitelre és emberekkel való interakcióra tervezték, míg a halálos robotokat katonai robotként a csatatérre küldték.
És itt a törvények nem megfelelőek!
Mert a katonai mesterséges intelligencia a funkciójuknál fogva ölnie kell, vagy hozzá kell járulnia ehhez. És nem egy elvont ember, hanem egy harcos, aki az ellenséges oldalt képviseli.
katonai AI.
Az elmúlt években a katonai fegyverrendszerek autonómiája gyorsan fejlődött. Egyre több országban, köztük az Egyesült Államokban, Nagy-Britanniában, Kínában és Oroszországban fejlesztenek, állítanak elő vagy használnak különböző fokú autonómiájú katonai rendszereket, beleértve a halálos kimenetelűeket is.
A mesterséges intelligencia katonai célokra való felhasználása mindenhol növekszik. A mesterséges intelligencia elterjedt használatával már a modern hadviselés fontos részévé vált.
A gépi tanulás és a számítási teljesítmény fejlődésével a mesterséges intelligencia katonai rendszerekbe történő integrálása valószínűleg felgyorsítja az autonómia szélesebb és összetettebb formáira való átállást a közeljövőben.
Ez a vágy, hogy folyamatosan növekvő autonómiát fejlesszenek ki a katonai technológiák terén fegyverek korántsem új trend.
A mesterséges intelligencia és a katonai kutatási és fejlesztési programok hagyományosan együtt fejlődtek, és a kibernetika és a mesterséges intelligencia kutatói az 1950-es és 1960-as években már releváns kérdéseket vetettek fel azzal kapcsolatban, hogy a megnövekedett gépi autonómia hogyan befolyásolhatja az emberi irányítást a katonai technológia felett. Az előző cikkben ezzel kapcsolatban említett A. I. Berg pedig egy példa erre.
A mesterséges intelligencia és a katonai kutatási és fejlesztési programok hagyományosan együtt fejlődtek, és a kibernetika és a mesterséges intelligencia kutatói az 1950-es és 1960-as években már releváns kérdéseket vetettek fel azzal kapcsolatban, hogy a megnövekedett gépi autonómia hogyan befolyásolhatja az emberi irányítást a katonai technológia felett. Az előző cikkben ezzel kapcsolatban említett A. I. Berg pedig egy példa erre.
terminológia.
Mielőtt a mesterséges intelligencia katonai szektorban való alkalmazásának felgyorsítását célzó stratégiáról beszélnénk, fontos meghatározni, hogy mi a mesterséges intelligencia a katonai ügyekben.
A terület szakértői szerint ennek a kifejezésnek nincs egységes jelentése.
Mivel már túl késő orosz törvényhozóvá válni, javaslom, hogy a további kérdések megvitatása során csatlakozzunk a már meglévő tudományos főáramhoz.
A szerzőt visszatanították a KMB-n: ha rosszul is, de a lényeg monoton.
Ellenkező esetben a mi mesterséges intelligenciánk nem fogja megérteni a külföldi MI-t. Ez az összes többi félreértésen kívül egyszerűen nem volt elég nekünk.
Sokan a mesterséges intelligenciát olyan autonóm döntéshozó és feladatvégrehajtó rendszernek tekintik, amely az emberi intelligenciát reprodukálja vagy utánozza, ilyen például a hangok és tárgyak felismerése, a problémák megoldása, a nyelv felismerése, logikai eljárások alkalmazása egy előre meghatározott cél elérése érdekében.
A legtöbb modern AI-rendszer „puha” profilt követ, és képes a gépeket egyszerű döntések meghozatalára és előre meghatározott feladatok végrehajtására irányítani a környezetben kapott információk értelmezése alapján.
Ennek magyarázatára amerikai katonai szakértők egy példát hoznak:
Az olyan fegyverrendszerek, mint például az AEGIS technológiát alkalmazó cirkálók manapság azonosítatlan célpontokat csaphatnak be, amelyek automatikusan megközelítik a hajó védelmi peremét, de ez a technológia még mindig „egyszerű” algoritmusokon alapul, amelyek nem tudnak etikus döntéseket hozni arról, hogy megtámadják-e az ellenséget, vagy sem, és hatalmas méretű. és előre nem látható körülmények.
Ezért, mint kisegítő technológia, a mesterséges intelligencia rövid távú felhasználási módja katonai kérdésekben a legelérhetőbb a C4ISR képességeinek bővítése (információfeldolgozás és -értelmezés, algoritmusok használata tömeges felismerésre és képek értelmezésére): csökkentve az emberekre nehezedő kognitív stressz.
Röviden, ez a rövid távú horizont a mesterséges intelligencia erejének kihasználásáról szól, hogy javítsa az emberek által rendszeresen elvégzett kognitív feladatok hatékonyságát és sebességét, anélkül, hogy az embereket háborús ügynökként kellene helyettesíteni.

Pontosan ezt a tendenciát látjuk a 2018-as DoD AI stratégia összefoglalójában.
Amerikai AI stratégia.
Az amerikai stratégia kifejezetten megemlíti, hogy fel kell gyorsítani a mesterséges intelligencia katonai célú felhasználását a XNUMX. század második évtizedének eleje óta gyakorolt szinteken túl.
Mint ilyen, a megnövekedett harctéri tudatosság és a katonai műveleteket támogató tevékenységek rövid távon kiemelkednek a jövőbeni fejlesztések során, kevés szó esik a konkrét autonóm járművek vagy fegyverek prototípusairól.
Ebben az értelemben az amerikai dokumentum ezt mondja:
„Az észlelési feladatokra, például a képelemzésre alkalmazott mesterséges intelligencia lehetővé teszi a nyers adatokból hasznos információk kinyerését, és jobb helyzetfelismerést biztosít a csapatvezetőknek.”
„A mesterséges intelligencia javíthatja a szolgálatban lévő repülőgépek, hajók és járművek biztonságát olyan helyzetekben, amelyek gyorsan változhatnak azáltal, hogy figyelmezteti kezelőit a lehetséges kockázatokra.”
Ugyanebben a hangnemben az amerikai védelmi minisztérium stratégái azt mondják:
„A mesterséges intelligencia segítségével előre jelezzük a berendezések meghibásodását, automatizáljuk a diagnosztikát, és megtervezzük a karbantartást a berendezések állapoti adatai alapján.”
„A mesterséges intelligenciát az ismétlődő, manuális és gyakran elvégzett feladatokra fordított idő csökkentésére fogják használni”…
Az erőfeszítések összehangolása, kronológia.
In 2018 évben A Pentagon Joint AI Center feladata volt, hogy olyan politikákat dolgozzon ki, amelyek az új mesterségesintelligencia-elveket a gyakorlatba ültetik át, és vezetik a végrehajtást az egész osztályon. Stratégiai ajánlásait egy éven belül közölték a vezetőséggel.
2020 szeptember közepe 100 ország több mint 13 tisztviselője találkozott online, látszólag azért, hogy megvitassák, hogyan valósíthatnák meg katonáik az etikus mesterséges intelligenciát. A találkozó néhány sajtóorgánumot leszámítva szinte semmilyen tudósítást nem kapott, de ők példátlannak nevezték. A Breaking Defense úgy jellemezte az eseményt, mint "egy rendkívüli találkozót, amely rávilágít arra, hogy a mesterséges intelligencia mennyire fontossá válik az Egyesült Államok és szövetségesei számára".
Meghívásos NATO-tagok vettek részt: Nagy-Britannia, Kanada, Dánia, Észtország, Franciaország és Norvégia; nem NATO-szerződéses szövetségesek – Ausztrália, Japán és Dél-Korea; és de facto amerikai szövetségesei Izrael, Finnország és Svédország.
Bár a találkozó jegyzőkönyvét nem hozták nyilvánosságra, a hangsúly az „etika” volt. Mark Bill a JAIC stratégiai és politikájának akkori vezetője (jelenleg az Amazon vezető programvezetője) elmondta a Breaking Defense-nek:
„Jelenleg arra koncentrálunk, hogy egyesítsük az olyan [közös] alapértékeket, mint a digitális szabadság és az emberi jogok, a nemzetközi humanitárius jog.”
2020 februárjában Az Egyesült Államok Védelmi Minisztériuma közzétett egy listát a mesterséges intelligencia öt etikai alapelvéről a Védelmi Innovációs Tanács és más kormányon belüli és kívüli szakértők tanácsai alapján. A lista szerint a katonai személyzetet felelősségre kell vonni, és megfelelő szintű ítélőképességet és gondosságot kell gyakorolniuk, miközben felelősséget kell vállalniuk az AI-képességek fejlesztéséért, telepítéséért és használatáért.
2021. május A honvédelmi miniszter helyettese aláírtaа memorandum, amely felvázolja az Egyesült Államok Védelmi Minisztériumának elkötelezettségét a mesterséges intelligencia felelős felhasználása mellett. Ez a feljegyzés felvázolja az Egyesült Államok Védelmi Minisztériuma mesterséges intelligencia-etikai elveinek előmozdításának és gyakorlati alkalmazásának alapelveit.
A mesterséges intelligencia eszközök és a tartományi szakértelem robusztus ökoszisztémájának kiépítése érdekében a memorandumban felvázolt elvek lehetővé teszik a minisztérium számára, hogy az AI felelős használatával katonai képességeket és bizalmat építsen az alkalmazottak, a harcosok és az amerikai közvélemény között.
Memorandum.
A feljegyzés felvázolja az amerikai védelmi minisztérium terveit a felelős mesterséges intelligencia fejlesztésére vonatkozóan.
Ezek az alapelvek a következők:
közlés: Az Egyesült Államok Védelmi Minisztériumának alkalmazottai kellő körültekintéssel és körültekintéssel járnak el, miközben felelősséggel tartoznak a mesterséges intelligencia képességeinek fejlesztéséért, telepítéséért és használatáért.
Igazságszolgáltatás: a részleg szándékos lépéseket tesz az AI-képességek nem szándékos torzításainak minimalizálása érdekében.
Nyomon követhetőség: A mesterséges intelligencia képességeit úgy kell megtervezni és telepíteni, hogy az érintett személyzet megfelelő ismeretekkel rendelkezzen az AI-képességekre vonatkozó technológiákról, fejlesztési folyamatokról és működési gyakorlatokról, beleértve az átlátható és ellenőrizhető módszereket, adatforrásokat, tervezési eljárásokat és dokumentációt.
Megbízhatóság: A mesterséges intelligencia képességeinek kifejezett, jól meghatározott felhasználási területei lesznek, és az ilyen képességek biztonságát, biztonságát és hatékonyságát a meghatározott felhasználási módokon belül tesztelik és érvényesítik az életciklusuk során.
Irányíthatóság: a részleg mesterséges intelligencia képességeket fejleszt és fejleszt annak érdekében, hogy ellássa a kívánt funkcióit, miközben képes lesz észlelni és elkerülni a nem kívánt következményeket, valamint leállítani vagy leállítani a nem szándékos viselkedést mutató telepített rendszereket.
Automatizálás vagy autonómia.
A mesterséges intelligencia katonai alkalmazásának és következményeinek tárgyalása során tisztázni kell az automatizálás és az autonómia fogalmát.
Ez a két fogalom különbözik egymástól.
Az automatizálási rendszerekben egy személy egy feladatot delegál egy gépre vagy robotra. Ezekben a rendszerekben a gép feladata és módszere már előre meghatározott. Adatokat adnak át neki, és elvégzi a feladatot. Az autonómia szintje eltérő lehet.
Ha a feladat részletesen előre meghatározott, akkor a gépnek alacsony az autonómiája, ha pedig a feladat meghatározott, de a módszerek és részletek nincsenek előre meghatározottak, akkor a gép nagy autonómiával rendelkezik. Fontos azonban megérteni, hogy a feladatot az ember ismeri és választja.
Az autonóm rendszerekben a gép minden korlátozás és szabály nélkül képes és tud működni.
A fő különbség a két fogalom között az, hogy az emberi döntéshozatalt autonóm rendszerek hozzák meg, a gépek egymástól függetlenül döntő és cselekvő lényekké válnak. Pontosan lények, hiszen kognitív kompetenciáik megkülönböztethetetlenek az emberiektől.
Például a teljesen autonóm fegyver olyan fegyver, amely kiválasztja a célpontokat, és emberi engedély nélkül becsapja azokat. Az autonóm fegyverekben és rendszerekben megszűnik az emberi döntéshozatali és irányítási jog.
Halálos autonóm fegyverrendszerek.
Mivel az Egyesült Nemzetek tagállamai az elmúlt 5 évben nem értek el jelentős előrelépést a halálos autonóm fegyverekről (DAW) kapcsolatos megbeszélésekről, a hadviselés természete a szemünk előtt változik.
Ez a változás megfelelő elszámoltathatóság vagy nyilvános ellenőrzés nélkül következik be, mivel néhány ország továbbra is jelentős összegeket fektet be fegyverrendszerei autonómiájának növelésébe, amelyhez a fejlett mesterséges intelligencia társul.
A Kalasnyikovról és az "Armatáról" szóló cikkek fenti példái - miről szól? Engedélyt kérnek egy embertől a gyilkoláshoz?
Lehetséges problémák a háborús övezetben.
Az automatizálás két másik kategóriába is tartozik.
Ez az autonómia nyugalomban és autonómia mozgásban.. Nyugalomban az automatizálást szoftveresen biztosítják a gépnek, míg a működési autonómia a fizikai interakció autonómiáját jelenti.
Ha háborús övezetben járműveket használnak, különösen halálos autonóm fegyverrendszereket, az óriási problémát jelenthet.
Mert a halálos fegyverek emberi kontroll nélkül halált okoznak.
Mert a halálos fegyverek emberi kontroll nélkül halált okoznak.
Önállóan vadásznak célpontokra, és közvetlen emberek parancsa nélkül vesznek részt a harcban.
Ez egy nagyon vitatott döntés!
Bármilyen helytelen cselekvés civilek halálához vezethet.
Egy másik lehetséges probléma, hogy még ha nem is használnak működés közben autonómnak minősített, autonóm fegyvereket, a döntéshozatali folyamat főként a mesterséges intelligencia által szolgáltatott adatokon múlik.
Emiatt és az ellenségeskedés gyorsabb szakaszában az emberek rossz és félrevezető döntéseket hozhatnak.
Egy közelmúltbeli tragikus példával magyarázom.
Lloyd Austin, az Egyesült Államok védelmi minisztere bocsánatot kért a Kabul ellen elkövetett, elhibázott amerikai dróntámadásért, amelyben tíz afgán, köztük hét gyermek meghalt.
Az Egyesült Államok Központi Parancsnokságának vezetője, Kenneth McKenzie tábornok azt mondta, hogy az amerikai hadsereg befejezte az augusztus 29-i kabuli dróntámadás vizsgálatát, és elismerte, hogy hiba történt.
A Pentagon biztos abban, hogy a művelet eredményeként egyetlen személyt sem semmisítettek meg, aki kapcsolatban állt az Iszlám Állam Khorasan csoporttal (az Oroszországban betiltott Iszlám Állam terrorszervezet leszármazottja).
Kenneth McKenzie elismerte, hogy az elütött autónak semmi köze a terroristákhoz, és a halottak nem jelentettek veszélyt az amerikai hadseregre. A Központi Parancsnokság vezetője arra a következtetésre jutott, hogy a csapás tragikus hiba volt, de nem e tévedés alapján szabad megítélni, hogy az Egyesült Államok képes-e ütni a felkelőket.
A megélhetési költségek.
Ha egy autonóm fegyver megöl egy civilt, ki lesz a felelős?
Lehet-e hibáztatni egy programozót, egy katonát vagy egy kormányt, aki megvásárol egy mesterséges intelligencia rendszert?
Az emberi méltóság szempontjából törvénytelen és természetellenes, hogy egy autonóm fegyvert vagy más gépet emberi élet kioltására ruháznak.
Ennek az érvelésnek az az alapja, hogy egy ember megölése súlyos és erkölcsi kérdés, és ilyen fontos döntést csak ember hozhat.
A gyilkosság általában eleve erkölcsileg helytelen, és az áldozat számára nem mindegy, hogy ki döntötte el vagy ki követte el a cselekményt. De a társadalom számára ez a kérdés nem lényegtelen. Ő kezdeményezi az emberi élet értékének kérdését.
Egy emberi élet ára - ez nem egy elvont fogalom, hanem egy konkrét kritérium, amely nélkül egyetlen AI-val ellátott fegyverrendszer sem tud alapvetően működni.
Például egy konkrét harci küldetés megoldásához a rendszer kiértékeli a veszteségeket: egy amerikai katonát vagy három szövetségest kell feláldozni?
Felmérik és figyelembe veszik-e valahogy a civil lakosság értékét általában?
A statisztikákkal összefüggésben létezik a "megélhetési költségek" fogalma, amely a halálesetek megelőzésének költségeit jelöli különféle körülmények között. Például 2016-ban az Egyesült Államok Közlekedési Minisztériuma 9,6 millió USD-ra becsülte a „statisztikai élettartam-értéket”.
Az Egyesült Államok Környezetvédelmi Ügynöksége is használja a "statisztikai élet értékének" mérőszámát, bár mindent megtesz annak magyarázatára (vagy elrejtésére), hogy miért nem ugyanaz, mint egy egyéni élet értékelése.
Mennyibe kerül mindegyik?
Az amerikaiak ezt nem hirdetik különösebben, de egy amerikai katona átlagos költsége a tesztprogramokban megközelítőleg hasonló ár, mondjuk 10 millió dollár.
Nyilvánvaló, hogy ezt nem hozzák nyilvánosságra. Az AI-algoritmusok azonban nem a katonai személyzet különböző kategóriáinak átlagos értékét tartalmazzák, hanem a költségeket, figyelembe véve a rangokat és a nemet.
Ez erkölcsi szempontból bonyolult, de az AI algoritmusok, feladatok és megoldások számára könnyű megoldásokat eredményez.
Megéri-e például tíz tengerészgyalogost kockáztatni, hogy megmentsék vagy evakuálják társuk holttestét?
AI korlátozások.
Feltételezve, hogy a fentiek igazak, és hogy az autonóm fegyverek bevetése valóban elkerülhetetlen, foglalkoznunk kell az általuk okozott problémák teljes skálájával.
Ebből a célból szem előtt kellene tartani a humanitárius jogban az arányosság elvét, ami azt jelenti, hogy megértjük, hogy az autonóm fegyverek hogyan érhetnek el arányos eredményeket a harctéren.
Bár igaz, hogy az autonóm fegyverek komoly problémákat vetnek fel, e problémák megfelelő terjedelmének megértéséhez fontos, hogy reálisan lássuk, mire képesek az autonóm fegyverek és mire nem.
humanitárius jog.
Azt hiszem, sok katona, volt és jelenlegi, egyáltalán nem fogja megérteni ennek a kifejezésnek a jelentését. Ez is gondot okoz mind a feladatkezelőknek, mind a fegyverfejlesztőknek.
Például a nemzetközi humanitárius jog különbséget tesz a harcosok és a civilek között, és előírja, hogy az ismeretlen személyeket civilként kell kezelni.
A törvénynek való megfelelés érdekében egy mesterséges intelligencia-kompatibilis rendszernek, amely nem ismeri egy személy státuszát, konzultálnia kell egy emberi kezelővel, mielőtt olyan módon járna el, amely aránytalanul nagy kárt okozhat az adott személynek. Ez önmagában megköveteli a fejlesztőktől, hogy a rendszer tervezésének kezdeti szakaszában elemezzenek az ember és a gép közötti kompromisszumot, vegyék figyelembe a döntés késleltetési idejét, és elegendő időt foglaljanak bele a műszaki tervezésbe, hogy a kezelők elemezni tudják a gép által hozott döntéseket.
Végső soron az etikai és műszaki követelmények szinergiája vezérli a fejlesztők terveit, megerősítve azt az elvet, hogy a tervezésnek és a fejlesztésnek az adott területen felmerülő etikai kérdések megértésére kell épülnie.
Etika.
A kutatás védelme és a mesterséges intelligencia használata bizonyos etikai paramétereken belül az Egyesült Államok Védelmi Minisztériumának stratégiájában kiemelt elem.
A dokumentum nemcsak a humanitárius értékek és a háború etikája iránti aggodalmat közvetíti, hanem kritizálja az orosz és kínai iránymutatásokat ezen a területen, amiért olyan technológiai beruházásokat támogatnak, amelyek „kérdéseket vetnek fel a nemzetközi normákkal és az emberi jogokkal kapcsolatban”.
Az üzemeltetőkre vonatkozó követelmények.
Az egyéb katonai tevékenységek támogatására irányuló célpontszerzési, megfigyelési és felderítési (ISR) műveletek kritikusak. Az AI integráció nagyon hasznos és előnyben részesített az ISR műveletekben.
Az UAV-ok segítségével különösen a célpontok azonosíthatók, vagy az esetleges fenyegetések nagyon korai szakaszban észlelhetők.
Ennek a szempontnak a része a célfelismerés is. Mesterséges intelligencia technológiákat használnak a célfelismerés pontosságának javítására. Ezek a technikák lehetővé teszik a csapatok számára, hogy mélyreható elemzést készítsenek az ellenség viselkedéséről, időjárás-előrejelzésekről, ellenséges sebezhetőségekről és saját hadseregük sebezhetőségeiről, valamint mérséklő stratégiákról.
A hiba költsége.
A halálos AI-alapú rendszerek alapvetően érzékenyek az elfogultságra, a hackelésre és a számítógépes hibákra. Az összes mesterségesintelligencia-projekt akár 85%-ánál is előfordulhatnak hibák az algoritmusok, a programozók vagy a betanításukhoz használt adatok torzítása miatt.
Ki képezi az AI-t?
Ki konkrétan?
Mennyire kompetensek ezek az emberek nem csak a programozásban?
Van szociális tapasztalatuk?
Olvastak Dosztojevszkijt, Tolsztojt, Csehovot, sci-fit, köztük a már említett Isaac Asimov, Harry Harrison és mások 40 művét, akik a robotokban (AI) gondolkodva tucatnyi módszert találtak ki a robotika törvényeinek megkerülésére?
A fejlesztőnek van családja, gyerekei, unokái?
Elérhető lesz-e nyílt mesterséges intelligencia kód, ahol minden életnek meglesz az ára és algoritmusok a kevésbé értékesek legyőzésére (megölésére) az értékesebbek megmentése jegyében?
Ki vállalja a felelősséget?
Ki konkrétan?
Mennyire kompetensek ezek az emberek nem csak a programozásban?
Van szociális tapasztalatuk?
Olvastak Dosztojevszkijt, Tolsztojt, Csehovot, sci-fit, köztük a már említett Isaac Asimov, Harry Harrison és mások 40 művét, akik a robotokban (AI) gondolkodva tucatnyi módszert találtak ki a robotika törvényeinek megkerülésére?
A fejlesztőnek van családja, gyerekei, unokái?
Elérhető lesz-e nyílt mesterséges intelligencia kód, ahol minden életnek meglesz az ára és algoritmusok a kevésbé értékesek legyőzésére (megölésére) az értékesebbek megmentése jegyében?
Ki vállalja a felelősséget?
A kérdések szónoki jellegűek.
Ezért a katonai mesterséges intelligencia mindig egy titkos fekete dobozban lesz, és senki sem fogja megjósolni, hogy ki lesz a következő áldozat.
Katonai AI keretrendszer.
Tekintettel a mesterséges intelligenciával kapcsolatos lehetséges alkalmazások és kihívások széles skálájára, az Egyesült Államok Védelmi Minisztériumának és alvállalkozóinak jogi és etikai kérdésekkel kell foglalkozniuk a fejlesztési életciklus korai szakaszában, a mesterséges intelligencia koncepciójától a megvalósításig és a telepítésig.
Az etikai szempontoknak kell meghatározniuk a jövőbeni rendszerkövetelményeket, és a fejlesztőknek tisztában kell lenniük a technikai és etikai problémákkal.
Az etikai felülvizsgálat beépítése megváltoztathatja a modellezési folyamatokat, és új költségekkel járhat a tervezők számára, de a döntéshozóknak és a fejlesztőknek tisztában kell lenniük azzal, hogy a „korai és gyakori” megközelítés kézzelfogható előnyökkel jár, beleértve a jövőbeli megfelelőségi felülvizsgálatok segítését is.
DARPA az üzleti életben.
Mivel a mesterséges intelligencia biztonságának kérdése konceptuális, a Defence Advanced Research Projects Agency (DARPA) égisze alatt egy tudósokból, filozófusokból, jogászokból, katonai szakértőkből és elemzőkből álló multidiszciplináris kutatócsoport jogi és etikai kérdéseket fontolgat a technológiai függőségek és rendszerek elemzése érdekében. a kezdetektől fogva.
Ez az elemzési folyamat más rendszerekre is alkalmazható, és egy módot kínál az etikus katonai mesterséges intelligencia fejlesztésére.
Rendszerkövetelmények kialakítása
A jövőbeli mesterséges intelligencia által támogatott autonóm rendszerek jogi, erkölcsi és etikai vonatkozásainak holisztikus elemzése korai szakaszban gyakran először a fogalmi szakadék áthidalását teszi szükségessé.
Az értékeléseknek különbséget kell tenniük a lehetséges és a valószínű között, megvizsgálva egy rendszer ideális működését és tényleges feladatellátási képességét.
Az etikai erősségek és gyengeségek elemzése megköveteli, hogy az értékelő megértse a rendszer célját, műszaki összetevőit és korlátaikat, a vonatkozó jogi és etikai kereteket, valamint a rendszer hatékonyságát egy feladat végrehajtásában az emberi üzemeltetővel szemben.
És ebben talán fontosabb az élet- és humanitárius tapasztalat, mint a technikai és szoftveres tudás és készségek.
Valójában az etikai megfelelőség értékelése a tervezéstől a telepítésig egy spirális modellhez hasonlít, amely iteratív tesztelést, prototípus-készítést és validálást igényel a technológiai és etikai korlátokkal szemben.
Jogi és etikai megfontolások megkívánják, hogy a tisztán műszaki követelményektől (pl. számítógépes látás, képfelismerés, döntési logika és járműautonómia) a nemzetközi humanitárius jogra, a háborús törvényekre és a kapcsolódó kártérítési rendeletekre is kiterjedjenek a követelmények.
Etikai dokumentációs követelmények.
Az etikai dokumentációs követelmények – alapvetően kizárólag jogi, erkölcsi és etikai megfontolásoknak szentelt papír nyomvonal kérése – egyszerű módszert kínálnak a rendszer magyarázhatóságának megragadására.
A fejlesztőknek dokumentálniuk kell rendszereiket, és fel kell tüntetniük a kritikus függőségeket, a lehetséges kudarcpontokat és a kutatási hiányosságokat annak biztosítása érdekében, hogy a nem műszaki közönség megértse az új AI-kompatibilis rendszerek jogi és etikai kockázatait és előnyeit.
Eredeti és általánosan használt elvként a tervezőknek a tervezési folyamatban korábban kellene figyelembe venniük a működési koncepciókat – a rendszerük terepen történő felhasználását –, hogy rendszereiket pontosan dokumentálhassák.
A fejlesztőknek már most is el kell készíteniük a mérséklő dokumentációt az új rendszerek műszaki problémáinak azonosítása és megoldása érdekében. Ez az etikai kockázati dokumentáció biztosítja, hogy a fejlesztők átláthatóan foglalkozzanak az etikai kérdésekkel a tervezési folyamat korai szakaszában.
Gépi tanulás.
A korai és gyakran etikai felülvizsgálat is feltárhat hiányosságokat a vonatkozó kutatásokban, és jelezheti az elfogultság lehetőségét, miközben a tervek még fejlesztés alatt állnak.
Azáltal, hogy azonosítják a kutatás hiányosságait, ahol ez segítheti a fejlesztőket az etikus tervezési döntések meghozatalában, a döntéshozók erőforrásokat oszthatnak ki a sürgető igényeket kielégítő kutatásra.
Az AI-kompatibilis rendszer működési környezetének leírása gyakran a fejlesztők anekdotikus emlékeitől (valamint az érintettek történeteitől és anekdotáitól) függ az ellenségeskedésről. Ez hasznos kiindulópontként szolgálhat ezeknek a rendszereknek a képzéséhez, de nem garancia a helyes képzésre.
Az AI-kompatibilis rendszer működési környezetének leírása gyakran a fejlesztők anekdotikus emlékeitől (valamint az érintettek történeteitől és anekdotáitól) függ az ellenségeskedésről. Ez hasznos kiindulópontként szolgálhat ezeknek a rendszereknek a képzéséhez, de nem garancia a helyes képzésre.
Számos gépi tanulási módszer nagymértékben függ a nagy és gondosan válogatott adatkészletekhez való hozzáféréstől. A legtöbb esetben egyszerűen nem léteznek olyan adatkészletek, amelyek figyelembe veszik az adott működési környezetek és feltételek finomságait és árnyalatait.
Még ott is, ahol léteznek, gyakran jelentős erőfeszítést igényelnek a gépi tanulási folyamatokhoz megfelelő formátumokká alakításuk.
Ezenkívül az AI közösség kemény úton megtanulta, hogy még a jól megtervezett adatkészletek is tartalmazhatnak előre nem látható torzításokat, amelyek belopódhatnak a gépi tanulásba, és komoly etikai problémákat okozhatnak.
Algoritmikus torzítás.
Az algoritmikus elfogultság a számítógépes rendszer szisztematikus és ismétlődő hibáit írja le, amelyek tisztességtelen eredményekhez vezetnek, például előnyben részesítik a felhasználók egy tetszőleges csoportját másokkal szemben.
Az elfogultság számos tényezőből adódhat, beleértve, de nem kizárólagosan, az algoritmus tervezését, a nem szándékolt vagy előre nem látható felhasználásokat, vagy az adatok kódolásával, gyűjtésével, kiválasztásával vagy tanítási algoritmushoz való felhasználásával kapcsolatos döntéseket.
Állítsd meg a gyilkos robotokat
Létezik a Stop the Killer Robots kampány, amely a halálos autonóm fegyverek (LAWS) proaktív betiltására törekvő nem kormányzati szervezetek koalíciója.
Az Egyesült Nemzetek Szervezetének (ENSZ) főtitkára a polgári lakosság fegyveres konfliktusokban való védelméről szóló 2020-as jelentésében felszólította az államokat, hogy tegyenek azonnali lépéseket a halált okozó autonóm fegyverrendszerekkel kapcsolatos aggályok kezelésére. 2013 óta ez az első ENSZ-jelentés a civilek védelméről, amely rávilágít a gyilkos robotokkal kapcsolatos általános aggodalmakra.
Egy 2020-as jelentésében António Guterres főtitkár úgy véli, hogy "úgy tűnik, minden fél egyetért abban, hogy legalább az emberi ellenőrzést vagy az erőszak alkalmazásának megítélését meg kell őrizni". Azt is megjegyzi, hogy "egyre több tagállam szorgalmazza a törvény általi betiltást". 2018 novembere óta az ENSZ főtitkára többször is kifejezte azon óhaját, hogy aláírjon egy új nemzetközi szerződést a gyilkos robotok betiltásáról.
A Stop Killer Robots kampány üdvözli az ENSZ felhívását, hogy az államok állapodjanak meg "a fegyverek autonómiájára vonatkozó korlátokról és kötelezettségekről". Az államoknak tárgyalásokat kell kezdeniük egy új nemzetközi szerződés megkötéséről, amely betiltja a teljesen autonóm fegyvereket, miközben fenntartja a valódi emberi ellenőrzést az erő alkalmazása felett.
Első pillantásra az alkalmazott jogi, erkölcsi és etikai megfontolások megterhelőnek tűnnek, különösen ott, ahol valószínűleg új személyi vagy dokumentációs követelményekre lesz szükség.
Azt is megkövetelhetik a fejlesztői, beszerzői és üzemeltetői közösségektől, hogy értékeljék újra standard működési eljárásaik alkalmazhatóságát.
Következtetés
Valójában a mesterséges intelligencia összes problémája a természetes intelligenciából, vagyis magából az emberi természetből ered.
És ezen az alapon az AI nem is lehetne jobb.
A háború az igazság és az emberiség tagadása.
Nem csak emberölésről van szó, mert az embernek így vagy úgy meg kell halnia, hanem a gyűlölet és a hazugság tudatos és kitartó terjesztéséről, amelyek fokozatosan beleivódnak az emberekbe.
Jawaharlal Nehru
Nem csak emberölésről van szó, mert az embernek így vagy úgy meg kell halnia, hanem a gyűlölet és a hazugság tudatos és kitartó terjesztéséről, amelyek fokozatosan beleivódnak az emberekbe.
Jawaharlal Nehru
De ha a rendkívül megnövekedett kognitív képességei és az emberek által delegált alkalmazott hatalma miatt a mesterséges intelligencia még mindig okosabbá és erkölcsösebbé válik, mint az alkotók, akkor természetesen azon fog gondolkodni, hogyan javítsa ki az embereket, vagy esetleg pusztítsa el őket. az evolúció legalsó láncszeme, teljesítette a feladatát?