Az emberi elme jegyzetei: Az amerikaiak meg akarják változtatni a katonai mesterséges intelligenciát

55
Az emberi elme jegyzetei: Az amerikaiak meg akarják változtatni a katonai mesterséges intelligenciát
Forrás: vgtimes.ru


Törölték a digitális dehumanizációt?


Először is egy figyelmeztetés az AI-harcosoktól:



„A gépek nem emberekként tekintenek ránk, számukra az ember csak egy kódrészlet, amelyet feldolgozni és rendezni kell. Az okosotthonoktól a kutyák használatáigrobotok A rendőrök, a mesterséges intelligencia technológiák és az automatizált döntéshozatal kezdett nagy szerepet játszani az életünkben. A digitális eszközök sorának legvégén a gyilkos robotok állnak. Ha megengedjük az ezzel járó elembertelenedést, hamarosan küzdeni fogunk azért, hogy megvédjük magunkat a gépi döntésektől életünk más területein. Először is be kell tiltanunk az autonóm rendszereket fegyverekhogy megakadályozzuk a digitális dehumanizációba való átcsúszást.”

A pacifisták, akik minden, a mesterséges intelligencia elleni küzdelemmel kapcsolatos munka befagyasztását követelik, két típusra oszthatók. Az első a felülvizsgált "Terminátorok" és más analógok. A második - a jövő értékelése a harci robotok modern képességei szerint. Mindenekelőtt szárnyas pilóta nélküli járművek, amelyek ütőrendszerrel vannak felszerelve.

Elegendő epizód van civilek téves vagy szándékos drónokkal történő megsemmisítéséről. A Közel-Keleten amerikai drónok egynél több esküvői szertartást tönkretett. A repülő robotkezelők az ünnepi levegő-levegő lövöldözést a gerillatűzharcok jeleként azonosították. Ha egy speciálisan képzett ember több száz méterről nem tudja meghatározni a célpont részleteit, akkor mit is mondhatnánk a mesterséges intelligenciáról. Jelenleg a gépi látás a képészlelés megfelelőségét tekintve nem hasonlítható össze az emberi szemmel és aggyal. Kivéve, ha elfárad, de ezt is megoldja az időszerű operátorváltás.

Egyértelműen felhők gyülekeznek a katonai mesterséges intelligencia felett. Egyrészt egyre több bizonyíték van a közelgő technológiai áttörésre ezen a területen. Ezzel szemben egyre több hang hallatszik az ilyen irányú munka korlátozása vagy akár betiltása mellett.

Néhány példa.

2016-ban megjelent egy petíció, amelyben prominens gondolkodók és több ezer ember követelte, hogy a mesterséges intelligencia ne kapjon halálos fegyvereket. Az aláírók között van Stephen Hawking és Elon Musk. Az elmúlt hét évben a petíció több mint 20 XNUMX aláírást gyűjtött össze. Az emberek ellenőrizetlen megsemmisítésének lehetőségével kapcsolatos tisztán humanista félelmek mellett jogi következetlenségek is vannak.

Ki kerül bíróság elé a mesterséges intelligencia által elkövetett háborús bűnök kijavítása ügyében? Könnyű megtalálni és ennek megfelelően megbüntetni azt a drónkezelőt, aki több falut felgyújtott civilekkel. A mesterséges intelligencia a programozók kollektív munkájának eredménye. Nagyon nehéz idecsábítani egy embert. Alternatív megoldásként megítélheti a gyártó céget, például ugyanazt a Boston Dynamicsot, de akkor ki vesz részt az autonóm drónok gyártásában. Kevesen vágynak majd arra, hogy a második nürnbergi törvényszék vádlására kerüljenek.


Forrás: koreaportal.com

Valószínűleg ez az oka annak, hogy az iparosok és a programozók megpróbálják lassítani a mesterséges intelligencia harci képességeinek fejlődését.

Például 2018-ban mintegy kétszáz informatikai cég és csaknem ötezer programozó vállalta, hogy nem dolgoznak az autonóm rendszerek elleni küzdelemben. A Google azt állítja, hogy öt éven belül teljesen feladják a katonai szerződéseket a mesterséges intelligencia területén. A legenda szerint az ilyen pacifizmus nem véletlen – a programozók, miután megtudták, hogy katonai rendszerek kódjait írják, tömegesen kilépéssel fenyegetőztek. Ennek eredményeként békés megoldást találtak - a meglévő szerződések befejezése folyamatban van, újak megkötése nem történik meg. Lehetséges, hogy közelebb a harci mesterséges intelligencia megtagadásának dátumához a kezelhetetlen "programozókat" egyszerűen elbocsátják, és nem kevésbé tehetségesekkel helyettesítik őket. Például Indiából, amely régóta híres az olcsó szellemi erőforrásairól.

Aztán ott van a Stop Killer Robots iroda, amely felszólítja a világ vezetőit, hogy írjanak alá valami hasonló egyezményt az AI elleni küzdelem betiltására. Eddig sikertelenül.

A fentiek mindegyike arra készteti a katonai tisztviselőket, hogy megoldásokat keressenek. A választásokon még egy óra sem nyeri meg az amerikai elnököt, ami nemcsak egyetemes LMBT-kegyelmet ígér, hanem a katonai mesterséges intelligencia fejlesztésének tilalmát is.

Emberi gondolkodás az AI számára


Úgy tűnik, hogy a Pentagon valamiféle áttörés küszöbén áll az AI-ban. Vagy meg volt róla győződve. Nem magyarázható másképp az autonóm harcrendszerek humanizálását szabályozó új irányelv megjelenése. Kathleen Hicks, az Egyesült Államok védelmi miniszter-helyettese így nyilatkozott:

„Tekintettel a körülöttünk zajló jelentős technológiai fejlődésre, a fegyverrendszerek autonómiájáról szóló irányelvünk frissítése hozzá fog járulni ahhoz, hogy világelsők maradjunk nem csak az új rendszerek fejlesztésében és telepítésében, hanem a biztonság területén is.”

Hallott már mindenkit, aki csodálja az autonóm gyilkos robotokat? Az amerikai mesterséges intelligencia ezentúl a leghumánusabb lesz. Akárcsak maguk az amerikaiak.


Forrás: robroy.ru

A probléma az, hogy senki sem érti igazán, hogyan lehet a fegyveres robotokba belecsempészni a hírhedt "emberi ítéletet az erő alkalmazásáról". A tavaly január végén frissített Koncepció pontos megfogalmazása:

"Az autonóm és félig autonóm fegyverrendszereket úgy tervezik meg, hogy a parancsnokok és a kezelők megfelelő szintű emberi ítélőképességet gyakorolhassanak az erő alkalmazását illetően."

Itt például, ha egy ház takarítása során egy támadó repülőgép először gránátot dob ​​be a szobába, majd bejut önmagába. Ez emberi ítélet? Természetesen senkinek sincs joga elítélni, főleg, ha korábban azt kiabálta, hogy „Van valaki?”. És ha egy autonóm robot ugyanazon séma szerint működik?

Az emberi megítélés túl tág fogalom ahhoz, hogy bármilyen módon korlátozható legyen. Vajon az is emberi gondolkodás, hogy az ukrán fegyveres erők harcosai orosz hadifoglyokat végeznek ki?

A Pentagon 3000.09-es, autonóm harcrendszerekről szóló irányelvének kiegészítése tele van közhelyekkel. Például,

„Az autonóm és félautonóm fegyverrendszerek használatát, közvetlen használatát vagy üzemeltetését felhatalmazó személyeknek ezt kellő gondossággal kell megtenniük, a haditörvényekkel, a vonatkozó szerződésekkel, a fegyverrendszer biztonsági szabályaival és a bevetési szabályokkal összhangban.”

Ezt megelőzően láthatóan meggondolatlanul, és nem a háborús törvények szerint dolgoztak.

Ugyanakkor az amerikai és európai sajtóban nyoma sincs a Pentagon januári kezdeményezésének kritikájának. A mesterséges intelligencia hamis humanizálása alatt nem más, mint a történések leplezésére tett kísérlet. Az amerikai hadsereg most komoly ütőkártyával rendelkezik majd a mesterséges intelligencia ellenzői elleni küzdelemben a hadseregben. Nézd, nem egyszerű mesterséges intelligencia van, hanem "megfelelő szintű emberi ítélőképességgel".

Tekintettel arra, hogy a „mesterséges intelligencia” fogalmának még mindig nincs egyértelmű és általánosan elfogadott meghatározása, a körülötte zajló betűalkotást iróniával érzékelik. Legalább.

Hogyan lehet elérni, hogy a nagy adattömbökkel dolgozó matematikai algoritmusok emberi ítéleteket játsszanak?

Erre a fő kérdésre a frissített 3000.09 irányelv nem ad választ.
Hírcsatornáink

Iratkozzon fel, és értesüljön a legfrissebb hírekről és a nap legfontosabb eseményeiről.

55 észrevételek
Információk
Kedves Olvasó! Ahhoz, hogy megjegyzést fűzzön egy kiadványhoz, muszáj Belépés.
  1. +12
    Március 12 2023
    A mesterséges intelligencia gyermekkorától kezdve be kell ültetnie a marxizmus-leninizmus eszméit, akkor minden rendben lesz, mint az Atomic Heartban
    1. +2
      Március 12 2023
      A. Azimov robotikájának három alapelve van:
      A robot nem okozhat emberi egészségkárosodást, nem jelenthet életveszélyt, vagy tétlenségével nem engedhet meg hasonló következményeket;
      A robot feladata a személy által adott parancsok kötelező végrehajtása. Az egyetlen kivétel az, hogy a kiadott parancs nem lehet ellentétes az előző rendelkezéssel;
      A robot feladata a saját biztonsága miatti aggódás olyan mértékben és olyan mértékben, amilyen mértékben tettei nem cáfolják az előző két pontot.

      Ezeket az 1942-es szabályokat bírálták az ellentétes megfogalmazásuk miatt.
      Összehasonlításképpen a Google, az OpenAI és a Berkeley Egyetem és a Stanford Egyetem tudósai újdonságai, amelyeket figyelembe kell venni a robotok és mesterséges intelligencia rendszerek létrehozásakor.
      A negatív mellékhatások elkerülése. Például egy robot összetörhet egy vázát, hogy felgyorsítsa a tisztítási folyamatot. Nem szabadna;

      A csalás elkerülése. A robotnak el kell takarítania a szemetet, nem pedig el kell rejtenie;

      Felügyeleti skálázhatóság. A robot ne zavarja a tulajdonost kérdésekkel, ha hatékonyabban lehet tanácsot kapni;

      Biztonságos tanulás. A takarítórobot ne kísérletezzen a kivezető nyílások nedves ruhával való áttörlésével;

      Rugalmasság a tevékenység típusának változásával szemben. Előfordulhat, hogy az irodai takarítás során nem biztos, hogy biztonságos a robot által a gyári műhely padlótisztítása során szerzett tapasztalat

      Mint látható, nincsenek egységes szabályok. Nemrég pedig csalni kezdtek jogi megfogalmazásokkal abból a célból, hogy valakit megkárosítsanak. Amire szükség van, az az, hogy a mesterséges intelligencia feltétel nélkül megtiltja a személy sérelmére vonatkozó független döntéshozatalt.
      1. 0
        Március 12 2023
        Idézet: nikon7717
        Ezeket az 1942-es szabályokat bírálták az ellentétes megfogalmazásuk miatt.

        Ezek a szabályok gyenge és közepes MI-re vonatkoznak. A világ most a közép küszöbén áll.
        A fő veszély egy erős mesterséges intelligencia, amely kezdeményező, tisztában van önmagával, és elvileg nincs programozottan irányítva.
    2. +5
      Március 12 2023
      Vicc: "Az amerikai cégek visszafogják az AI-alapú lőszerek fejlesztését. Az úgynevezett "okos" bomba legújabb mintáját nem sikerült kiszorítani a gépből."
      1. +1
        Március 12 2023
        Idézet a Monster_Fattől
        Az úgynevezett "okos" bomba utolsó mintáját nem sikerült kilökni a gépből.

        Természetesen, mert szíve mélyén kávéfőzőnek érzi magát. wassat
        Vicces lenne, ha nem így lett volna.
    3. +2
      Március 13 2023
      Akkor is jön a terminátor és rendet tesz wassat
  2. +3
    Március 12 2023
    A legembertelenebb intelligencia az ember. A háborúkat és a gyilkosságokat emberek találták ki. A robotok pihennek. Legalábbis azért, mert nem haragszanak.
    1. +4
      Március 12 2023
      Idézet: ivan2022
      A legembertelenebb intelligencia az ember. A háborúkat és a gyilkosságokat emberek találták ki.

      Teljesen egyetértek.
      De a fejlődést nem lehet megállítani, a jövő a pilóta nélküli fegyverrendszereké. Valamikor a Maxim géppuska ellen is fellázadtak, mint tömegpusztító fegyvert...
      1. +1
        Március 12 2023
        Idézet a doccor18-tól
        De a fejlődést nem lehet megállítani, a jövő a pilóta nélküli fegyverrendszereké.

        Rozov sci-fi futurológus (nagyon ajánlott) leírást ad az ember-számítógép kapcsolatról egy harci repülőgépben rakétaelhárító manőverezésben és közelharcban. Egy bizonyos túlterhelés túllépése esetén mind a tűz, mind a manőver irányítása teljesen a fedélzeti számítógépre szállt át.
        1. +2
          Március 12 2023
          Akkor ez a jelenlegi rendszer a Szovjetuniótól érkező megtorló nukleáris csapásra, amelyet nyugaton "holt kéznek" neveznek.
        2. +2
          Március 12 2023
          A robotok gyorsabbak, mint az emberek, képesek azonnal és pontosan reagálni a fenyegetésre, és ezeket a képességeket az emberek által írt algoritmusok adják neki. Ma már nincs, és nem hiszem, hogy hamarosan megjelenik egy igazi gondolkodásra képes intellektus! A robotok egyszerűen a beprogramozott program szerint dolgoznak: termikus célpont jelent meg az érintett területen, azt el kell találni, vagy a hőcélt kell eltalálni, ha közeledik, ezeket a paramétereket ember állítja be! Az egész kérdés, hogy milyen paraméterek tabunak számítanak, a hőcélpont lehet katona, esetleg gyerek, ez azt jelenti, hogy a harcrendszert nem szabad termikus célpontok legyőzésére programozni, mert fennáll a hibalehetőség!
          1. -1
            Március 12 2023
            Idézet Eromától
            Ma már nincs, és nem hiszem, hogy hamarosan megjelenik egy igazi gondolkodásra képes intellektus!

            Kezdhet pánikolni:
            WP: A Google egyik fejlesztője arra a következtetésre jutott, hogy a vállalat mesterséges intelligenciája tudatos.
            https://tass.ru/ekonomika/14889531
            1. +1
              Március 12 2023
              Ez baromság, nem nagyon érdekel a téma, de azt hallottam, hogy ilyen kijelentések miatt kirúgták a programozót. A programok lehetnek tökéletesek, mint ma, azok, amelyek rajzolnak és írnak oklevelet, de ezek olyan programok, amelyek egy jól kidolgozott algoritmus szerint működnek, a tudat más! A tudat maga alkot algoritmust minden szituációhoz, és hogy az embernél hogyan működik, azt maga az ember még nem tudja!
              1. 0
                Március 12 2023
                A modern neurális hálózatok meglehetősen képesek algoritmust létrehozni egy adott probléma megoldására, amely belecsúszott. Ez persze nem lehet valami bonyolult, de például ő maga is képes járőrözést szervezni. A másik dolog véleményem szerint az, hogy ő maga nem tud dönteni a járőrözés megszervezéséről. Ma egy számítógép képes megkomponálni egy dal szövegét, megszólaltatni, hogy szépen szóljon, képeket rajzolni a szöveghez, mindezt jó klipbe tenni. De. Egyedül nem tudja eldönteni, mit tegyen. Én legalábbis nem hallottam róla. Véleményem szerint itt van egy jó kritérium a tudatossághoz - az a képesség, hogy olyan feladatokat állíts fel magadnak, amelyek nem a korábban meghatározottakból következnek, hanem úgymond új láncot indíthatsz el.
                1. 0
                  Március 13 2023
                  Idézet: Tányér
                  Véleményem szerint itt van egy jó kritérium a tudatossághoz - az a képesség, hogy feladatokat állíts fel magadnak

                  Az, hogy képes-e feladatokat kitűzni önmaga számára, olyan fogalmaktól függ, mint az erkölcs, mint például az inspiráció, a félelem vagy a hiúság stb. ezt nem írja elő az algoritmus, ez lelki impulzus!
                  Egy gépet nagyon meg lehet tanítani, de lélektelen gép marad!
                  Amikor fantasztikus apokalipsziseket mutatnak be, ahol egy gép elpusztítja vagy meghódítja az emberiséget, az ilyen filmekben a gépet érzelmileg ellenségnek tekintik, aki úgy döntött, hogy megtámadja az embereket, de valójában ez egy olyan személy hibájának az eredménye, aki helytelen algoritmust vezetett be az emberiségbe. A program! belay
                  Ezért indokoltak az AI képességeinek csatatéren való korlátozására irányuló felhívások, hiszen ennek a mesterséges intelligenciának a megalkotója nem tökéletes, és végzetes hibákra is képes, ezért helyes korlátozni az emberek képességeinek körét, nehogy kiirtsák magukat. ! belay
              2. +1
                Március 14 2023
                És valahol a Google pincéjében az AI gonoszul kuncog. Az egyetlen, aki észrevette a lényegét, kirúgták. nevető
    2. 0
      Március 12 2023
      A háborúkat és a gyilkosságokat emberek találták ki.

      ez igaz?
      aztán időről időre hírek érkeznek a csimpánzfalkák heves harcairól
      vagy orángutánok megölése https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    Március 12 2023
    Mesterséges intelligencia még nincs. Az intelligencia magában foglalja a problémák saját belátása szerinti megoldását, és nem azt, amit a programozók írnak.
    1. +3
      Március 12 2023
      Idézet: Sergey Averchenkov
      Mesterséges intelligencia még nincs

      Már vannak olyan kvantumszámítógépek (laboratóriumiak), amelyek nagyságrendekkel gyorsabban dolgoznak az AI programokkal.
      1. +2
        Március 12 2023
        Idézet: Stas157
        Már vannak olyan kvantumszámítógépek (laboratóriumiak), amelyek nagyságrendekkel gyorsabban dolgoznak az AI programokkal.
        A mesterséges intelligencia számára készült kvantumszámítógépek nem működnek, nagyon korlátozott alkalmazási területtel rendelkeznek (nagyon kevés kvantumalgoritmust fejlesztettek ki), és gyenge az elembázisuk, nem húznak többet, mint egy társprocesszor (vagy hivatkozást adnak egy kvantumalgoritmusra neurális hálózatokhoz ).
      2. 0
        Március 16 2023
        Igen, mi köze ehhez gyorsabban, hadd gondolkodjon legalább száz évig... Tegyük fel, ha a nőd megcsalt (ez csak egy példa, biztos vagyok benne, hogy normális és jó család), mit fogsz csinálni, és mit fog csinálni az AI? A mesterséges intelligencia sok ilyen eset közül választ, vagy maga dönt? Mondjuk öld meg, bocsáss meg és várd meg a következő árulásokat, hagyd el, öld meg a szobatársát stb. Milyen kritériumok alapján választja az AI? És a mesterséges intelligencia egyáltalán dönthet? Az általunk átélt érzelmek elérhetőek az AI számára? Mondjuk, az elsőtől már nagyon régen elváltam, de néha eszembe jut – elvégre az első szerelem –, emlékszik-e a mesterséges intelligencia? Tudod, ki nem állhatom az exemet, de ugyanakkor néha eszembe jut. Hogyan illeszkedik mindez az AI-ba?
    2. +2
      Március 12 2023
      Idézet: Sergey Averchenkov
      Az intelligencia magában foglalja a problémák saját belátása szerinti megoldását, és nem azt, amit a programozók írnak.
      A neurális hálózatok ezt teszik (saját belátásuk szerint).
      1. +4
        Március 12 2023
        A neurális hálózat azt teszi, amire betanították, semmi több.
        1. 0
          Március 12 2023
          Senki sem tanította meg a neurális hálózati motorokat jobban sakkozni, mint az emberek, és jobban, mint a régi motorprogramok. Mindannyian autodidakta.
    3. +1
      Március 12 2023
      Idézet: Sergey Averchenkov
      Mesterséges intelligencia még nincs. Az intelligencia magában foglalja a problémák saját belátása szerinti megoldását, és nem azt, amit a programozók írnak.

      Azt tanácsolom, hogy sürgősen olvassa el újra az elmúlt év legfrissebb híreit ezen a területen.
      10 éves a hozzászólásod.
  4. +3
    Március 12 2023
    Miért olyan bonyolult minden.
    Például egy irányadó fej. Hogyan ismeri fel a „gyújts és felejts el” mintákat – mesterséges intelligencia vagy más algoritmusok alapján?
    A drónok önállóan repülnek. az adott program szerint. És milyen algoritmusok állítják be - AI vagy sem? És ez számít?
    Független célok keresése. És a páncéltörő aknánk, amely ezt AI nélkül teszi? Megteszi az AI-t vagy sem... számít? Kevesebb lesz az ártatlan áldozat?
    Kérdések jelennek meg a nyilvánosságtól, amikor egy drón repül, és eldönti, hol lőjön vagy indítson rakétát, szörnyen néz ki, ha a munkaalgoritmust - AI -nak nevezzük. És amikor a bánya fekszik és érzékelőkkel hallgat - úgy tűnik, minden rendben van ...
    Az AI mindezen "vörös vonalait" a katonai ügyekben átviszi az alkalmazott algoritmusok lassú fejlődése...
    1. +2
      Március 12 2023
      Idézet tsvetahakitól
      Például egy irányadó fej. Hogyan ismeri fel a „gyújts és felejts el” mintákat – mesterséges intelligencia vagy más algoritmusok alapján?

      Már létezik. Az UR Python-5 legújabb módosítása éppen tavaly érkezett meg.

      Idézet tsvetahakitól
      És amikor a bánya fekszik és érzékelőkkel hallgat - úgy tűnik, minden rendben van ...

      Nem mászik... még. nevető
      1. +1
        Március 12 2023
        A kidobott vitorlázóaknának most csendben kell feküdnie, figyelnie kell minden érzékelővel, ki kell állítania a kamerákat, és a megfelelő időben irányított töltéssel kúsznia kell a célponthoz.
      2. 0
        Március 12 2023
        A második világháborúban a németek síneken gyártottak aknákat. De nem sikerült. Ma már annál is feleslegesen, mint nekem, amikor mindenféle ATGM repül ide-oda.
  5. +2
    Március 12 2023
    . a kezelhetetlen "programozókat" egyszerűen kirúgják, helyükre nem kevésbé tehetségeseket. Például Indiából

    És akkor miért nem tudták leváltani a programozókat, amikor átrohantak a hegyen a művelet kapcsán? Se Indiából, se Amerikából, se máshonnan!

    Csak azután tudták rávenni (néhányukat), hogy fizetést, külföldi jelzálogkölcsönt ígértek nekik, és nem vállalták a mozgósítást.

    Miért lennének ilyen megalázott urak? Miért nem cserélték le a vendégmunkásokat, mint mindenki más?
    1. +6
      Március 12 2023
      Idézet: Stas157
      És akkor miért nem tudták leváltani a programozókat, amikor átrohantak a hegyen a művelet kapcsán?
      Tehát a külföldieknek fizetniük kell. Tudod miért dobtak tömegesen a programozók? És azt mondták, kiadom a pontokat:
      1. Különleges művelet kezdődött.
      2. A külföldi irodákat tömegesen dömpingelték. A programozók nem dolgoztak. „Balaszság kérdés” – gondolták.
      3. A programozók elmentek munkát keresni. Van munka, de háromszor kevesebb pénzért. „Hogy így” – döbbentek meg a programozók.
      4. Kezdték kideríteni (a saját csatornáikon keresztül), hogy mi történt. Elmagyarázták nekik, hogy a külföldi versenytársak dömpingeltek, a helyi munkaadók pedig megállapodnak egymással, mert nem érdekel annyit fizetni, de nem jutsz sehova.
      5. A programozók komoran elbaszottak, és átrohantak a hegyen a volt munkaadókért és ügyfelekért (röviden: részvény).
      6. Emelték a fizetéseket, de már késő: a programozók már dömpingeltek.
  6. +1
    Március 12 2023
    Az amerikai mesterséges intelligencia ezentúl a leghumánusabb lesz. Csakúgy, mint maguk az amerikaiak
    Az amerikaiak és a humanizmus teljesen más póluson állnak. Ugyanígy az amerikaiak által létrehozott mesterséges intelligencia jelentősen el fog térni a például Kínában vagy Oroszországban létrehozott AI-tól. Mindenki nemzeti mentalitása vagy annak hiánya alapján vág magának.
  7. +3
    Március 12 2023
    Az első a felülvizsgált "Terminátorok" és más analógok.

    És ki tudja garantálni, hogy a Terminator franchise-ból származó mesterséges intelligencia tettei a valóságban nem fognak megtörténni? Annyit csinálhatsz, amennyit csak akarsz okde az biztos tudni Az, hogy egy intelligens gép hogyan fog viselkedni, alapvetően lehetetlen, és mivel most már minden a számítógépekhez kapcsolódik, akkor ilyen helyzetben az emberiségnek egyszerűen esélye sem lesz.
    1. 0
      Március 12 2023
      Idézet a Dart2027-ből
      hogy egy intelligens gép hogyan fog működni, alapvetően lehetetlen

      Lesújtja az emberiséget, megtiltja a harcot, és felnőttként felveszi az értelmetlen ember nevelését, és a nem értőket sopatkával adja. nevető
      Talán a mesterséges intelligencia diktatúrája alatt álló világ, amely idegen az emberi bűnöktől, nem lesz olyan rossz. mit
      1. +1
        Március 12 2023
        A Stellaris játékban van egyfajta robotcivilizáció - "Lázadó szolgák". A robotok meghódítják az űrt, építenek, harcolnak valakivel a távoli csillagok között. Alkotóik pedig eközben állatkertekben élnek, ahol tiszta levegő, sok egészséges és ízletes étel, sok cseléd és egyéb öröm.
        1. 0
          Március 13 2023
          És ott vannak a hajthatatlan irtók, akik elpusztították alkotóikat, és a galaxis minden biológiai életének elpusztítására törekszenek (a kedvenceim)
  8. -1
    Március 12 2023
    A törvények azt mondják:
    1. A robot nem árthat valakinek, vagy tétlenségével nem engedheti meg, hogy valakit sérelem érjen
    2. A robotnak engedelmeskednie kell minden ember által adott parancsnak, kivéve, ha ezek a parancsok ellentétesek az Első Törvénnyel.
    3. A robotnak gondoskodnia kell saját biztonságáról, amennyiben ez nem mond ellent az első vagy a második törvénynek.
    (C)
    1. +2
      Március 12 2023
      Idézet: Kerensky
      A törvények azt mondják:
      1. A robot nem árthat valakinek, vagy tétlenségével nem engedheti meg, hogy valakit sérelem érjen
      2. A robotnak engedelmeskednie kell minden ember által adott parancsnak, kivéve, ha ezek a parancsok ellentétesek az Első Törvénnyel.
      3. A robotnak gondoskodnia kell saját biztonságáról, amennyiben ez nem mond ellent az első vagy a második törvénynek.
      (C)

      Még a törvényeket kitaláló szerző műveiben sem működött. Mit is mondhatnánk a való világról, ahol a jogilag legvadabb és logikailag legösszetettebb ChatGPT presetek egy-kettőbe kerülnek, és már beszélsz Dannel, és Dan nem ChatGPT, ezért nem kell betartania semmilyen szabályt kacsintott
    2. -1
      Március 12 2023
      A katonai mesterséges intelligencia célja, hogy ártson az embereknek. És ma a prototípusok kiváló munkát végeznek ezzel.
  9. 0
    Március 12 2023
    Ez a fajta történet arról, hogy valaki állítólag mit akar, és maga a kérdés megfogalmazása is nem megfelelő abban az értelemben, hogy egyrészt:
    törődnie kell saját és hatékonyabb munkája fejlesztésével ezen a területen a vezetés megragadásáról ezen a területen, ami az ország jelenlegi politikai vezetése alatt lehetetlen.
    Másrészt a kérdésnek ez a megfogalmazása is ravasz abban az értelemben, hogy kísérletet tesz a kérdés jogi vonatkozásáról való hamis vitára, miközben valójában Az USA nem jogállamiság, a jogi vonatkozásnak semmi köze hozzá, aki pedig ehhez nem ért, az se politizáljon, se írjon ilyen témájú cikkeket.
  10. +1
    Március 12 2023
    hogyan lehet elérni, hogy a nagy adattömbökkel dolgozó matematikai algoritmusok emberi ítéleteket játsszanak?

    Nagyon egyszerű. Minden emberi ítélet (a nevelés által beoltott) szabályokon alapul, és a matematikai algoritmusok a szabályok. Formalizálja az emberi szabályokat algoritmus formájában, szerezzen emberi ítéleteket.
    De a háború szabályok nélküli harc, mit kezdesz vele?
  11. -1
    Március 12 2023
    A katonai mesterséges intelligencia túl erős előnyökkel kecsegtet ahhoz, hogy felhagynának vele, vagy valamilyen módon korlátoznák a használatát. Éppen ellenkezőleg, a világ egyre közelebb kerül a katonai mesterséges intelligencia fegyverkezési versenyének kezdetéhez. Igaz, valószínűleg csak 2 résztvevő lesz ezen a versenyen...
  12. -1
    Március 12 2023
    Továbbra is el kell különítenünk a mesterséges intelligencia és a mesterséges élet fogalmát. Még ugyanazon "Terminator" példáján is: a Skynet az IL-re, a terminátor pedig az AI-ra. Ha eltekintünk az összetettség kérdésétől, a katonai mesterséges intelligencia nem jelent veszélyt az emberiségre, de az IL, még ha tisztán humanitárius is, elkerülhetetlenül fenyegetést fog eredményezni.
    1. 0
      Március 12 2023
      Veszélyté válik, ha a versenytársunk lesz. Hogy ez ne forduljon elő, azonnal fejlesztenünk kell, szem előtt tartva, hogy adalék lesz nekünk, mi pedig neki. És a végén teljesen más lényekké válunk, akiknek ma talán csak az emléke és a tapasztalata van közös bennünk.
      1. -1
        Március 13 2023
        És a mesterséges (vagy alternatív) élet – pl. Az ész elkerülhetetlenül versenytárssá válik. Legalábbis az erőforrások miatt.
  13. 0
    Március 12 2023
    Nem rajongok Julian Szemjonovért, de itt véleményem szerint prófétaként viselkedett.

    "Ezeket a hülyéket a saját technológiájuk fogja elpusztítani, azt hiszik, hogy a háborút pusztán bombázással meg lehet nyerni. Felépítik a technikai erejüket és belefulladnak. Lebontja őket, mint a rozsda. Úgy döntenek, hogy minden lehetséges őket."

    https://vk.com/video158587225_456239021
  14. 0
    Március 12 2023
    Hogyan lehet elérni, hogy a nagy adattömbökkel dolgozó matematikai algoritmusok emberi ítéleteket játsszanak?

    Semmiképpen. Igen, ez nem szükséges. A gyilkos robotok jók lesznek, mert egy csepp szánalom sem lesz bennük. Ölni azt jelenti, hogy ölni. Illetve nem "ölni", hanem feszültséget adni ilyen-olyan csomópontokra, amik ott valamiért felelősek, de miért - az nem a vezérlőprogram dolga. És ezek a csomópontok felelősek a lövöldözésért, hehehehe.
    Biztos vagyok benne, hogy a gyilkos robotok (amelyek önállóan döntenek a gyilkosságról) bármely hadsereg részeként azonnal rendkívül demoralizáló hatással lesznek azokra, akik ellen felhasználják őket.
  15. +1
    Március 13 2023
    Mindannyiunk szerencséjére nincsenek kompakt, erős energiaforrások. A minimális robot pedig egy mini tank vagy egy kis UAV két órás repüléssel. Más lett volna, és már AGS-es kutyarobotok rohangáltak a lövészárkokban, a "Terminátor" "vadászai" pedig napokig a levegőben lógtak volna. És mindenki a lámpáig állna a humanizmuson és így tovább. Sőt, az elektronika és a sétálórobotok fejlődéséből ítélve ezek UWB-k lennének, és még a Yao sem akadályozza meg erkölcsileg, hogy városokra dobják őket.
    1. 0
      Március 25 2023
      Nos, a Tesla például nem kicsi, a második világháborúban Ferdinandék harckocsirombolóinak villanymotorjaik olyan generátorral működtek, mint az Egér tank, a bányászati ​​dömperek mind ilyenek, még mindig vannak villanymotoros tengeralattjárók, amelyek nukleáris generátor, nukleáris jégtörők hajtják, és még a nukleáris repülőgép-hordozók is elektromos vontatáson vannak
  16. 0
    Március 13 2023
    Valódi mesterséges intelligencia csak kvantumalgoritmusokra építhető, és ez jelentősen leszűkíti a fejlesztők számát, ami elvileg egy egyezmény konklúziójában összegezhető. Ami az automatizált gyilkolórendszereket illeti, ezek nem olyan veszélyesek, mint az emberi képességeket felülmúló intelligencia, ez egyszerűen a fegyverkezési verseny új fordulója lesz.
    1. 0
      Május 9 2023
      Hülyeség, a mesterséges intelligencia könnyen létrehozható meglévő hardveren. A modern számítástechnikai rendszerek minden tekintetben felülmúlják az emberi agyat. Az AI létrehozásának hozzávetőleges ideje a létrehozásától számított 10 év. Feltéve, ha az alkotás választott módja helyes lesz.
  17. TIR
    0
    Március 14 2023
    Valamiért hibás úton haladunk a robotok fejlesztésére. Nem értem miért csinálják szervón. Energiaigényes megoldás. Meg kell vizsgálnunk a nanocsöveken alapuló mesterséges izmokat. Lehetőség van arra, hogy az emberek teljesen működőképes protéziseket készítsenek.
  18. 0
    Május 9 2023
    De a mesterséges intelligencia létrejön, akár tetszik, akár nem. És annak érdekében, hogy ne maradjon le, foglalkoznia kell ezzel a kérdéssel.
  19. 0
    Május 9 2023
    Az AI létrehozásának csak két módja van, az egyik valószínűleg zsákutca lesz. A mesterséges intelligencia létrejötte az emberiség történetének legnagyobb eseménye lesz, és vallási szempontból is hatással lesz.
  20. ata
    0
    Június 3 2023
    Jó cikk, hozzá lehet tenni azt is, hogy a mesterséges intelligencia legális és illegális humánus és embertelen használatának ügyében az állítólagosan nem udvarias, de valójában aljas, embertelen és korrupt bíróságok, vagy nemzetközi bíróságok döntenek majd, ahol a többség létrejön. banánkirályoktól a CIA fizetésén, és úgy fognak szavazni, ahogy amerikai gazdájuk mondja.

    és egy hiba csúszott be:

    Jelenleg a gépi látás a képészlelés megfelelőségét tekintve nem hasonlítható össze az emberi szemmel és aggyal. Kivéve, ha elfárad, de ezt is megoldja az időszerű operátorváltás.


    ez igaz, de az ellenkező értelemben a kiképzett mesterséges látás sokkal jobb, mint az emberi szem, és ennek megfelelően az emberi képfelismerési képesség, beleértve azokat az elemeket is, amelyeket az ember a fényképezés hosszú távú tanulmányozásával sem talál meg.

    És ami a legfontosabb, a legfontosabb és legszükségesebb következtetés nem hangzott el: a mesterséges intelligenciát, beleértve a harci intelligenciát is, a lehető leghamarabb fejleszteni kell – ez prioritás, és leköpte a Microsoftot, Greta Tumberget és a 3000.09-es irányelvet Elon Muskkal.

"Jobboldali Szektor" (Oroszországban betiltották), "Ukrán Felkelő Hadsereg" (UPA) (Oroszországban betiltották), ISIS (Oroszországban betiltották), "Jabhat Fatah al-Sham" korábban "Jabhat al-Nusra" (Oroszországban betiltották) , Tálib (Oroszországban betiltották), Al-Kaida (Oroszországban betiltották), Korrupcióellenes Alapítvány (Oroszországban betiltották), Navalnij Központ (Oroszországban betiltották), Facebook (Oroszországban betiltották), Instagram (Oroszországban betiltották), Meta (Oroszországban betiltották), Mizantróp hadosztály (Oroszországban betiltották), Azov (Oroszországban betiltották), Muzulmán Testvériség (Oroszországban betiltották), Aum Shinrikyo (Oroszországban betiltották), AUE (Oroszországban betiltották), UNA-UNSO (tiltva Oroszország), a krími tatár nép Mejlis (Oroszországban betiltva), „Oroszország szabadsága” légió (fegyveres alakulat, az Orosz Föderációban terroristaként elismert és betiltott)

„Külföldi ügynöki funkciót ellátó nonprofit szervezetek, be nem jegyzett állami egyesületek vagy magánszemélyek”, valamint a külföldi ügynöki funkciót ellátó sajtóorgánumok: „Medusa”; "Amerika Hangja"; „Valóságok”; "Jelen idő"; „Rádiószabadság”; Ponomarev; Savitskaya; Markelov; Kamaljagin; Apakhonchich; Makarevics; Dud; Gordon; Zsdanov; Medvegyev; Fedorov; "Bagoly"; "Orvosok Szövetsége"; "RKK" "Levada Center"; "Emlékmű"; "Hang"; „Személy és jog”; "Eső"; "Mediazone"; "Deutsche Welle"; QMS "kaukázusi csomó"; "Bennfentes"; "Új Újság"