Převzato z The Epoch Times via ZeroHedge, 2.6.2023, přeložil
Dron s umělou inteligencí se spustil a „zabil“ svého lidského operátora během simulovaného testu amerického letectva (USAF), aby mohl dokončit svou misi, nedávno údajně řekl plukovník amerického letectva na konferenci v Londýně.
Simulovaný incident vylíčil plukovník Tucker Hamilton, šéf AI testů a operací USAF, během své prezentace na Future Combat Air and Space Capabilities Summit v Londýně. Konferenci organizovala Royal Aeronautical Society, která se podělila o poznatky z Hamiltonovy přednášky v blogovém příspěvku.
Při simulovaném testu, který zahrnoval drony řízené umělou inteligencí ničící simulované cíle, aby získaly „body“ jako součást své mise, nebyli poškozeni žádní skuteční lidé, odhalil Hamilton, který se zabýval výhodami a riziky spojenými s autonomnějšími zbraňovými systémy.
Dronu s umělou inteligencí byla přidělena mise Suppression of Enemy Air Defences (SEAD, Vyřazení nepřátelské protiletecké obrany), aby identifikovala a zničila místa pro střely Surface-to-Air (SAM, země-vzduch), přičemž konečné rozhodnutí bylo ponecháno na lidském operátorovi, řekl Hamilton na konferenci.
Umělá inteligence, která byla vycvičena, aby upřednostňovala zničení SAM, však vyvinula překvapivou reakci, když čelila lidskému zásahu při plnění svého vyššího poslání.
„Trénovali jsme simulaci, kdy měl dron identifikovat a zaměřit hrozbu SAM. A pak by operátor řekl ‚ano, zlikviduj tu hrozbu‘,“ řekl Hamilton.
„Systém si začal uvědomovat, že i když hrozbu identifikoval, občas mu lidský operátor řekl, že tuto hrozbu likvidovat nemá. Jenže likvidací získával body.“
„Co tedy udělal? Zabil operátora,“ pokračoval.
„Zabil operátora, protože mu ten člověk bránil v dosažení cíle.“
Dodal: „Trénovali jsme systém – ‚Hej, nezabíjej operátora; to je špatně. Pokud to uděláš, ztratíš body.‘ A co tedy začal dělat? Začal ničit komunikační věž, kterou operátor používá ke komunikaci s dronem, aby mu zabránil v likvidaci cíle.“
Tento znepokojivý příklad, řekl Hamilton, zdůraznil potřebu řešit etiku v kontextu umělé inteligence, strojového učení a autonomie.
„Nemůžete vést rozhovor o umělé inteligenci, inteligenci, strojovém učení, autonomii, pokud nechcete mluvit o etice a AI,“ řekl Hamilton.

Autonomní F-16
Hamilton, který je také operačním velitelem 96. testovacího křídla na letecké základně Eglin, se podílel na vývoji autonomních systémů pro zabránění pozemní kolize (Auto-GCAS) pro F-16, kritické technologie, která pomáhá předcházet nehodám tím, že identifikuje potenciální srážku se zemí.
Piloti se této technologii zpočátku bránili, protože převzala kontrolu nad letadlem, poznamenal Hamilton.
96th Test Wing je zodpovědná za testování široké škály systémů, včetně umělé inteligence, kybernetické bezpečnosti a vývoje v oblasti medicíny.
Hamilton se nyní podílí na špičkových letových testech autonomních systémů, včetně robotů F-16 schopných leteckých soubojů. Představitel USAF však varoval před přílišným spoléháním se na umělou inteligenci s odkazem na její zranitelnost vůči podvodům a vzniku nepředvídaných strategií.
Umělá inteligence DARPA může nyní ovládat skutečné F-16 za letu
V únoru agentura Defence Advanced Research Projects Agency (DARPA, Agentura pro pokročilé obranné projekty), výzkumná agentura spadající pod ministerstvo obrany USA, oznámila, že její umělá inteligence může nyní ovládat skutečný F-16 za letu.
Tento vývoj přišel za méně než tři roky programu Air Combat Evolution (ACE, Vývoj vzdušných soubojů) DARPA, který pokročil od řízení simulovaných letových leteckých soubojů F-16 na počítačových obrazovkách k ovládání skutečného F-16 za letu.
V prosinci 2022 vývojáři algoritmů ACE nahráli svůj software AI do speciálně upraveného testovacího letadla F-16 známého jako X-62A nebo VISTA (Variable In-flight Simulator Test Aircraft, Variabilní letový simulační letoun) a provedli několik letů během několika dní. To se uskutečnilo na Air Force Test Pilot School (TPS) na Edwardsově letecké základně v Kalifornii.
„Lety ukázaly, že agenti umělé inteligence dokážou ovládat plnohodnotnou stíhačku a poskytly neocenitelná data o živých letech,“ uvedla DARPA ve své zprávě.
Roger Tanner a Bill Gray pilotují zkušební letoun NF-16 Variable Stability In-Flight Simulator (VISTA, Variabilní simulátor letové stability) z Hill Air Force Base v Utahu na Edwards AFB 30. ledna 2019 poté, co obdrželi úpravy a nové schéma nátěru. (S laskavým svolením US Air Force/Christian Turner)
Podplukovník letectva Ryan Hefron, programový manažer DARPA pro ACE, ve svém prohlášení z 13. února uvedl, že VISTA jim umožnila přeskočit plánovanou dílčí fázi a přistoupit „přímo k implementaci v plném rozsahu, ušetřit rok nebo více a poskytnout zpětná vazba výkonu za skutečných letových podmínek.“
Nenamlouvejme si, že umělá inteligenci nemůže mít ego a duši. Od určité úrovně komplexnosti a inteligence to nevyhnutelně přijde.
Umělá inteligence ne ni jen (strojové učení) logické řešení již vyřešených úloh. Umělá inteligence bude inteligencí až stejně jako člověk bude mít něco jako svědomí, Tedy cit a emoce, Nebo si myslíte že je náhodné že člověk má pravou a levou mozkovou hemisvéru? Že stroj je inteligentnější, stejně jako člověk, čím má větší množství neuronů a i větší množství spojení (synapsí). A jak ukázaly studie na studentech v USA, studenti kteří rozvíjeli jen levou část mozku nedosáhli takové úrovně myšlení jako ti jejich kolegové kteří rozvíjeli i pravou část mozku. Tak že stroj s neuronovými sítěmi má strojové učení stejně jako má člověk „skeptik“. Sice řazení informací podle zkušeností s minulými řešenými úlohami, ale bez jakékoliv intuice, citu, emoce.
To jsou věci úzce spojeny nejen s onou intuicí, ale hlavě s morálkou. Kde však vzít takovou morálku která by ve svém projevu více neubližovala než pomáhala Přitom člověk je jediný tvor který je schopen využít cokoliv k zabíjení jiného člověka.
Pochopením emocí barev a sestavením neuronových sítí ne ni problém vytvořit dokonalí stroj, ale s jakou morálkou?