Nový robot sám rozhodne, zda vás zlikviduje. Zakažte vývoj takových zabijáků, varují OSN experti

Přes sto předních světových expertů na robotiku před časem podepsalo dopis OSN, v němž vyzývají k zákazu vývoje takzvaných „robotů zabijáků“ a varují před novými závody ve zbrojení. Jsou jejich obavy opodstatněné? Na tuto otázku odpověděl zpravodajský server BBC.

Londýn Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Příliš hloupí Terminátoři. Vědci vyzývají k zákazu vývoje robotů zabijáků. | Foto: Suyan Ren | Zdroj: Fotobanka Unsplash

Celé pluky tanků bez lidské posádky; bezpilotní letouny schopné najít jediného povstalce v davu civilistů; zbraně ovládané počítačovými „mozky“, co se učí stejně jako člověk. To vše patří mezi chytré technologické novinky, které vyvíjí a představuje zbrojní průmysl. Podle mínění mnohých expertů toto odvětví nyní vstupuje do „třetí revoluce vedení války“. 

Roztomilý domácí robot se nepokazil, hackeři ho změnili v hororovou postavu

Číst článek

„V každé sféře bojového pole - ve vzduchu, na moři, pod hladinou i na zemi - armády celého světa předvádějí prototypy autonomních zbraní,“ říká profesor umělé inteligence na Univerzitě Nového Jižního Walesu v Sydney Toby Walsh. „Nové technologie, jako je hluboké učení (deep learning) tuto revoluci pomáhají hnát kupředu. Technologická oblast jednoznačně vede a armáda se ji snaží dohonit,“ dodává. 

Jednou z ohlášených novinek, která se protivníkům stará o bezesné noci, je bojový modul „neuronové sítě“ kalašnikovů. Tvoří ho kulomet ráže 7,62 milimetru a kamera připojené k počítačovému systému, který - jak tvrdí jeho tvůrci - dokáže sám bez jakékoli lidské kontroly „identifikovat cíle a rozhodnout, zda vypálit“.

Nebezpečné neuronové sítě 

Na rozdíl od běžných počítačů, které používají předprogramované instrukce řešící konkrétní, ale omezenou škálu předvídatelných možností, je neuronová síť navržena tak, aby se učila z předchozích příkladů, které si dokáže uzpůsobit na okolnosti, s nimiž se zatím nemusela setkat. A právě tato údajná schopnost činit svá vlastní rozhodnutí mnoho lidí znepokojuje. 

„Pokud budou zbraně používat neuronové sítě a pokročilou umělou inteligenci, pak možná ani nebudeme vědět, na základě čeho se rozhodly zaútočit - a to je velmi nebezpečné," řekl hlavní technologický odborník společnosti Ultra Electronics Andrew Nanson. Dlužno podotknout, že je Nanson dost skeptický ohledně některých tvrzení výrobců zbraní. Jeho firma se specializuje na obranu.

Automatizované obranné systémy jsou už nyní schopny činit rozhodnutí na základě analýzy hrozby - například tvaru, velikosti, rychlosti a trajektorie blížící se střely - a zvolit odpovídající reakci mnohem rychleji, než dokáže člověk. 

Ale co se stane, když se podobné systémy setkají s něčím, s čím nemají žádnou zkušenost - a přitom budou mít volnou možnost postupovat na základě svého „nejlepšího odhadu“? Chyby by mohly mít katastrofální následky. Zabití nevinných civilistů, zničení nevojenských cílů nebo útok proti vlastní straně. 

A právě toho se mnozí experti obávají. Ne toho, že umělá inteligence začne být příliš chytrá a převezme kontrolu nad světem, jako superpočítač Skynet z filmů o Terminátorovi, ale toho, že je příliš hloupá. 

„Současné problémy nejsou spojeny se superinteligentními roboty, a s těmi hloupými, které nedokážou pružně rozlišit mezi civilními cíli a vojenskými cíli, s výjimkou velmi úzce vymezeného nastavení,“ poznamenal profesor umělé inteligence a robotiky Sheffieldské univerzity Noel Sharkey. 

ČTK Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme