Filozof Bostrom: Vznik superinteligence bude významnější událost než kroky korporací a států

Umělá inteligence pohání sociální sítě i naše telefony, za pár let prošla prudkým vývojem. Oxfordský filozof Nick Bostrom varuje, že se nám může stát osudnou. „Mohla by vzniknout AI, kterou vůbec nezajímají lidské hodnoty,” říká ředitel britského Institutu pro budoucnost lidstva. Jeho předpovědi zní jako z dystopického románu, vyplatí se mu ale naslouchat. Abychom se za pár let nedivili, jakou budoucnost nám stroje chytřejší než my připraví.

Praha Sdílet na Facebooku Sdílet na Twitteru Sdílet na Google+ Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Oxfordský filozof Nick Bostrom na snímku z roku 2013. | Foto: Future of Humanity Institute (Wikimedia) | Zdroj: CC BY-SA 4.0

Vaše kniha Superinteligence vyšla v roce 2014. Rozebíráte v ní nebezpečí, která s sebou přináší prudký rozvoj umělé inteligence. Jak jste s úrovní současné kritické diskuze o AI spokojený?

Přehrát

00:00 / 00:00

Rozhovor je součástí podcastové série Otevřené hlavy Radia Wave – cyklu rozhovorů s předními světovými intelektuály.

Od vydání mé knihy se o něco zlepšila. Tehdy se o tom moc nemluvilo. Výzkum, který začal už před mnoha lety, postupoval dál, ale skoro nikdo nepřemýšlel nad tím, co se stane, až jednou dojdeme do cíle. Tím nikdy nebylo jen automatizovat konkrétní úkony, ale vytvořit stroj s univerzální inteligencí, podobnou té, která zaručuje lidem na planetě Zemi výsadní postavení. Tedy takzvanou superinteligenci. A tahle diskuse se během posledních tří čtyř let dost proměňuje.

O budoucnosti umělé inteligence se mluví mnohem seriózněji a trochu se rozebírá i superinteligence. Vznikly výzkumné skupiny, které se snaží technicky vyřešit, jak by superinteligence vzala v úvahu dobro lidstva a jak její činnost kontrolovat. Takže diskuse je určitě lepší, než byla, ale přesto ji lidé neberou dost vážně. Neuvědomují si, že vznik umělé superinteligence bude dost možná ta nejdůležitější událost, co se v lidské historii kdy stane. Přesto se výzkumu superinteligence věnuje stále nepoměrně méně pozornosti a peněz.

Jaký je tedy nejpravděpodobnější apokalyptický scénář? Jak nás superinteligence zničí?

V principu jde o to, že by mohla vzniknout umělá inteligence, kterou vůbec nezajímají lidské hodnoty nebo lidský blahobyt a má nějaký jiný cil. Klasický příklad a myšlenkový experiment je AI naprogramovaná k tomu, aby vyrobila co nejvíc kancelářských svorek, například nějaká v továrně na kancelářské potřeby. Prostě inteligence s účelem, který nemá žádný vztah k lidským hodnotám. Pokud by taková AI byla superinteligentní, mohla by mít moc měnit a optimalizovat budoucnost tak, aby svůj účel co nejlépe naplnila. A když se zamyslíte, jak by svět optimalizovaný pro výrobu kancelářských svorek vypadal, byl by to svět bez lidí a lidských hodnot. Dost možná by to byla Země celá přetvořená v továrnu na kancelářské svorky, ze které by vylétaly sondy s cílem přetvořit takto i další planety. A jako jakýsi vedlejší efekt by taková AI vyhodnotila, že je lepší se lidí zbavit. Nebo by nám zakázala ji vypnout, případně v rámci maximalizačního programu vyčerpala přírodní zdroje.

Podle vás je řešením stroje a umělou inteligenci lidské hodnoty naučit – mluvíte o tom třeba ve své přednášce na konferenci TED. Ale jsou lidské hodnoty opravdu univerzální? Vždyť se na nich ani neshodneme.
Ano, ve skutečnosti jsou to dva problémy. Jedním je otázka, jak „lidskost“ v určitém čase umělou inteligenci naučit. To je velká technická hádanka. A pokud by se nám ji povedlo vyřešit, budeme mít ještě politický problém. Jaké hodnoty do AI vtělíme a kdo by o tom měl rozhodovat? Jaké instituce a jakým mechanismem? A až superinteligence vznikne, bude na přemýšlení pozdě. Pokud někdo vyřeší první problém, na ten druhý budeme mít už jen jeden pokus.

Je řešením zavádění systémů umělé inteligence omezovat?
Když se podíváme na to, k čemu se dnes umělá inteligence používá, jsou to z drtivé většiny velmi pozitivní věci. Až vytvoříme superinteligenci, bude mít obrovský potenciál – bude užitečná ve všech sektorech ekonomiky, medicínském výzkumu, ekologii, vesmírném průmyslu a vlastně kdekoliv, kde je užitečná i lidská inteligence. Takže prakticky všude. Ale tahle hypotetická budoucnost má, jak už jsem naznačil, taky existenční rizika. Nicméně, já si myslím, že ji jednou prostě postavíme. Jediné, co by nám to mohlo překazit, je, že se dřív sami zničíme – třeba nějakou biologickou zbraní hromadného ničení. To je bohužel taky možné.

Ale pokud bude věda pokračovat dosavadním tempem, myslím, že nakonec budeme schopni přenést inteligenci do stroje. Ten moment vnímám jako jakousi bránu do jiného světa zářné budoucnosti, kterou lidem superinteligence může přinést. Ale musíme si dát pozor, abychom se po cestě kvůli příliš vysoké rychlosti nevybourali. Řešením není vývoj AI systémů zastavovat nebo zpomalovat, musíme si naopak připravit půdu pro optimální startovní podmínky, až jednou k vytvoření superinteligence dojde.

Nick Bostrom (* 1973) je švédský filozof, který působí na Univerzitě v Oxfordu. Je zakladatelem Future of Humanity Institute (Institut pro budoucnost lidstva). Věnuje se globálním hrozbám, transhumanismu nebo rizikům, které přináší rozvoj umělé inteligence. Je autorem knihy Superinteligence, která vyšla v roce 2014 a jako inspiraci ji citují Bill Gates nebo Elon Musk. Časopis Foreign Policy zařadil Bostroma v roce 2009 a 2015 do seznamu stovky nejdůležitějších globálních myslitelů.

Země pokrytá továrnami na svorky je dost fantastická vize. Skoro za hranou představivosti. Exprezident Obama v rozhovoru pro magazín Wired zmínil konkrétně vaši práci jako inspirativní. Taky ale poznamenal, že je podle něj lepší řešit problémy, které působí dnešní umělá inteligence v současnosti. Jak rozdělit naši pozornost mezi krátkodobé a dlouhodobé problémy?
Nesouhlasím s tím, že v tom, kolik pozornosti věnujeme dlouhodobým a krátkodobým dopadům AI, je nějaká nerovnováha. Dlouhodobější otázky jsou nakonec mnohem důležitější, a přesto se jim na plný úvazek věnuje po celém světě jen málo lidí. A ano, souhlasím, že příklad se svorkami je trochu fantastický, je to taková filozofická groteska, která má ale ilustrovat obecnější problém. Ukazuje, co může udělat nějaká náhodná funkce, utilitární program, podle kterého se superinteligence z čistě praktických důvodů rozhodne způsobem, který půjde proti lidských zájmům.

Často se zmiňuje ještě jeden možná jednodušší myšlenkový experiment. Představte si hedgeový fond pod správou umělé inteligence, která má za cíl maximalizovat zisk, případně přímo zasahuje do světa, manipuluje s trhy a píše otázky do online diskusí, aby zjistila víc informací. Je velmi těžké odhadnout, jak by svět optimalizovaný pro maximální zisk tohoto fondu vypadal a jestli je to vůbec dobrý nápad. Proto potřebujeme nástroje pro kontrolu umělé inteligence, které půjdou škálovat, pomocí kterých se AI může učit lidské hodnoty, případně je rozeznávat třeba z lidského chování a dialogu. Budeme muset zajistit, aby případná superinteligence byla motivovaná naše hodnoty naplňovat. Velmi těžký intelektuální problém je to taky proto, že ho musíme mít vyřešený předtím, než superinteligence přijde. Potom už bude pozdě na to začít výzkum. Pro ilustraci musíme používat myšlenkové experimenty nebo matematické abstrakce. To je zatím to nejlepší, co máme.

Do výzkumu umělé inteligence dost investuje třeba Elon Musk. Co na jeho snahy říkáte?
Musk udělal několik věcí. Jednak dal řadu peněz do fondu pro výzkum bezpečnostních otázek okolo umělé inteligence a vypsal otevřené grantové řízení. Kromě toho ale taky spoluzaložil OpenAI, neziskovou výzkumnou skupinu, která se věnuje takzvanému kontrolnímu problému, tedy tomu, jak zajistit, aby superinteligence napomáhala lidským cílům. Je skvělé, že se někdo věnuje konkrétním projektům, protože jen volat po širší diskusi nestačí.

Celý rozhovor si můžete přečíst na webu Radia Wave.

Otevřené hlavy je podcastová série rozhovorů s předními intelektuály. Její druhou sérii Radio Wave vysílá každý čtvrtek od 15:00. Přihlaste se k odběru podcastu na wave.cz/podcasty.

Ondřej Trhoň Sdílet na Facebooku Sdílet na Twitteru Sdílet na Google+ Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme