Hawking opět varuje před zánikem lidstva. Zachránit se můžeme, když opustíme Zemi, tvrdí

Stephen Hawking varuje, hrozí nebo se bojí. Takovými slovy začínají titulky většiny článků o geniálním britském fyzikovi, které v posledních letech s železnou pravidelností zaplavují světová média. Hawking už o hrozbách, kterým lidstvo čelí, mluví řadu let. Naposledy se k zániku planety vyjadřuje v knize Jak vyrobit vesmírnou loď amerického novináře Juliana Guthrieho.

Sdílet na Facebooku Sdílet na Twitteru Sdílet na Google+ Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Stephen Hawking | Foto: CC BY 2.0

Zatímco dřív Hawking varoval třeba před tím, abychom nezkoušeli zkontaktovat mimozemšťany nebo před prováděním některých fyzikálních pokusů, ve zmíněné knize říká, že zánik života na Zemi je stoprocentně jistý.

Zkrátka to tu nikdo nepřežije. Ačkoliv nevíme, jestli lidstvo vyhladí jaderná válka, zmutované viry nebo právě cizí mimozemská civilizace, je podle něj stoprocentně jisté, že něco z toho se prostě stane. Podle vědce Hawkinga ale pořád existuje naděje a lidstvo by jí mělo věnovat veškerou svou energii.

Naděje? Kolonizace jiné planety

Jak už název knihy napovídá, naděje se skrývá ve stavbě vesmírné lodi a cestě do vesmíru. Lidstvo musí ideálně kolonizovat nějakou z planet sluneční soustavy nebo planetu v blízkém hvězdném systému.

Dlužno dodat, že Hawking není sám, kdo tuto představu sdílí. Známým popularizátorem cest do vesmíru je i třeba miliardář Elon Musk. Ten minulý týden představil svůj plán vesmírné lodi, která doveze stovku lidí k Marsu.

Na rozdíl od Muska ale Hawking nečeká, že bychom s kolonizací cizích planet začali v následujících desetiletích. Mluví spíš o potřebě inspirovat nadcházející generace, které podle něj musí chápat, proč je důležité létat do vesmíru.

Na druhé straně je ale otázka, jestli se lidstvo něčeho takového vůbec stihne dožít. Hawking varuje i před celou řadou poměrně bezprostředních a zanedlouho možná i aktuálních hrozeb.

Hrozba umělé inteligence

V nedávném rozhovoru s americkým moderátorem Larry Kingem třeba zmínil, že lidstvo by se mělo mít na pozoru před umělou inteligencí. Konkrétně před takzvanou technologickou singularitou.

„Jakmile stroje dosáhnou bodu, kdy se samy dokážou zlepšovat, nedokážeme odhadnout, zda jejich cíle budou stejné jako naše. Umělá inteligence má potenciál vyvíjet se rychleji než lidstvo. A my potřebujeme jistotu, že umělá inteligence bude navržená eticky a s nějakou záchrannou brzdou,“ uvedl vědec.

Hawking do hrozeb pro lidstvo zahrnuje i environmentální problémy. V rozhovoru s Larry Kingem řekl, že největší nebezpečí je podle něj v současnosti znečištění ovzduší a poškozování životního prostředí.

K lidstvu je Hawking obecně hodně kritický. Před lety třeba řekl, že se lidé zničí sami svou chamtivostí a hloupostí. Opakovaně také varuje před nebezpečím nenadálé jaderné války nebo epidemií geneticky modifikovaného viru.

Napětí mezi jadernými mocnostmi

Odborná veřejnost se bojí hlavně globálního oteplování a modernizace jaderných arzenálů. I přes řadu konferencí a dohod světových špiček se totiž planeta stále otepluje a počty atomových zbraní se nezmenšují. A k tomu roste napětí mezi jadernými mocnostmi.

Hawking se nebojí kopnout ani do vlastních řad. Život na zemi a vlastně v celém vesmíru podle něj ohrožuje i zařízení CERN. Konkrétně pátrání po takzvané božské částici, Higgsově bosonu, kterou vědci hledají za použití vysokých energií.

Pokud by v urychlovači částic vyvinuli energii sto miliard gigaelektronvoltů, podle Hawkinga by mohl nastat rozpad vakua v celém vesmíru. Naštěstí zařízení v CERNu má energii jen 14 tisíc gigaelektronvoltů, takže zatím není čeho se bát.

Ondřej Novák Sdílet na Facebooku Sdílet na Twitteru Sdílet na Google+ Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější:

Nejčtenější na Facebooku

Nejčtenější na Twitteru