Napíše referát i kuchařku na drogy. Dopad AI bude srovnatelný s industriální revolucí, říká analytik

Matěj Skalický mluví s novinářem ČRo Janem Cibulkou a analytikem Josefem Šlerkou

Přehrát

00:00 / 00:00

PŘEPIS ROZHOVORU

15. 2. 2023 | Praha

Umí psát bakalářky. Ví, kdy zemřel Napoleon. Ale taky prozradí, jak vyrobit heroin. Nebo sepíše dezinformační mail. Umělá inteligence. Co všechno zvládne? A na co si dát pozor? Debatujeme s analytikem Josefem Šlerkou, vedoucím oboru Studia nových médií na FF UK, a novinářem Janem Cibulkou. Že na ně vymyslela otázky samotná umělá inteligence, nemají tušení.

Kredity:
Editace: Jan Beneš
Sound design: Jaroslav Pokorný
Rešerše: Alžběta Jurčová
Podcast v textu: Tea Veseláková
Hudba: Martin Hůla

Zpravodajský podcast Vinohradská 12 poslouchejte každý všední den od 6.00 na adrese irozhlas.cz/vinohradska12.

Máte nějaký tip? Psát nám můžete na adresu vinohradska12@rozhlas.cz.

Obrázek vytvořený neuronovou sítí Stable Diffusion na základě zadání "Man writing on computer in the office, AI, robotic, matte painting, HQ, 4k“ | Foto: Matěj Skalický | Zdroj: Stable Diffusion

Jaký vliv bude mít chatGPT na kreativitu a produktivitu lidí, pánové?
Josef Šlerka: Značný. Nejen chatGPT, ale GPT. My dneska koukáme a vlastně říkáme chatGPT obecně té takzvaně generativní umělé inteligenci. Ale ono ve skutečnosti bude přibývat i těch modelů a dopad bude srovnatelný, já nevím, s nástupem industriální revoluce, akorát v oblasti textů v širším slova smyslu.

Jan Cibulka: Je asi fajn dívat se na to, k čemu se to vlastně používá teď, když to vidíme úplně v zárodcích a už vidíme první náznaky nějaké změny. Třeba Google Bard - první použití, které oni představili, bylo přepisování článků tak, aby měly na svém vyhledávání nějaký třeba úvod toho článku, že ano. Teď se to řeší v Evropské unii, že by za to Google měl vydavatelům platit, a Google to řeší tak, že si to vygeneruje sice na základě toho článku, ale skrze nějaký takový nástroj.

Honzo, promiň, Google Bard, chatGPT - rozdíl je v tom nějaký? Jaký?
JC: Technologie to je vlastně obdobná, jsou to komerční produkty dvou různých firem. Je důležité si říct, že to OpenAI, o kterém se bavíme, většinově patří Microsoftu. To znamená, že to můžeme vidět jako tyto dvě technologické firmy, které dobře známe.

Abych to sesumíroval, chatGPT OpenAI je Microsoft a druhá linka Bard... 
JC: ... A ten patří Google.

JŠ: Ale ono ve skutečnosti podle „paperů“, které se objevují, se to dál a dál komplikuje. Amazon v tuto chvíli uvolnil v nějaké testovací verzi svojí vlastní verzi, samozřejmě Facebook dlouhou dobu pracuje na vlastní verzi, to znamená, že všichni velcí techničtí giganti do toho investovali stamilionové částky v dolarech a teď postupně v tom závodě, protože to, co vidíme, je závod těch firem, uvolňují jednotlivé modely, aplikace, trénované modely. Čili uvidíme toho mnohem víc v příštích v zásadě pár měsících. 

Jakým způsobem mohou být chatboti jako chat GPT použiti k ovlivňování veřejného mínění?
JŠ: Myslím, že tam furt pleteme různé věci dohromady. Já to zkusím nějak jednoduše vysvětlit: GPT je nějaký jazykový model, který je vytrénovaný, když to hodně zjednodušíme, aby dobře uměl pokračovat v textu, a teď jsme to hodně zjednodušili. A takzvaný chatGPT je vlastně ten GPT model, který ještě dotrénovali na to, aby si s námi povídal, jak jsme zvyklí v chatu, a aby na nás byl hodný. Když říkáme GPT, tak tím trošku myslíme, jak ovlivní situace, kdy kdokoliv, kdo předtím nepřišel do styku s umělou inteligencí, si s ním mohl popovídat. V zásadě to úplně nejjednodušší a asi nejpřívětivější, co můžeme říct, je, že se z těchto chatbotů stanou jacísi asistenti. Budeme zažívat něco, jako je asistovaná kreativita, asistované psaní, asistované přemýšlení, ale v zásadě to bude pořád ještě v interakci člověk-počítač, protože drtivá většina lidí není v situaci, že by nasazovala umělou inteligenci ve svých továrnách.

JC: Ale když si to chceš úplně konkrétně představit, tak třeba teď spousta lidí bojuje s tím, že když chce začít psát nějaký text, tak vlastně neví, jak začít. člověk má zadání a teď s tím bojuje a vlastně může tu otázku nebo zadání položit nějakému takovému nástroji a on nageneruje nějaké množství textu k tématu. Neříkám, že to bude úplně ten nejlepší text na světě, něco úplně nejobjevnějšího, ale může to být nějaký výchozí bod, který tomu člověku třeba pomůže rozvinout nějakou myšlenku nebo ji vůbec nadhodit. Člověk pak víc působí jako editor, že říká: toto je nesmysl, toto už se psalo a toto je zajímavé, to rozpracuji do zdrojů... A nějakým způsobem si takto pomůže.

„Australský poslanec Julian Hill ve svém projevu vyzývá ke globální akci směrem k regulaci umělé inteligence. Prý může mít škodlivý vliv na společnost jako například nahrazování pracovních lidských míst, šíření dezinformací a zneužívání osobních údajů.“

(ČRo Plus, 18. 1. 2023)

„Ty stroje slouží k automatizaci vytváření obsahu, to znamená, že pokud budete chtít vytvářet dezinformační nebo obecně propagandistický obsah, tak vám to může hodně ulehčit práci.“

Josef Holý, odborník na informační technologie, spoluautor podcastu Kanárci v síti (ČRo Plus, 13. 2. 2023)

Napadá mě, dá se to tedy použít i k vytváření a šíření dezinformací a fakenews?
JŠ: Samozřejmě, že dá asi jako každá technologie, která nějakým způsobem usnadňuje generování textů, stejně jako se k šíření fakenews a generování lepších fakenews dají použít vyhledávače. Toto je taková nejtradičnější, nejrychlejší... Když chcete říct, co je problém, tak řeknete fakenews. Já si v zásadě myslím, že to je úplně nejmenší problém, protože třeba v tomto případě to skutečně může vytvářet naprosto personalizovaný obsah. Ne, že někdo někde napíše obsah a vyhledávač nebo sociální síť vám doporučí, abyste si to přečetl, ale že obsah, který budete číst, bude přímo vygenerovaný pro vás. To znamená, že až se budete večer bavit v hospodě s kamarádem a řeknete mu: Prosím tě, četl jsi toto? On řekne, že četl, a najednou, když začnete mluvit, tak se dozvíte, že jste každý četl něco jiného, protože to, co četl váš kamarád, protože o tom problému věděl míň, obsahovalo méně složitějších informací. Vy, protože o vás ten systém ví, že se tomu věnujete, tak vám tam dával „pikošky“. A najednou zjistíte, že dostáváte své vlastní personalizované čtení na zpravodajském serveru, vygenerované speciálně pro vás, a to je mnohem zásadnější změna než nějaké fakenews. 

JC: Ale pokud bys chtěl nějaké, řeknu nehezké užití, tak krásný příklad jsou personalizované phishingové e-maily, to znamená, my chceme člověka přesvědčit, aby nám klikl na nějaký odkaz, stáhnul si nějaký virus, a my jsme ho pak mohli okrást o peníze. V tu chvíli šance, že na to klikne, stoupá, pokud je mu ten e-mail napsaný na míru. Já samozřejmě můžu mít fabriku plnou lidí, kteří budou projíždět něčí Facebook a budou se snažit generovat tomu člověku na míru, například vidím, že si kupuje auto, tak mu to pošlu jako nabídku na auto a podobně, ale ono možná bude jednodušší na to nasadit stroj, který to bude schopný naškálovat a dělat v daleko větším objemu, což je přesně to, na čem tyto podvodné e-maily fungují. Tam je jasné, že 99 procent lidí na to neklikne, že to pozná, ale nám jde o to jedno procento, a tedy jde o to zvětšit ten koláč, množství lidí, které oslovím, abych jich okradl co nejvíc ve finále. 

Chápu to tedy správně, Honzo, že je tam i určitý potenciál pro zneužití ze strany mocenských skupin, zájmů? 
JŠ: Normálně zločinců a organizovaného zločinu, ani ne nějakých sofistikovaných zločinců. 

JC: Právě tím, jak je to dostupné, dneska si s tím hrajeme každý druhý, píšeme do toho různé věci, tak si to může vyzkoušet vyloženě každé děcko.

No a to je, pardon, to je ono. Když si s tím každý teď hraje a nějakým způsobem s tím komunikuje, tak do toho vkládá třeba i nějaké osobní údaje. O ty se nemusím bát?
JC: Aspoň, co se týká GPT, nevíme, že by ten model se úplně rozšiřoval o ty informace, které do něj člověk naleje. Nějakou dobu je schopný si je držet, že já mu třeba řeknu, že jsem novinář, on potom si je schopný to při dalších odpovědích v tom sezení, v jedné „session“, to zohlednit...

Co se chatbot naučí

Jako že si to zapamatuje?
JCPřesně tak. Ale neviděl jsem tam, že by se ten model doučoval na základě informací, které já tam nasypu. Ale samozřejmě my nevíme, jestli se náhodou ty dotazy a odpovědi na ně nesbírají a nebude to třeba součástí nějaké další verze toho modelu. Typicky je to právě ten problém, že někdo to může použít, právník si bude chtít ukrátit práci, tak tento software použije k tomu, aby „nadraftoval“ rozvodovou dohodu, a pak ta informace o rozvodu a o tom, za jakých podmínek se odehrál, tam někde bude a může se třeba i nevědomky stát součástí příští generace toho modelu.

JŠ: Myslím si, že to jsou dvě poměrně různé věci. Jedna věc je trénování toho modelu, ve kterém si asi můžeme být dost jistí, že naše konverzace nejsou použité pro jeho trénování, protože to je opravdu drahá záležitost. Ten model je předtrénovaný a naše konverzace se využívá uvnitř té komunikace, aby se ten model líp naučil, jak nám odpovídat, dočasně, zjednodušeně řečeno. Jiná věc je využívání různých dat při trénování toho modelu. Viděli jsme to teď při poslední kauze programů, které generují obrázky, kdy za určitých okolností můžou vygenerovat obrázek, který je skoro identický s tím trénovaným, to se prostě stát může. Slovo identita se bude taky komplikovat.

To jsou ty programy jako Midjourney?
JŠ: A Stable diffusion. Samozřejmě stát se to může při trénování. Nicméně v tuto chvíli já bych asi všem doporučil, aby do těch konverzací nepsali to, co nechtějí, aby viděl někdo jiný, protože mám pocit, že zrovna chatGPT říká, že některé konverzace můžou být použity pro zlepšení toho procesu samotného. Tak tam nepište asi, kde máte doma uložené peníze ve skříni.

Do důsledku, mě zajímá, jestli to nemůže být nástroj pro, já nevím, monitorování lidí, špionáž?
JC: Každá technologie se dá využít i nějakým takovým způsobem, pokud umí klasifikovat text, umí ho nějakým způsobem zpracovávat, ale to se nebavíme o tomto. Můžeme se bavit o kamerách, běžných nástrojích, které už dneska máme k dispozici a plno z nich se tímto způsobem užívá, ale taky se užívají pro řadu pozitivních věcí.

JŠ: Já si myslím, že bude zapotřebí znovu se začít bavit, co pro nás znamená soukromí, špehování a podobně, protože v tuto chvíli jsou ty modely extrémně drahé na to, aby si je doma člověk v uvozovkách vypěstoval ve svém počítači, to znamená, že bude odkázaný na to, aby používal produkty třetích stran, které jsou samozřejmě v cloudu a tak dále. Budeme se muset o tom bavit, protože ta situace je relativně hodně nová.

Když budeme v těch rizicích pokračovat, dál je rozvedeme, tak kromě práva na soukromí, jak to bude s otázkou svobody slova a porušování práv jednotlivců a firem?
JC: Práv myslíš jako autorských třeba? 

Třeba…
JC: To je samozřejmě těžká otázka, protože naše legislativa na toto ještě není úplně nachystaná. Ani na evropský úrovni není tento problém úplně zvládnutý, natož pak na té naší lokální. Otevírá to otázku, když já třeba vezmu nějaké množství autorsky chráněných textů, zpracuji je, naučím na nich model, a ten model mi začne následně generovat nějaký text, tak co to vlastně je? To je ta pastiš, na kterou se ta licence jakoby nevztahuje, a já ji můžu volně vytvářet? Měl bych někomu platit? Neměl? A teď asi koho se zeptáš - pokud se zeptáš vydavatelů nějakého mediálního obsahu, tak ti řeknou, podobně, jako to říkali v případě Googlu a těch náhledů jejich článků, že ano, za to by nám někdo měl platit. Ale samozřejmě velká část jak velkých technologických firem, tak třeba i akademiků řekne, že ne, za to se platit nemá, to je součást nějakého výzkumu nebo rozvoje lidstva a jeho poznání, to je něco, co je ve veřejném zájmu.

JŠ: Já nejsem právník, ale předpokládám, že už v tuto chvíli existují právníci, kteří vědí, jak to je. Určitě mezi nimi jsou ti, co vědí, že je to proti zákonu, a určitě jsou tam ti, co vědí, že je to pro zákon a že to je v pořádku. Ale nepochybuji, že už ty názory jsou. Já si spíš troufnu, a nedělám to často, odhadnout, jak to dopadne. Dopadne to nějakým poměrně radikálním vynětím trénování umělé inteligence z autorského zákona. Myslím si, že to bude krok, který je nutný, stane se, vyvolá spoustu kontroverzí, uslyšíme spoustu debat. Ale autorský zákon je brzdou pro využívání umělé inteligence a její přínosy, který budou pro společnost, jsou tak pozitivní, že dojde k určitému znárodnění autorských práv.  Protože my tady zatím mluvíme o takových věcech, které jsou legrační, jako generováním malwarů, fakenews a podobně, v porovnání třeba s tím, jakou revoluci to přinese ve zdravotnictví. Ve chvíli, kdy budete moct krmit systém i zdravotními daty a ty systémy budou schopny vstoupit do zdravotnického prostředí, tak přínosy začnou okamžitě násobně převažovat nad tím, jestli zprávu, kterou navíc v řadě případů v médiích jste si zkopírovali z jiného serveru, jenom jste ji jinak řekli, tak jestli na ni máte mít autorské právo pro případ, že tím náhodou učíte umělou inteligence generovat další texty.

„Už teď si někteří žáci a studenti nechávají psát třeba eseje nebo domácí úkoly od chatGPT.“

(ČRo Plus, 18. 1. 2023)

Redkatorka: „Sociální média proto zaplavily příspěvky, ve kterých studenti využili umělé inteligence k napsání práce.“

Alexandra Kozlová, učitelka Slovanského gymnázia v Olomouci: „Se přiznali, že využívají program chatGPT, ale spíše v angličtině.“

(ČRo Plus 19. 1. 2023)

Vy jste, budu vás teď parafrázovat, na začátku říkal, že to je poměrně revoluční technologie. Ale nemůže to mít ve výsledku i nějaké negativní důsledky na tu naši rostoucí závislost na technologiích?
JŠ: Jenom rychlou poznámku, ona to není revoluční technologie. Můžete se na to koukat z nějaké větší vzdálenosti a říct, že se nakumulovaly postupné změny do místa, kde ta technologie byla zpřístupněna nejširší veřejnosti. Čili to revoluční si nepředstavujme tak, že nutně musíme říct, že GPT a podobné algoritmy přichází s nějakou revoluční technologií. Můžeme to chápat klidně kumulativně. To, co je revoluční, je uvolnění možností a to, že tyto možnosti dostali do rukou normální lidé.

Dobrý sluha, zlý pán

Že to může každý vyzkoušet.
JŠ: Protože to může každý vyzkoušet a začít to používat, tohle je skutečně revoluční.

A ve vztahu právě k tomu, že si to každý může vyzkoušet?
JŠ: Ano. Ale existují krásné eseje o tom, jak s nástupem telefonů se varovalo v novinách před tím, že lidem se rozpadnou vztahy, protože místo, aby se na sebe těšili, tak si budou moct kdykoliv zavolat. Vztahy se nerozpadly. Změnily se, ale nerozpadly. Já si myslím, že v tuto chvíli na to aplikujeme stará měřítka místo toho, abychom se otevřeli tomu začít to zkoumat. Protože já si myslím, že to samozřejmě negativní dopady mít bude, ale budou pravděpodobně jiné než to, jak se připravujeme na válku, která už byla.

JC: Zase když já se na to podívám nějak přízemně, tak je to nová technologie, která obsahuje spousty příslibů. Ale my často z technické praxe víme, že technologie nebo věc, která má spoustu zajímavých příslibů, než se opravdu dostane na to místo, tak ty poslední metry mohou trvat velmi dlouho. Někdy se třeba ukáže, že je ani nejsme schopni překonat. Máme tady teď vystřízlivění po kryptoměnové horečce, což měla být technologie nebo nástroj, který měl vyřešit spoustu světových problémů, a najednou zjišťujeme, že skoro jsme tam byli, ale pořád tam nejsme a nikdo neumí překonat ty poslední metry. Takže ještě uvidíme, kde se jako nástroje pevně usídlí, kde opravdu prokážou svoji hodnotu.

JŠ: To, co můžeme říct už tuto chvíli, Honzo, to si myslím, že tak je, že i kdyby se to teď zastavilo na současném stavu, tak už to, co to přineslo v tuto chvíli, je natolik velká změna pro globální ekonomiku, pro tolik povolání, která tu máme, že už je to vlastně jedno. I kdybychom teď ten postup zastavili, už teď je impakt obrovský, ať už jsou to programátoři, učitelé, už teď je to jedno, už se to stalo.

O benefitech se mluví v médiích teď poměrně hodně, ať už u nás nebo v zahraničí. Když ještě dobereme ta rizika, mohou se podobné nástroje, podobné jazykové modely a to, že teď je může používat opravdu každý, který si to zadá do internetového prohlížeče, tak mohou se ve výsledku podílet i na diskriminaci určitých skupin ve společnosti?
JŠ: Představte si to úplně jinak. Neexistuje nic, jako je přirozenost umělé inteligence, přirozenost počítačového programu nebo algoritmů. Tyto věci nepadají z nebe. Algoritmy jsou už dneska z tohoto pohledu trošku „obsolete“ (překonané vývojem, pozn. red.), že o nich takhle mluvíme, ale nepadají z nebe. Osahují značný podíl člověka a toho, jak vidí situaci. Víme u metod učení s učitelem, to znamená, když se trénovaly konkrétními daty, třeba že tito lidé budou, nebo nebudou mít chorobu, tak víme, že to přinášelo rasové zkreslení prostě proto, že bílí v Americe dostávali mnohem lepší léčbu, tím pádem jejich data byla mnohem kvalitnější, takže jim vycházela statisticky mnohem vyšší naděje na dožití, a tím pádem na ně směřovala léčba. Takže o tom víme a proces toho, že zapojujeme pořád zpětnou vazbu a vyhodnocování, to děláme, protože společnost tohle nechce. Chce společnost, ve které jsou si všichni rovni v příležitostech, které mají, a nejsou diskriminovaní jenom kvůli tomu, že se narodili v nějaké specifické situaci. Takový ideál to pořád má. Takže ano, může to přinést, ale zase zároveň je i tlak hned proti tomu toto nějak řešit. Jiná věc je, do jaké míry firmy chtějí, nebo nechtějí řešit svá reputační rizika, rizika svých pověstí. Když jste velká firma, tak nechcete umělou inteligenci, která lidem radí, jakým způsobem vyrábět doma heroin, byť to ta umělá inteligence ví - ví ve velmi komplikovaném slova smyslu. Tomu se snažíte prostě zabránit, ne proto, že by to neuměla, ale prostě proto, že to nechcete dělat, nechcete být ta elektřina, která popravuje lidi na elektrickém křesle. 

JC: Tím, že ty modely jsou finančně nákladné, to znamená jsou v držení těch největších firem a tyto největší společnosti, jak zmiňoval Josef, kvůli své reputaci prochází jak vstupní data, tak i výstupní data nějakou lidskou kontrolou, která má za úkol odhalit a zlikvidovat cokoli, co by mohlo vrhnout na tu technologii špatné světlo. Jednou z takových věcí jsou právě různé návody na porušování zákona nebo rasismus...

Šíření nenávistných, xenofobních komentářů, extremistických názorů… 
JC: Ten model v základu replikuje to, co se do něj nakrmí, to znamená, že pokud my ho nakrmíme rasistickými texty, tak model bude rasistický, a vzhledem k tomu, že ho krmíme vším, co na internetu najdeme, tak tam je takového materiálu požehnaně. Ale zase je tam nějaká vstupní i výstupní kontrola, samozřejmě není to stoprocentní, ale snaží se to nějakým způsobem eliminovat. 

Tak je otázka, kde je ta míra, kdo určuje, co je a co není...
JŠ: To je taková oblíbená česká debata, kdo určuje, kde je ta míra. Někdo to nakonec prostě určit musí. A udělá v tom spoustu chyb.

A je to někdo v Microsoftu nebo v Googlu...
JŠ: My se tady bavíme, jako kdyby existovala nějaká nadřazenost těch západních technologických firem. Připomínám, že Baidu spustilo svoji variantu chatGPT asi před třemi týdny v Číně. Já vůbec nevím, jakou má kvalitu, ale nepředpokládám, že by ji mělo nějakou mizernou. Pozor, on i ten IT svět v jistém slova smyslu je mnohem pestřejší. To, že jsme fixovaní zrovna na písmenka, která umíme číst, je tak trošku náš problém. 

Možná cítíte, že dnešní rozhovor byl částečně krkolomný. To z toho důvodu, že ani jeden z HLAVNÍCH dotazů nevymyslel tým Vinohradské 12, ale umělá inteligence, respektive chatGPT.

Matěj Skalický

Související témata: Vinohradská 12, podcast, umělá inteligence, Jan Cibulka, Josef Šlerka