ChatGPT má primitivní mozek, musíte mu lichotit. Občas působí „sjetě“

Matěj Skalický mluví s Michalem Kašpárkem, datovým novinářem Českého rozhlasu.

Přehrát

00:00 / 00:00

PŘEPIS ROZHOVORU

4. 4. 2023 | Praha

Papež v bílé péřovce, kus kódu pro programátory, překlad textu a odpověď snad na všechno. Je umělá inteligence atomovou bombou 21. století? Proč je potřeba jí lichotit? A co se na ní nezdá Elonu Muskovi? Matěj Skalický se ptá datového novináře Michala Kašpárka.

Editace: Kateřina Pospíšilová
Sound design: Damiana Smetanová
Rešerše: Miroslav Tomek
Podcast v textu: Tea Veseláková
Hudba: Martin Hůla

Zpravodajský podcast Vinohradská 12 poslouchejte každý všední den od 6.00 na adrese irozhlas.cz/vinohradska12.

Máte nějaký tip? Psát nám můžete na adresu vinohradska12@rozhlas.cz.

Vymknul se vývoj umělé inteligence kontrole?
Nemyslím si, že by se už vymknul, alespoň podle toho, co víme na základě modelů, se kterými můžeme pracovat. Ale myslím si, že ta otázka je najednou mnohem víc namístě, než byla ještě před pár lety. 

V britském deníku The Telegraph jsem četl komentář od historika Dana Snowa, že je to teď stejně nebezpečné jako projekt Manhattan, tedy někdejší americký utajený vývoj nukleární bomby, že stejně jako nukleární revoluce prý může i umělá inteligence změnit svět, jak ho známe, jen zatím nevíme, jak. Není to podle tebe trochu přitažené za vlasy? 
Myslím, že není a že je to docela dobré připodobnění. Projekt Manhattan obnášel jednu takovou situaci, kdy část vědců, která vyvíjela atomovou bombu, si nebyla úplně jistá tím, že jsou výpočty správné, a bála se, že to udělá mnohem větší „buch“, než to nakonec udělalo. Stejné obavy si děláme i teď. Atomová energie nakonec, myslím, přinesla i mnoho dobrého a pořád doufám, že to stejné nebo podobné bude i s umělou inteligencí.

Tak či onak, v Itálii už omezují používání GPT, asi nejviditelnějšího z jazykových modelů současnosti, které mají přinést nějakou revoluci. Od vědců i známých osobností zní také výzvy k pozastavení vývoje AI aspoň na několik měsíců. Svět tedy není úplně tak nadšený z toho všeho, co AI dovede? 
To několik témat najednou. V Itálii bylo ChatGPT pozastaveno kvůli tomu, že podle názoru tamního regulátora neodpovídá evropským pravidlům pro nakládání s osobními údaji, což si myslím, že je legitimní postřeh. Lidi si často neuvědomují, že to, co napíšou do promptovacího okénka, může někdo vidět. Nejspíš nehrozí, že by se to propsalo do nějakých jiných odpovědí, ale zkrátka do databáze té služby se dostává spousta citlivých údajů a podle italského úřadu není jasné, jak s nimi provozovatelé nakládají. Takže to je asi dobrá připomínka, i když nevím, jestli je v pořádku samotné řešení, tedy nařízení k vypnutí.

„Italský úřad poukazuje mimo jiné na to, že před několika týdny unikly informace o uživatelích tohoto chatovacího robota.“

(ČRo Radiožurnál, 2. 4. 2023)

Potom jsme minulý týden viděli otevřený dopis řady lidí, kteří se umělou inteligencí akademicky nebo i podnikatelsky zabývají, a ti navrhují pozastavení vývoje všech modelů, které jsou výkonnější a mocnější než GPT-4 na šest měsíců. Chtějí ten čas využít k tomu, aby se přijaly nějaké všeobecně platné normy a protokoly pro to, aby ty služby a modely byly bezpečnější a neohrozily lidstvo takovým nebo makovým způsobem. 

Za tou výzvou stojí poměrně známí lidé, ne? Musk, Wozniak, Harari. 
Přesně tak. Všichni ti lidé už se umělou inteligencí nějakým způsobem v minulosti zabývali. Konec konců, jestli se nepletu, tak i Muskovy peníze byly v začátcích organizace Open AI, která je provozovatelem ChatGPT.

AI jako Pandořina skříňka

Není tedy tak trochu správná ta kritika za výzvu směrem na Muska, že chce konkurenci zabrzdit, aby on sám mohl pracovat na něčem podobném?
Určitě to není připomínka jenom k Muskovi. Mezi signatáři je i provozovatel Stable Diffusion, což je služba pro generování obrázků, o které se říká, že v posledních týdnech a měsících trošku ztrácí tempo. Na druhou stranu bych se nerad zasekl na těchto argumentech ad hominem, protože si opravdu začínáme zahrávat s něčím, co překonává naše očekávání, byť to v tomto okamžiku zřejmě není zásadním způsobem nebezpečné, a návrh na šestiměsíční, řekněme pauzu nebo moratorium je legitimní. Mně přijde zajímavější kritika z opačné strany. V magazínu Time vyšel minulý týden článek Eliezera Yudkowského, který je intelektuálem zabývajícím se už dlouho umělou inteligencí. On píše, že těch šest měsíců vůbec nic nevyřeší, že obcházíme Pandořinu skřínku, kterou když otevřeme, tak už bude pozdě cokoliv řešit. Navrhuje nesmírně tvrdý postup, v podstatě ukončení jakéhokoliv dalšího vývoje s několika drobnými výjimkami, a dostává se k takovým návrhům, jako je bombardování datových center v případě, že někdo tento zákaz překročí. Já jsem asi v životě neviděl alarmističtější text od někoho, kdo je zároveň celkem uznávaným odborníkem a má tušení o tom, o čem píše.

„Pokud zpravodajské služby tvrdí, že nějaká země, která není součástí dohody, buduje počítačovou farmu, kde se vyvíjejí ty nejmocnější umělé inteligence, bojte se míň vyvolání mezinárodního konfliktu, než porušení moratoria. Buďte připravení vybombardovat nepřátelské datové centrum.“

Eliezer Yudkowský, teoretik umělé inteligence (Time, 29. 3. 2023)

Takže alarmistický, ale podle tebe relevantní?
Já věřím, že relevantní není. Ale ve chvíli, kdy se bavíme o tom, že jednou z možností je kolaps civilizace nebo zánik lidstva, tak jaká pravděpodobnost nebo jaké riziko je příliš malé na to, abychom ho přijali? Já sám alarmista nejsem, myslím si, že umělá inteligence teď přináší víc dobrého než zlého, a že to ještě nějakou dobu tak bude. Ale ve chvíli, kdy ty černé scénáře jsou opravdu černé, tak je na místě poslouchat a nepřicházet rychle s odsudky. 

Já k tomu přidám ještě jeden názor. Vít Janiš z Mendelovy univerzity v Brně  tvrdí, že ani sami vývojáři přesně neví, jak jazykové modely, konkrétně, tuším, mluvil o GPT, docházejí k závěrům, ke kterým docházejí.

„Sami přiznávají, že ani oni úplně přesně nevědí, jakým způsobem ten jejich produkt, ChatGPT, dojde k závěrům, ke kterým dojde.“

Vít Janiš, odborník na umělou inteligenci, Mendelova univerzita v Brně (ČRo, Dvacet minut Radiožurnálu, 31. 3. 2023)

Nezní to trošku strašidelně? 
Trošku strašidelně to může znít, zároveň je dobré připomenout, že ať už se bavíme o jakékoliv komplexní technologii nebo službě, tak málokdy jeden člověk dokáže popsat celé její fungování. Tvůrci těchto modelů dokážou popsat, jak a na čem se modely učily, znají jejich možnosti, jenom nedokážou u každé konkrétní odpovědi na každý konkrétní prompt nebo otázku, kterou lidé té inteligenci zadávají, vysvětlit, proč to došlo přesně k ní. Protože ta věc je příliš velká a do jisté míry se učila sama. 

Když vynalezneš něco jako ChatGPT, co ti odpovídá na otázky, radí ti a pomáhá, ale zároveň může mít i nějakou stinnou stránku, ale ty vlastně nevíš, jak funguje jeho mozek, tak to asi není úplně správně... Nebo? 
Já si nemyslím, že by byla pravda, že nevíme, jak ten mozek funguje. Zkrátka jenom nejsme schopni vysvětlit každé jeho rozhodnutí, krok, ale pořád to ještě není nějaký mega komplexní systém, který by se sám upravoval tak, jako třeba superpočítač Golem XIV v půlstoletí staré knize Stanislawa Lema. Tam ještě nejsme.

Inteligence s primitivním mozkem

Jak tedy mozek umělé inteligence funguje, pokud mu už nějakým způsobem rozumíme? 
Rozumíme, to ano. Funguje v zásadě mimořádně primitivně, ale na obrovských datech. Dopočítává, jaká další slova budou pravděpodobně následovat po promptu, po tom zadání, které dostal. Jednoduchý příklad je, že když někam napíšeme „já tě“, tak za nimi může být: miluji, nenávidím, nakopu, dlouho jsem tě neviděl. Pravděpodobnost klesá u slov, jako je televize nebo ruchadlo, ještě víc u slov z cizích jazyků, i když ani tam to není úplně vyloučené, protože v učebních datech mohl být nějaký chybný článek, kde někdo omylem vymazal řádek, nebo nějaká absurdní poezie. Koneckonců “já tě televize” by se asi taky někde mohlo objevit, ale nejspíš ne. Ve chvíli, kdy zadání rozšíříme o víc slov, o nějaký kontext, kdy to bude já tě mám víc než jenom rád, já tě, tak razantně stoupá pravděpodobnost, že za tím bude následovat slovo miluju, a klesá pravděpodobnost všech ostatních. 

Abych to shrnul, funguje to jednoduše tak, že je jakási webová stránka, do které můžeš psát nějaké úkoly pro umělou inteligenci, pro jazykový model, a on ti na základě toho odpovídá do takového chatu. 
Přesně tak. V podstatě kdokoliv umí posílat, přijímat SMSky, bavit se s kamarády a  příbuznými po nějakém messengeru nebo Whatsappu, umí ovládat umělou inteligenci. 

Jak se tedy ptát dobře? Jak skládat ty otázky, prompty tak, abych dosáhl, řekněme nejlepších výsledků, pokud si prostě chci zjednodušit život, ulehčit práci, využít to dobré, co mi ChatGPT, Bing a jiné modely nabízejí? 
Je důležité dodat co nejvíc kontextu, zároveň pamatovat na to, že jazykový model není nějaká znalostní databáze. Když se na sociálních sítích koukám, jak jsou lidi rozčarovaní z toho, co zadali a co jim to vyhodilo za hloupost, tak jak to říct... Chybí tam nějaký praktický návod a oni si často neuvědomují, jaké jsou limity těch modelů. Je to částečně dané tím, že jsme, použiju slovo napromptovaní populární kulturou. Padesát let nás vědecko-fantastické filmy připravovaly na to, že až přijde umělá inteligence, tak to bude něco jako počítač HAL 9000 ve Vesmírné odyseji, tedy nesmírně inteligentní, rafinovaný, můžeme říct tvor nebo nějaká kvazi bytost, která dokáže rafinovanými manipulacemi vyvraždit posádku kosmické lodi, různě je manipulovat. Ale ChatGPT taková není. My jsme místo nějaké geniální profesorky dostali takového lehkými drogami lehce sjetého učitele ze střední školy, který zkrátka řetězí slova a často říká věci, které jsou nesmyslné.

Často se plete.
Ano, používá se pro to termín halucinace, proto mě napadla metafora lehkých drog. Ve chvíli, kdy chceme, abychom dostávali relevantní odpovědi, tak první základ je dodat co nejširší kontext. Kdybys mi řekl, že potřebuješ nějaké otázky pro příští díl, tak já budu vědět, že tohle Matěj z Rozhlasu, dělá Vinohradskou 12, chodí tam takoví a makoví lidé, má to nějaký formát. ChatGPT nic takového neví, ani další modely. Stejně jako malému dítěti je mu potřeba vysvětlit, co přesně chceme, jak to má vypadat, kdo jsme a pro koho to děláme. Ideálně taky můžeme dát ChatGPT nějakou roli. 

Já jsem si vytiskl prompt, který využívám při editování článků datového týmu Českého rozhlasu. Možná ukáže, jak to může vypadat. Ještě předtím, než tam vložím článek a dám nějaké zadání, tak dodám tenhle kontext: Jsi zkušená editorka zpravodajství, vystudovala jsi Fakultu humanitních studií Univerzity Karlovy, přes Erasmus jsi strávila dva semestry v Paříži na Sorboně, přes Fulbrightovo stipendium jsi pobývala v New Yorku. Máš za sebou stáže v novinách Le Monde a The New York Times. Po návratu jsi byla dvacet let redaktorkou, šéfredaktorkou a editorkou. Jsi vzdělaná, zkušená, sečtělá, inteligentní, máš cit pro jazyk, vždy volíš nejetičtější řešení. Záleží ti na tom, aby texty byly srozumitelné a čtivé“. Teprve potom tam zadám článek a zeptám se třeba na to, co v něm přebývá, nebo jaký by mohl mít titulek.

Počkej, takže ty nejenom vytvoříš CV pro umělou inteligenci, ale ještě jí lichotíš? 
Jo, a lichotím jí záměrně, protože se ukazuje, že ve chvíli, kdy my tu inteligenci nasměrujeme k tomu, aby odpověď lovila v textech, kde k sobě lidi mluví slušně a mají nějaké znaky inteligence, tak odpověď je zkrátka lepší. 

Protože ona potom sahá do hloubi internetu, aby měla zdrojová data, a nějakým způsobem ti odpovídá, takže ty ji chceš už tím promptem, zadáním nasměrovat, aby sahala do správné škatulky. 
Aby to zkrátka nelezlo z nějakých hádek pod články, kde se lidi vulgárně urážejí a jedou nějaké hejty. Je ještě důležité zmínit, že tréninková nebo učební data, na kterých ChatGPT funguje, končí někde v roce 2021, což částečně opět přispívá k častým halucinacím. Když se jí zeptáte, kdo vládne Velké Británii nebo na průběh invaze Ruské federace na Ukrajinu, tak ona o tom vůbec neví, ty informace tam nejsou. Může si něco domyslet, ale často si domýšlí věci, které jsou až legračně chybné.

Pak za těmi chybami stojí? Ví, že chybuje?
Záleží. Když k té inteligenci přistupujeme přes chatové rozhraní, tak tam je nějaký systémový prompt, který jí velí být taková pokorná, a když ji upozorníme na to, že je něco špatně, tak se to pokouší opravit. 

K čemu všemu se to tedy dá používat? Kdo ty prompty, které by mohly fungovat v jazykovém modelu, může využívat? Jsem třeba programátor, už mě nebaví psát nějaké základní kódy, tak napíše to ChatGPT, Bing a další za mě? 
Napíše. Právě proto, že se učilo z velké části na internetových stránkách, na kterých je spousta ukázek kódu včetně popisu, co ten kód má dělat, nebo co naopak nedělá, v čem je problém. Sám ji takhle využívám u takových repetitivních činností, které nejsou moc na přemýšlení, ale spíš na to, že si musím pamatovat nějakou syntaxi, kterou si nepamatuju. Typicky otevři tuhle složku, načti všechny tabulky a spoj je do jedné tabulky“ - to je otázka jednořádkového promtu a do několika sekund dostanu kód, který většinou funguje.

Že to je geniální encyklopedie, o tom není sporu, ale co třeba překlady? 
Pardon, ale já bych si o tom trošku dovolil vést spor, protože opravdu nemůžeme spoléhat na to, že informace, které dostaneme nazpátek, jsou věcně správné. Připomínám, že je to jazykový model, který zkrátka doplňuje nejpravděpodobnější pokračování, což ne vždycky je správné pokračování. V tuto chvíli v tom systému není mechanismus, který by správnost dokázal zajistit. Praxí jsem došel k tomu, že odpovědi bývají super a dá se na ně docela spoléhat, když chceme nějaké spíš obecné věci. Popsat rozdíl mezi naftovým a benzínovým motorem, k tomu existuje spousta textů, je to vcelku jednoduchá věc. Můžeme si i hezky volit, jak složitě to chceme mít vysvětlené, můžeme dopsat, že to chceme mít jako pro pětileté dítě, nebo jako pro studentku vysoké školy. V tom je dobrá. Ve chvíli, kdy jdeme po nějakých titěrných detailech typu, co měli na hlavě účastníci nějaké bitvy ve třetím století, jestli to byly čepice, přilby nebo tak, tak nás může navést dobrým směrem, ale taky může velice suverénně lhát. 

Pak je ale asi hrozně složité to odhalit. Nebo můžu už tím promptem nějak zaručit, že lhát nebude? Asi pouze jenom tím kontextem, že bych jí řekl: „Jsi úspěšný historik...
Přesně tak. Narazil jsem na jednu šablonu promptu, tuším, že na blogu LessWrong, která staví takovou situaci z nějaké beletrie, ve které je postava nějaké ženy, která vůbec nemá smysl pro humor, nikomu by nikdy nelhala, je strašně chytrá, snaží se všem odpovídat správně a kamarád se jí na něco zeptá, to je ten náš dotaz, co chceme vědět, dvojtečka. Za tím je její odpověď a můžeme doufat, že bude s větší pravděpodobností správná, než kdybychom tady ten úvod neměli. 

Když se vrátím ke své původní otázce, totiž co třeba překladatelství, překlady. Můžu se bavit s umělou inteligencí v češtině, v angličtině a dokáže mezi těmi jazyky i překládat?
Dokáže překládat. Je důležité říct, že my se můžeme ptát rovnou česky. U většiny témat mi přijde, že o něco lepší odpovědi dává v angličtině, myslím tím propracovanější, srozumitelnější, a to prostě proto, že učebního materiálu v angličtině tam bylo nesrovnatelně víc. A překlady, to vlastně není moc nová věc, my máme už několik let třeba nástroj DeepL, který podobným způsobem překládá mezi různými jazyky a překládá docela slušně. ChatGPT to posouvá dál v tom, že s ní můžeme přímo konverzovat, což mně přijde skvělé ve chvíli, kdy se třeba učíme nějaký nový jazyk. Pořád asi dává smysl chodit na lekce s rodilým mluvčím, ale jenom si tak nasimulovat, že se bavíme s někým v nějaké kavárně, co si objednáme a kolik to bude stát, tak to mi přijde hrozně super. Může to být v angličtině a v desítkách dalších jazyků, včetně několika umělých. 

Papež v péřovce

Pak jsou tu generátory obrázků jako Stable Diffusion, Midjourney, DALL-E a tak dále. Já si říkám, jestli bych si mohl přes ty jazykové modely napromptovat to, co bych pak chtěl, aby mi generátor obrázků vytvořil. Může mi umělá inteligence pomoct i s tímto?
Výhledově to určitě možné bude, ale připomínám, že cvičební data ChatGPT končí v roce 2021, kdy ještě nástroje na generování obrázků nebyly veřejné, a tím pádem na internetu a v dalších materiálech nikde nebyly popsané dobré promty. Ale pokud si někdo chce generovat obrázky, ilustrace, fotografie v těchto nástrojích, tak se dá dogooglovat, zase se vracíme k tomu tradičnímu internetu, spousta materiálů, kterým se říká prompt booky a podobnými výrazy, kde se lidi dělí o dobré praxe a ta koneckonců vypadá dost podobně jako u ChatGPT. Pamatujme na to, že ten nástroj neví, pro koho to, co chceme, generuje. Fungují takové věci, které by lidskou grafičku mohly až urazit. Když doplníme, že obrázek má být hezký, tak bude spíš hezký, než když to tam není, protože se to opět učilo na milionech nějakých popsaných obrázků, mezi kterými jsou i ošklivé. Potřebuje to trošku pošťouchnout tím směrem, kterým chceme. 

Mimochodem, neděsí tě, jak reálně ty obrázky vypadají? Jeden za všechny - papež v bílé péřovce. Teď jsem četl v The Washington Post, že to, co nezvládaly generátory, to znamená třeba prsty na rukou, že to už se taky dá...
Zlepšuje se to, pokrok je vidět každý měsíc. Ptal jsi se, jestli mě to neděsí. Tohle mě vlastně ani tak neděsí, protože už dlouho žijeme s technologiemi, které nám umožňují dělat poměrně fotorealistické obrázky věcí, které se nestaly. Ve čtyřicátých, padesátých letech si Stalin nechával odmazat z fotografií popravené ministry, potom přišel v devadesátých letech Photoshop. Teď je na tom asi trochu zneklidňující, že tyhle nástroje má v rukou každý, ale to taky znamená, že možná budeme všichni všeobecně ostražitější k tomu, co vidíme na internetu. Přiznám se, že sám jsem víc znepokojený třeba tím, jak je stále snažší napodobit něčí hlas podobnými nástroji strojového učení, umělou inteligencí. Ve chvíli, kdy mi bude v noci z cizího čísla volat někdo, kdo zní úplně stejně jako můj blízký člověk, a bude mít i podobné vyjadřování, protože to jsou všechno věci, které jde poměrně snadno z internetu nebo nějakou lstí zjistit, a bude po mně chtít poslat rychle peníze někam, protože ho unesli, tak to asi neudělám. Doufám, že to neudělám. Ale těch možností manipulace přichází mnohem víc, než jsou jenom falešné obrázky. 

Nemyslíš si, že se můžeš do budoucna stát odborníkem na prompty, jakýmsi prompt inženýrem? Není možné, že nějaká taková nová profesor vznikne? 
Tady bych zas připomněl Google a to, že nemáme profesi profesionálních googlařů. Všichni nějak vyhledáváme na internetu ve své práci i ve volném čase. Myslím, že se něco podobného stane i s prompty, a myslím, že se to stane ještě letos, že většina lidí si zkrátka vytvoří nějakých pár svých promptů, které jim pomáhají řešit to, co je v práci nebo po práci nejvíc zdržuje, otravuje, nebaví, chtějí to mít co nejrychleji z krku. Velké instituce budou mít zřejmě někoho, kdo jim v tom pomáhá, trošku to zdokonaluje nebo vede databázi nějakých osvědčených šablon. Ale nemyslím si, že by to samo o sobě bylo nějakým masovým povoláním. 

Bude ještě letos pokračovat vývoj jazykových modelů a umělé inteligence, nebo dojde k té stopce, po které někteří volají? 
Nevím a nemůžu vědět. Ale mně přijde v tuhle chvíli ještě zajímavější než vývoj velkých modelů, jako je GPT, které, a to myslím ještě nezaznělo, běží v nějakém cloudu na obrovské výpočetní kapacitě, že přicházejí první modely, které se dají provozovat na běžných, byť dražších noteboocích a pracovních počítačích. To znamená, že i kdyby se lidstvo shodlo na tom, že tato technologie vede ke zkáze a že s ní musíme zatočit, tak v tom bodě, ve kterém jsme teď, už nejspíš zůstaneme navždy, protože ta stopka by zjednodušeně řečeno vyžadovala konfiskaci počítačů.

V podcastu byly dále využity zvuky z TV Nova, DVTV, youtubových kanálů Fox News, KTLA5, TG2000 a Klingon Spider 2021.

Matěj Skalický

Související témata: ChatGPT, umělá inteligence, AI, Vinohradská 12, podcast