Šéf firmy, která provozuje ChatGPT, se obává vlivu umělé inteligence na práci, volby i dezinformace

Šéf firmy OpenAI, z jejíž dílny vzešel chatovací robot ChatGPT, má podle médií trochu obavy z umělé inteligence a z toho, jak ovlivní pracovní sílu, volby a šíření dezinformací. Společnost Open AI koncem loňského listopadu ChatGPT zdarma zpřístupnila veřejnosti a systém si rychle získal popularitu. Na základě jednoduchých dotazů dokáže generovat články, eseje, vtipy, ale i poezii. Jako pomocníka ho mimo jiné používají programátoři či marketéři.

New York Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Počítač

Počítač | Foto: StockSnap | Zdroj: Pixabay License | CC BY 1.0,©

Šéf OpenAI Sam Altman vedle nadšení z toho, co může umělá inteligence změnit, cítí obavy z jejího využití autoritářskými režimy. Řekl to minulý týden v rozhovoru na televizní stanici ABC News. Například ruský prezident Vladimir Putin několik let před invazí na Ukrajinu prohlásil, že kdo se stane lídrem v technologii umělé inteligence, pravděpodobně ovládne svět.

O umělé inteligenci je užitečné přemýšlet jako o mimozemšťanovi, tvrdí novinář Koubský

Číst článek

Vliv ChatGPT a jemu podobných nástrojů se zatím neodrazil v americkém volebním procesu, konstatoval Altman. OpenAI se však podle něj připravuje na prezidentské volby v roce 2024. „Zejména se obávám toho, že by tyto modely mohly být použity k rozsáhlým dezinformacím,“ řekl.

Poukázal také na to, že se modely umělé inteligence začínají nasazovat při programování a daly by se zneužít ke kybernetickým útokům. Programátoři používají podle Altmana ChatGPT jako pomocníka a společnost pracuje na tom, aby se dal obdobně aplikovat i v dalších profesích.

Šéf OpenAI připustil, že to může vést k tomu, že mnoho lidí přijde o práci. Zároveň v rozšíření těchto nástrojů vidí možnost, jak vymyslet lepší druh práce. „Můžeme mít mnohem vyšší kvalitu života, vyšší životní úroveň,“ řekl.

ČTK Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Zavřít

Nejčtenější

Nejnovější články

Aktuální témata

Doporučujeme