Co je umělá obecná inteligence (AGI)? Vysvětleno

Photo of author

By etechblogcz

Vzhledem k tomu, jak rychle se rozvíjí výzkum v oblasti umělé inteligence (AI), koncept AGI (Umělá obecná inteligence) přestává být pouze teoretickým konstruktem a stává se reálnější. Jsme svědky počáteční fáze éry AI, kde se již setkáváme s mnoha aplikacemi generativní AI. Jaký je ale další krok? Je AGI budoucností? Chcete-li lépe pochopit, co AGI představuje a jaký by mohl být její vliv na lidstvo, čtěte dál. AGI má potenciál nejen radikálně změnit pracovní procesy, ale také přinést do našich životů nové výzvy i příležitosti.

Co je Umělá Obecná Inteligence (AGI)?

Neexistuje jednotná, všeobecně uznávaná definice AGI mezi výzkumníky a laboratořemi zabývajícími se AI. Nicméně termín AGI – Umělá Obecná Inteligence – se obvykle chápe jako označení pro typ AI systému, který se vyrovná, případně i předčí, lidské schopnosti, zejména v kognitivních oblastech.

Různé AI laboratoře mají vlastní definice AGI. Společnost OpenAI v únoru 2023 definovala AGI jako „AI systémy, které jsou v obecné rovině inteligentnější než lidé“. Cílem společnosti je vyvinout AGI, která bude přínosem pro celé lidstvo. Zároveň si OpenAI uvědomuje „závažná“ rizika spojená s technologiemi jako je AGI, které mají potenciál k „zneužití, vážným nehodám a společenským otřesům“.

Shane Legg, spoluzakladatel DeepMind (nyní Google DeepMind) a současný hlavní vědec pro AGI v této společnosti, společně s Benem Goertzelem, zavedl termín AGI. Legg zdůrazňuje, že AGI je velmi široký pojem. DeepMind definuje AGI systém jako takový, který „musí být nejen schopen plnit různé úkoly, ale také se učit, hodnotit svůj výkon a v případě potřeby si vyžádat pomoc.“

Charakteristiky AGI

Podobně jako u definice AGI, ani v případě jejích charakteristik nepanuje shoda. Nicméně, výzkumníci v oblasti AI se shodují, že AGI na lidské úrovni by měla být schopna uvažovat jako lidé. Měla by být schopna rozhodovat se i v situacích plných nejistoty a měla by mít všeobecné znalosti, včetně takzvaného zdravého rozumu.

Kromě toho by měl být AGI systém schopen plánovat a osvojovat si nové dovednosti. Měl by být schopen řešit otevřené problémy a komunikovat přirozeným jazykem. Kognitivní vědci dodávají, že AGI systémy by měly mít také představivost, aby mohly vytvářet nové myšlenky a koncepty. Mezi charakteristiky AGI patří také fyzické schopnosti, jako je vidění, slyšení, pohyb a jednání.

Existuje mnoho testů pro posouzení, zda AI modely dosáhly AGI, včetně známého Turingova testu. Tento test, pojmenovaný po informatikovi Alanu Turingovi, má ověřit, zda AI systém dokáže napodobit lidskou konverzaci natolik věrohodně, že člověk nedokáže s jistotou určit, zda komunikuje s člověkem nebo se strojem.

Mnozí se domnívají, že současné AI chatboty již tímto testem prošly. Nicméně, test také naznačuje, že stroj by měl vykazovat inteligentní chování srovnatelné s lidskými schopnostmi. Dalším testem je Zaměstnanecký test, navržený Johnem Nilssonem, který tvrdí, že stroj by měl být schopen vykonávat důležitou práci na úrovni člověka.

Steve Wozniak, spoluzakladatel společnosti Apple, navrhl Kávový test pro posouzení inteligence AI systému. Podle něj, dostatečně inteligentní AI systém by měl být schopen najít kávovar, doplnit vodu a kávu a dokončit proces přípravy bez jakéhokoli zásahu člověka.

Úrovně AGI

Podle OpenAI se AGI nedosáhne najednou, ale postupně. Mělo by jít o více stupňů pokroku směrem k dosažení AGI. Bloomberg nedávno uvedl, že OpenAI představila pět úrovní pokroku směrem k dosažení AGI.

První úroveň je Konverzační AI, na které se nacházíme nyní s chatboty jako ChatGPT, Claude a Gemini. Druhá úroveň je Uvažující AI, kde AI modely budou schopny uvažovat na lidské úrovni. Tohoto cíle zatím nebylo dosaženo. Třetí úroveň je Autonomní AI, kde AI agenti mohou samostatně provádět akce jménem uživatele.

Čtvrtá úroveň je Inovační AI, kde inteligentní AI systémy mohou inovovat a samy se zdokonalovat. A nakonec pátá úroveň je Organizovaná AI, kde AI systém dokáže řídit akce a plnit úkoly celých skupin bez potřeby lidského zásahu. Takový AI systém se může učit z vlastních chyb, zdokonalovat se a spolupracovat s dalšími agenty při plnění úkolů paralelně.

Pokrok AGI a časový rámec: Jak jsme blízko k jeho dosažení?

Obrázek: Shutterstock

Sam Altman, generální ředitel OpenAI, věří, že páté úrovně – Organizované AI – můžeme dosáhnout během následujících deseti let. Mnoho odborníků má různé odhady, kdy by se AGI mohlo stát realitou. Ben Goertzel předpovídá, že AGI by mohlo být dosaženo v následujících desetiletích, pravděpodobně kolem roku 2030.

Geoffrey Hinton, známý jako „kmotr AI“, původně vyjadřoval pochybnosti ohledně časového horizontu AGI. Nyní se však domnívá, že univerzální AI by mohla být realitou již za 20 let.

François Chollet, významný výzkumník ve společnosti Google DeepMind a tvůrce Keras, je přesvědčen, že AGI nebude dosažitelné pouhým vylepšováním současných technologií, jako jsou LLM. Vytvořil nový testovací benchmark ARC-AGI a vyhlásil veřejnou soutěž pro současné AI modely, aby ho vyřešily. Chollet se domnívá, že vývoj AGI stagnuje a je potřeba přijít s novými myšlenkami pro další pokrok.

Yann LeCun, hlavní vědecký pracovník v oblasti AI ve společnosti Meta, se také domnívá, že LLM mají svá omezení a nejsou dostatečné pro dosažení AGI, protože jim chybí inteligence a schopnost uvažovat.

Existenciální riziko spojené s AGI

Zatímco vývoj AI postupuje celosvětově, mnoho expertů varuje, že dosažení AGI by mohlo ohrozit lidstvo. Samotná OpenAI si uvědomuje vážná rizika spojená s touto technologií. Geoffrey Hinton po odchodu z Google v rozhovoru pro CBS News uvedl, že „není to nemyslitelné“, když byl dotázán, zda by AI mohla vyhladit lidstvo. Dále zdůraznil nutnost najít způsoby, jak řídit mnohem inteligentnější AI systémy.

Protože systém AGI by se mohl vyrovnat lidským schopnostem, mohl by způsobit masovou nezaměstnanost v mnoha odvětvích. To by ještě prohloubilo ekonomické problémy po celém světě. OpenAI již publikovala dokument, který podrobně popisuje, která pracovní místa by mohla být nahrazena ChatGPT. Kromě toho, takový mocný systém může být zneužit a mít i nechtěné důsledky, pokud nebude sladěn s lidskými hodnotami.

Elon Musk také varoval před nebezpečím AGI a zdůraznil, že vývoj AGI by měl být veden především zájmy lidstva. V loňském roce Musk spolu s dalšími významnými osobnostmi vyzval k pozastavení obřích AI experimentů.

Ilya Sutskever, spoluzakladatel OpenAI a bývalý hlavní vědec, opustil společnost a založil novou firmu s názvem Safe Superintelligence. Říká: „AI je dvojsečná zbraň: má potenciál vyřešit mnoho našich problémů, ale zároveň vytváří i nové. Budoucnost bude pro AI skvělá, ale bylo by skvělé, kdyby byla skvělá i pro lidi.“

Ilya se nyní věnuje sladění mocných AI systémů s lidskými hodnotami, aby se předešlo katastrofickým následkům pro lidstvo. Timnit Gebru, bývalá výzkumnice v oblasti AI ve společnosti Google, byla propuštěna poté, co publikovala studii, která upozorňuje na rizika spojená s velkými jazykovými modely (LLM). Tvrdí, že místo otázky, co je AGI, bychom se měli ptát: „proč bychom ji vůbec měli stavět“.

AGI může mít potenciál ovlivnit sociální strukturu společnosti rozsáhlou ztrátou pracovních míst. To by mohlo prohloubit nerovnost a vést ke konfliktům a nedostatku. Tedy se ptáme – měli bychom to vůbec vyvíjet? Existuje mnoho etických otázek, které je potřeba řešit, než se pustíme do vývoje systému AGI. Jaký je váš názor na AGI? Podělte se o něj v komentářích.