3 Rizika a obavy týkající se soukromí chatbota, o kterých byste měli vědět

Photo of author

By etechblogcz

Chatovací roboti, ač existují již delší dobu, zažívají renesanci díky pokroku v oblasti rozsáhlých jazykových modelů, jako jsou ChatGPT a Google Bard.

Celosvětově miliony uživatelů využívají chatovací roboty s umělou inteligencí, avšak při zkoušení těchto nástrojů je nutné brát v potaz určitá zásadní rizika a obavy týkající se ochrany osobních údajů.

1. Shromažďování dat

Většina uživatelů nevyužívá chatovací roboty pouze pro formální pozdravy. Moderní chatboti jsou navrženi tak, aby dokázali zpracovávat a reagovat na komplexní dotazy a požadavky, přičemž uživatelé často do svých zadání vkládají velké množství informací. I když se jedná o prostý dotaz, je pochopitelné, že uživatelé nechtějí, aby tyto informace překračovaly rámec konverzace.

Podle sekce podpory OpenAI, je možné smazat záznamy chatu z ChatGPT kdykoli, přičemž tyto záznamy budou trvale odstraněny ze systémů OpenAI po 30 dnech. Společnost si však ponechává a prověřuje určité chatové protokoly, pokud byly označeny jako potenciálně škodlivé nebo nevhodné.

Další rozšířený chatovací robot s umělou inteligencí, Claude, rovněž zaznamenává předchozí konverzace. Centrum podpory společnosti Anthropic uvádí, že Claude sleduje „vaše vstupy a výstupy v rámci produktu, aby vám v průběhu času poskytoval konzistentní uživatelský zážitek v souladu s vašimi preferencemi.“ I když je možné své konverzace s Claudem smazat, čímž dojde k „zapomenutí“ toho, o čem jste hovořili, neznamená to, že společnost Anthropic okamžitě odstraní vaše záznamy ze svých systémů.

Z toho vyplývá otázka: jsou mé údaje opravdu chráněny? Využívá ChatGPT nebo jiní chatovací roboti mé informace?

A obavy tím nekončí.

Jakým způsobem se ChatGPT učí?

Za účelem poskytování informací jsou velké jazykové modely trénovány na ohromném množství dat. Dle Science Focus, samotný ChatGPT-4 byl během tréninku nakrmen 300 miliardami slov. Nejedná se o pouhé zkopírování několika encyklopedií. Vývojáři chatbotů k tréninku svých modelů využívají různorodé informace z internetu. To může zahrnovat data z knih, filmů, článků, stránek Wikipedie, blogových příspěvků, komentářů a dokonce i recenzních webů.

Je třeba vzít v potaz, že v závislosti na zásadách ochrany osobních údajů konkrétního vývojáře nemusí být některé z výše uvedených zdrojů při trénování použity.

Mnozí kritizují ChatGPT s tvrzením, že představuje noční můru v oblasti ochrany soukromí a že mu nelze důvěřovat. Z jakého důvodu?

Zde se situace stává poněkud nejasnou. Pokud se přímo zeptáte ChatGPT-3.5, zda má přístup k recenzím produktů či komentářům k článkům, obdržíte jasnou zápornou odpověď. Jak lze vidět na níže uvedeném snímku obrazovky, GPT-3.5 uvádí, že během tréninku nebyl získán přístup k uživatelským komentářům u článků či recenzím produktů.

Místo toho byl trénován s využitím „rozmanité škály textů z internetu, včetně webových stránek, knih, článků a dalších veřejně dostupných písemných materiálů, a to do září 2021.“

Platí však totéž i pro GPT-4?

Když jsme se zeptali GPT-4, bylo nám sděleno, že „OpenAI nepoužilo žádné konkrétní uživatelské recenze, osobní údaje ani komentáře k článkům“ během tréninkového období chatbota. Navíc GPT-4 uvedl, že jeho odpovědi jsou generovány na základě „vzorců v datech, na kterých byl [on] trénován, které sestávají především z knih, článků a dalšího textu z internetu.“

Při dalším zkoumání GPT-4 tvrdil, že určitý obsah ze sociálních médií mohl být součástí jeho tréninkových dat, ovšem tvůrci zůstanou vždy v anonymitě. Konkrétně GPT-4 uvedl, že „I kdyby byl obsahem z platforem jako Reddit součástí tréninkových dat, [nemá] přístup ke konkrétním komentářům, příspěvkům ani jakýmkoli údajům, které by mohly být zpětně spojeny s konkrétními uživateli.“

Další podstatnou částí odpovědi GPT-4 je následující tvrzení: „OpenAI výslovně neuvádí všechny zdroje dat, které použila.“ Je pochopitelné, že pro OpenAI by bylo obtížné uvést zdroje o objemu 300 miliard slov, ovšem i tak to ponechává prostor pro spekulace.

V článku Ars Technica bylo uvedeno, že ChatGPT shromažďuje „osobní údaje získané bez souhlasu“. Ve stejném článku byla zmíněna kontextová integrita, což je koncept, který se vztahuje k tomu, že se informace používají pouze v kontextu, ve kterém byly původně použity. Pokud ChatGPT poruší kontextovou integritu, může dojít k ohrožení dat uživatelů.

Dalším znepokojivým aspektem je soulad společnosti OpenAI s obecným nařízením o ochraně osobních údajů (GDPR). Jedná se o nařízení prosazované Evropskou unií za účelem ochrany dat občanů. Různé evropské země, včetně Itálie a Polska, zahájily vyšetřování ChatGPT kvůli obavám ohledně dodržování GDPR. V Itálii byl dokonce ChatGPT na krátkou dobu zakázán kvůli obavám o soukromí.

Společnost OpenAI v minulosti hrozila stažením z EU kvůli plánovaným regulacím v oblasti umělé inteligence, nicméně od tohoto záměru bylo upuštěno.

ChatGPT je v současné době možná největším AI chatbotem, ovšem problémy s ochranou soukromí se netýkají pouze tohoto konkrétního poskytovatele. Pokud využíváte méně známé chatovací roboty s nejasnými zásadami ochrany osobních údajů, může dojít k zneužití vašich konverzací nebo k využití vysoce citlivých informací v rámci tréninkových dat.

2. Krádež dat

Stejně jako jakýkoli online nástroj či platforma, jsou i chatovací roboti zranitelní vůči kybernetickým útokům. I v případě, že se daný chatbot snaží ochránit uživatele a jejich data, vždy existuje možnost, že se zkušenému hackerovi podaří proniknout do interních systémů.

Pokud daná služba chatbota ukládá citlivé informace, jako například platební údaje pro prémiové předplatné, kontaktní informace a další, může dojít k jejich odcizení a zneužití v případě kybernetického útoku.

Toto se týká především méně zabezpečených chatovacích robotů, jejichž vývojáři neinvestovali dostatečné prostředky do bezpečnostních opatření. V takovém případě nemusí být napadeny pouze interní systémy společnosti, ale i váš vlastní účet, pokud postrádá upozornění na přihlášení či další autentizační vrstvy.

Vzhledem k tomu, že jsou chatovací roboti s umělou inteligencí v současnosti tak rozšíření, kybernetičtí zločinci začali využívat toto odvětví pro své podvody. Falešné weby a pluginy ChatGPT představují velký problém od doby, kdy se tento chatbot od OpenAI dostal do popředí v roce 2022, kdy mnoho uživatelů naletělo podvodníkům a sdílelo své osobní údaje pod rouškou legitimity a důvěryhodnosti.

V březnu 2023 MUO informovalo o falešném rozšíření ChatGPT pro Chrome, které kradlo přihlašovací údaje k Facebooku. Tento plugin dokázal zneužít zadní vrátka Facebooku pro napadení profilů a krádež cookies uživatelů. Jedná se pouze o jeden z mnoha příkladů falešných služeb ChatGPT navržených za účelem podvodu na nic netušících obětech.

3. Infekce malwarem

Pokud neuváženě používáte méně spolehlivé chatovací roboty, může se stát, že vám robot poskytne odkazy na škodlivé webové stránky. Může se jednat o lákavou nabídku nebo o odkaz na zdroj, ze kterého chatbot čerpal informace. Pokud mají provozovatelé nekalé úmysly, může být cílem dané platformy šíření malwaru a podvodů prostřednictvím škodlivých odkazů.

Alternativně mohou hackeři narušit legitimní službu chatbota a využít ji ke šíření malwaru. Pokud daného chatbota používá velké množství lidí, vystaví se tisíce nebo dokonce miliony uživatelů tomuto malwaru. Dokonce se v Apple App Store objevily falešné aplikace ChatGPT, proto je na místě obezřetnost.

Obecně platí, že byste nikdy neměli klikat na odkazy, které vám chatbot poskytne, bez předchozí kontroly přes webový nástroj na kontrolu odkazů. Může se to zdát jako obtěžující krok, ovšem je lepší se ujistit, že stránka, na kterou vás odkaz vede, není navržena za škodlivým účelem.

Kromě toho byste si nikdy neměli instalovat pluginy a rozšíření chatbotů bez předchozího ověření jejich legitimity. Proveďte krátký průzkum o dané aplikaci, abyste zjistili, zda má dobré hodnocení, a prozkoumejte i vývojáře aplikace, abyste se ujistili, že nenajdete nic podezřelého.

Chatboti nejsou imunní vůči problémům s ochranou soukromí

Stejně jako většina dnešních online nástrojů byli i chatovací roboti opakovaně kritizováni za potenciální bezpečnostní a soukromá rizika. Ať už se jedná o poskytovatele chatovacích robotů, kteří snižují bezpečnost uživatelů, či pokračující rizika kybernetických útoků a podvodů, je důležité si být vědom toho, jaká data váš chatbot shromažďuje a zda používá adekvátní bezpečnostní opatření.