3 Rizika a obavy týkající se soukromí chatbota, o kterých byste měli vědět

Chatboti existují už roky, ale vzestup velkých jazykových modelů, jako je ChatGPT a Google Bard, dal odvětví chatbotů nový život.

Miliony lidí nyní používají chatboty s umělou inteligencí po celém světě, ale pokud chcete některý z těchto nástrojů vyzkoušet, je třeba mít na paměti některá důležitá rizika a obavy týkající se ochrany soukromí.

1. Sběr dat

Většina lidí nepoužívá chatboty jen proto, aby pozdravili. Moderní chatboti jsou navrženi tak, aby zpracovávali složité otázky a požadavky a odpovídali na ně, přičemž uživatelé ve svých výzvách často zahrnují spoustu informací. I když se ptáte jen na jednoduchou otázku, ve skutečnosti nechcete, aby to přesahovalo rámec vaší konverzace.

Podle Sekce podpory OpenAI, můžete odstranit chatové protokoly ChatGPT, kdykoli budete chtít, a tyto protokoly budou poté trvale odstraněny ze systémů OpenAI po 30 dnech. Společnost však uchová a zkontroluje určité protokoly chatu, pokud byly označeny za škodlivý nebo nevhodný obsah.

Další populární chatbot s umělou inteligencí, Claude, také sleduje vaše předchozí konverzace. Centrum podpory společnosti Antropic uvádí, že Claude sleduje „vaše výzvy a výstupy v produktu, aby vám v průběhu času poskytoval konzistentní zkušenost s produktem v souladu s vašimi ovládacími prvky.“ Své konverzace s Claudem můžete smazat, takže zapomene, o čem jste mluvili, ale to neznamená, že Anthropic okamžitě smaže vaše protokoly ze svých systémů.

To samozřejmě vyvolává otázku: jsou moje údaje uchovávány nebo ne? Používá ChatGPT nebo jiní chatboti moje data?

Zde ale obavy nekončí.

Jak se ChatGPT učí?

Za účelem poskytování informací jsou velké jazykové modely trénovány s velkým množstvím dat. Podle Zaměření na věduJen ChatGPT-4 byl během svého výcvikového období nakrmen 300 miliardami slov informací. To není převzato přímo z několika encyklopedií. Vývojáři chatbotů spíše využívají k trénování svých modelů množství informací z internetu. To může zahrnovat data z knih, filmů, článků, záznamů na Wikipedii, blogových příspěvků, komentářů a dokonce i webů s recenzemi.

  Vedení mezd pro vaši rostoucí firmu je snadné se Zoho Payroll

Mějte na paměti, že v závislosti na zásadách ochrany soukromí vývojáře chatbota nemusí být některé z výše uvedených zdrojů při školení použity.

Mnozí kritizovali ChatGPT a tvrdili, že je to něco jako noční můra, pokud jde o soukromí, že ChatGPT nelze věřit. Proč tomu tak je?

Tady jsou věci trochu rozmazané. Pokud se zeptáte ChatGPT-3.5 přímo, zda má přístup k recenzím produktů nebo komentářům k článkům, dostanete jednoznačný zápor. Jak můžete vidět na níže uvedeném snímku obrazovky, GPT-3.5 uvádí, že během školení nedostal přístup k komentářům k uživatelským článkům nebo recenzím produktů.

Spíše byl trénován pomocí „rozmanité škály textů z internetu, včetně webových stránek, knih, článků a dalších veřejně dostupných písemných materiálů až do září 2021“.

Ale platí to i pro GPT-4?

Když jsme se zeptali GPT-4, bylo nám řečeno, že „OpenAI nepoužil konkrétní uživatelské recenze, osobní údaje nebo komentáře k článkům“ v období školení chatbota. GPT-4 nám navíc řekl, že jeho odpovědi jsou generovány ze „vzorů v datech [it] byl vyškolen na, který sestává především z knih, článků a dalšího textu z internetu.“

Když jsme dále zkoumali, GPT-4 tvrdil, že určitý obsah sociálních médií může být skutečně zahrnut do jeho tréninkových dat, ale tvůrci zůstanou vždy anonymní. GPT-4 konkrétně uvedl, že „I kdyby obsah z platforem jako Reddit byl součástí tréninkových dat, [it doesn’t] mít přístup ke konkrétním komentářům, příspěvkům nebo jakýmkoli datům, které lze zpětně propojit s jednotlivými uživateli.“

Další pozoruhodná část odpovědi GPT-4 je následující: „OpenAI výslovně neuvádí všechny použité zdroje dat.“ Pro OpenAI by samozřejmě bylo těžké uvést zdroje v hodnotě 300 miliard slov, ale to ponechává prostor pro spekulace.

V an Článek Ars Technicabylo uvedeno, že ChatGPT shromažďuje „osobní údaje získané bez souhlasu“. Ve stejném článku byla zmíněna kontextová integrita, koncept, který odkazuje pouze na použití něčích informací v kontextu, ve kterém byly původně použity. Pokud ChatGPT poruší tuto kontextovou integritu, mohou být ohrožena data lidí.

  Průvodce pro začátečníky o tabulce milníků [+6 Templates]

Dalším bodem znepokojení je soulad OpenAI s obecným nařízením o ochraně osobních údajů (GDPR). Jedná se o nařízení vynucené Evropskou unií za účelem ochrany dat občanů. Různé evropské země, včetně Itálie a Polska, zahájily vyšetřování ChatGPT kvůli obavám ohledně souladu s GDPR. Na krátkou dobu byl ChatGPT dokonce zakázán v Itálii kvůli obavám o soukromí.

OpenAI v minulosti hrozilo stažením z EU kvůli plánovaným regulacím AI, ale to bylo od té doby staženo.

ChatGPT je možná největší AI chatbot současnosti, ale problémy s ochranou soukromí chatbota nezačínají a nekončí u tohoto poskytovatele. Pokud používáte stinného chatbota s nevýraznými zásadami ochrany osobních údajů, vaše konverzace mohou být zneužity nebo mohou být v jeho tréninkových datech použity vysoce citlivé informace.

2. Krádež dat

Jako každý online nástroj nebo platforma jsou chatboti zranitelní vůči kyberzločinu. I kdyby chatbot udělal vše, co mohl, aby ochránil uživatele a jejich data, vždy existuje šance, že se důvtipnému hackerovi podaří proniknout do jeho interních systémů.

Pokud by daná služba chatbota ukládala vaše citlivé informace, jako jsou platební údaje za vaše prémiové předplatné, kontaktní údaje a podobně, mohlo by dojít k odcizení a zneužití, pokud by došlo ke kybernetickému útoku.

To platí zejména v případě, že používáte méně zabezpečeného chatbota, jehož vývojáři neinvestovali do adekvátní bezpečnostní ochrany. Nejen, že by mohly být hacknuty interní systémy společnosti, ale váš vlastní účet má šanci být kompromitován, pokud nemá upozornění na přihlášení nebo autentizační vrstvu.

Nyní, když jsou chatboti s umělou inteligencí tak populární, kyberzločinci přirozeně začali využívat toto odvětví pro své podvody. Falešné weby a pluginy ChatGPT byly velkým problémem od doby, kdy se chatbot OpenAI dostal do hlavního proudu na konci roku 2022, kdy lidé propadli podvodům a rozdávali osobní údaje pod rouškou legitimity a důvěry.

  Používejte jednoruční klávesnice k lepšímu psaní levou rukou

V březnu 2023 MUO informovalo o falešném rozšíření ChatGPT pro Chrome, které krade přihlášení k Facebooku. Plugin by mohl zneužít zadní vrátka Facebooku k hacknutí vysoce profilovaných účtů a krádeži souborů cookie uživatelů. Toto je jen jeden příklad z mnoha falešných služeb ChatGPT navržených k podvodu s nevědomými obětmi.

3. Malware Infekce

Pokud používáte stinného chatbota, aniž byste si to uvědomovali, můžete zjistit, že vám chatbot poskytuje odkazy na škodlivé weby. Možná vás chatbot upozornil na lákavou nabídku nebo poskytl zdroj pro jedno ze svých prohlášení. Pokud mají provozovatelé služby nezákonné úmysly, smyslem platformy může být šíření malwaru a podvodů prostřednictvím škodlivých odkazů.

Případně mohou hackeři ohrozit legitimní službu chatbota a použít ji k šíření malwaru. Pokud je tento chatbot náhodou hodně lidí, pak se tomuto malwaru stanou vystaveny tisíce nebo dokonce miliony uživatelů. Falešné aplikace ChatGPT byly dokonce na Apple App Store, takže je nejlepší postupovat opatrně.

Obecně platí, že byste nikdy neměli klikat na žádné odkazy, které chatbot poskytuje, než jej spustíte přes webovou stránku pro kontrolu odkazů. Může se to zdát otravné, ale vždy je nejlepší mít jistotu, že stránka, na kterou jste vedeni, nemá škodlivý design.

Navíc byste nikdy neměli instalovat žádné zásuvné moduly a rozšíření chatbotů, aniž byste nejprve ověřili jejich legitimitu. Udělejte si malý průzkum v aplikaci, abyste zjistili, zda byla dobře zkontrolována, a také spusťte vyhledávání u vývojáře aplikace, abyste zjistili, zda nenajdete něco stinného.

Chatboti nejsou odolní vůči problémům s ochranou soukromí

Jako většina dnešních online nástrojů byli chatboti opakovaně kritizováni za možná úskalí v oblasti bezpečnosti a ochrany soukromí. Ať už se jedná o poskytovatele chatbotů, kteří omezují bezpečnost uživatelů, nebo pokračující rizika kybernetických útoků a podvodů, je důležité, abyste věděli, co na vás váš chatbot služba shromažďuje a zda používá adekvátní bezpečnostní opatření.