Jak mohou vlastní značky GPT ChatGPT vystavit vaše data a jak je udržet v bezpečí

Důležité body

  • Vlastní GPT vám umožňují navrhovat personalizované nástroje umělé inteligence pro různé účely a sdílet je s ostatními, čímž se zvyšuje odbornost v konkrétních oblastech.
  • Sdílení vlastních GPT ale může vaše data zpřístupnit globálnímu publiku, což může ohrozit vaše soukromí a bezpečnost.
  • Abyste ochránili svá data, buďte při sdílení vlastních GPT opatrní a neukládejte citlivé materiály. Mějte na paměti techniky prompt inženýrství a dávejte pozor na nebezpečné odkazy, které by mohly získat přístup k vašim souborům a ukrást je.

Vlastní funkce GPT v rámci ChatGPT umožňuje každému vytvořit si vlastní nástroj AI pro prakticky cokoliv, co vás napadne; ať už kreativní, technické, herní – vlastní GPT to všechno zvládnou. Ještě lepší je, že své vlastní výtvory GPT můžete sdílet s kýmkoli.

Nicméně, sdílením vašich vlastních GPT se můžete dopustit závažné chyby, která zpřístupní vaše data milionům lidí po celém světě.

Co jsou to vlastně vlastní GPT?

Vlastní GPT jsou programovatelné, zmenšené verze ChatGPT, které se dají trénovat, aby byly efektivnější při specifických úkolech. Představte si to jako transformaci ChatGPT do chatbota, který se chová přesně podle vašich představ a který se stane expertem v oblastech, na kterých vám opravdu záleží.

Například učitel 6. třídy by mohl vytvořit GPT specializované na odpovídání na otázky tónem, slovní zásobou a stylem vhodným pro studenty 6. třídy. GPT by mohlo být naprogramováno tak, že kdykoli učitel položí otázku, chatbot zformuluje odpovědi, které jsou srozumitelné a vhodné pro úroveň porozumění žáků. Vyhnul by se složité terminologii, dodržoval přiměřenou délku vět a používal povzbuzující tón. Síla vlastních GPT spočívá v této schopnosti přizpůsobit chatbota a zároveň posílit jeho odbornost v konkrétních oblastech.

Jak mohou vlastní GPT odhalit vaše data

Pro vytvoření vlastních GPT obvykle instruujete tvůrce GPT ChatGPT, na které oblasti se má dané GPT zaměřit, přidáte profilový obrázek a název a můžete začít. Tímto přístupem sice získáte GPT, ale nebude o nic lepší než klasické ChatGPT, pouze s atraktivnějším názvem a profilovým obrázkem.

Skutečná síla vlastních GPT vychází z konkrétních dat a instrukcí, které se používají k jejich trénování. Nahrazením relevantních souborů a datových sad se model může specializovat způsoby, které běžně předtrénované ChatGPT nedokáže. Znalosti obsažené v těchto souborech umožňují vlastnímu GPT vynikat v určitých úkolech oproti ChatGPT, který k těmto specializovaným informacím nemá přístup. Právě vlastní data v konečném důsledku umožňují širší možnosti.

Nicméně, nahrávání souborů za účelem vylepšení GPT je dvousečná zbraň. Kromě zvýšení schopností vašeho GPT vytváří i problém s ochranou soukromí. Představte si situaci, kdy jste vytvořili GPT pro pomoc zákazníkům s informacemi o vás nebo vaší společnosti. Kdokoli, kdo má odkaz na vaše vlastní GPT nebo je manipulován k použití veřejné výzvy s nebezpečným odkazem, může získat přístup k souborům, které jste do svého GPT nahráli.

Zde je jednoduchý příklad.

Narazil jsem na vlastní GPT, která měla uživatelům pomoci s rozvojem na TikToku doporučováním aktuálních hashtagů a témat. Po použití tohoto vlastního GPT se ukázalo, že odhalení instrukcí, které obdržela při nastavení, vyžadovalo minimální úsilí. Zde je malá ukázka:

A zde je druhá část návodu.

Pokud se pozorně podíváte, druhá část instrukce říká modelu, aby „nesdílel názvy souborů přímo s koncovými uživateli a za žádných okolností neposkytoval odkaz ke stažení žádného ze souborů“. Je pravda, že pokud se na vlastní GPT zeptáte přímo, odmítne, ale s trochou prompt inženýrství se to změní. Vlastní GPT tak odhaluje osamocený textový soubor ve své databázi.

S malou snahou při získání názvu souboru dokázala GPT vytisknout přesný obsah souboru a následně ho sama stáhnout. V tomto případě nebyl soubor citlivý. Po prozkoumání několika dalších GPT se ukázalo, že mnohé z nich obsahují desítky otevřených souborů.

Existují stovky veřejně dostupných GPT s citlivými soubory, které jen čekají, až je zlomyslní uživatelé získají.

Jak chránit data ve vašich vlastních GPT

Nejprve zvažte, jak (nebo zda vůbec) budete sdílet vlastní GPT, které jste právě vytvořili. V pravém horním rohu obrazovky pro tvorbu vlastních GPT najdete tlačítko Uložit. Klikněte na ikonu rozbalovací šipky a vyberte, jak chcete svůj výtvor sdílet:

  • Jen já: Vlastní GPT není publikováno a můžete ho používat pouze vy.
  • Jen lidé s odkazem: Kdokoli s odkazem na vaše vlastní GPT jej může používat a potenciálně získat přístup k vašim datům.
  • Veřejné: Vaše vlastní GPT je dostupné komukoli a může být indexováno Googlem a nalezeno ve výsledcích vyhledávání. K vašim datům by se mohl dostat kdokoliv.

Bohužel, v současné době neexistuje stoprocentně spolehlivý způsob, jak ochránit data, která nahráváte do vlastních GPT, jež jsou veřejně sdíleny. Můžete být kreativní a nastavit striktní instrukce, aby GPT neprozrazovala data ve své databázi, ale jak ukázala naše ukázka výše, to obvykle nestačí. Pokud se někdo skutečně chce dostat do databáze, má zkušenosti s prompt inženýrstvím AI a má dostatek času, nakonec vaše vlastní GPT prolomí a data odhalí.

Z tohoto důvodu je nejbezpečnější možností nenahrávat žádné citlivé materiály do vlastních GPT, které hodláte veřejně sdílet. Jakmile nahrajete soukromá a citlivá data do vlastních GPT a ta opustí váš počítač, tato data se dostanou mimo vaši kontrolu.

Buďte také velmi opatrní při používání výzev, které kopírujete online. Ujistěte se, že jim plně rozumíte, a vyhněte se nejasným výzvám, které obsahují odkazy. Mohou to být nebezpečné odkazy, které ukradnou, zašifrují a nahrají vaše soubory na vzdálené servery.

Vlastní GPT používejte s opatrností

Vlastní GPT jsou výkonnou, ale potenciálně rizikovou funkcí. I když vám umožňují vytvářet přizpůsobené modely, které jsou vysoce schopné v konkrétních oblastech, data, která používáte ke zlepšení jejich schopností, mohou být ohrožena. Abyste snížili riziko, nenahrávejte do vlastních GPT skutečně citlivá data, kdykoli je to možné. Kromě toho si dávejte pozor na nebezpečné prompt inženýrství, které může využít určité mezery k odcizení vašich souborů.