Table of Contents
Klíčové věci
- Podvod s klonováním hlasu využívá umělou inteligenci k autentické replikaci hlasů a využívá emoce a naléhavost.
- Podvodníci využívají data sociálních médií k vytváření věrohodných scénářů a využívají osobních pout.
- Buďte obezřetní a naučte se červené vlajky podvodů s hlasovými klony AI; zavěsit hovory a ověřit tísňové zprávy.
Je pozdě v noci. Vaši rodiče od vás dostanou hlasovou zprávu plnou paniky, že máte potíže, ukradli vám peněženku a uvízli jste uprostřed ničeho. Peníze vám musí být zaslány okamžitě, abyste se mohli dostat domů.
Hlas ve zprávě zní tak skutečně a je nepochybně hlasem jejich dítěte – jen to tak není. Je to hlasový klon AI a staly se terčem podvodu, který je tak špičkový jako mrazivě účinný.
Jak funguje podvod s klonováním hlasu AI?
Klonování hlasu dokáže vytvořit neuvěřitelně realistické digitální repliky hlasu člověka. Tato technika, běžně nazývaná audio deepfake, je vytvořen pomocí nástrojů pro klonování hlasu AI, jako je ElevenLabs (podívejte se na příklad hlasového klonu AI níže). V kombinaci s generativní AI a hlasovou syntézou může klonovaný hlas replikovat emoce, nuance, intonaci a dokonce i strach.
A pro informaci, zde je návod, jak Christian Cawley skutečně zní, když mluví v The Really Useful Podcast.
K vytvoření hlasového klonu AI je zapotřebí pouze malý vzorek hlasu – často jen minutu nebo méně. Vzorky hlasů jsou často převzaty z příspěvků na veřejných sociálních sítích, což činí videoblogery a influencery obzvláště zranitelnými, protože zvuková kvalita jejich příspěvků je vysoká a snadno dostupná.
Jakmile podvodníci naklonují vzorek hlasu, použijí převod textu na řeč nebo dokonce převod řeči na řeč v reálném čase k vytvoření falešných hovorů a hlasových zpráv.
Poté, co podvodník vstoupil na sociální média oběti a dal dohromady jejich osobní údaje, vytvoří uvěřitelný scénář. Může to být hospitalizace, zatčení, krádež, únos – cokoli, co vyvolává strach. Klonovaný hlas je pak použit k manipulaci člena rodiny, aby uvěřil, že milovaná osoba má vážné potíže.
Realismus hlasu a emocí v kombinaci se šokem a naléhavostí požadavku může převážit nad skepticismem, což vede k unáhleným rozhodnutím o převodu peněz nebo poskytnutí citlivých informací.
Proč jsou podvody s klonováním hlasu AI tak účinné
Stejně jako většina podvodů zaměřených na rodinu a přátele je podvod s klonováním hlasu AI účinný, protože využívá osobní vazby. Panika z přijetí tísňového volání od milované osoby může rychle zatemnit úsudek, což má za následek unáhlená rozhodnutí. Je to stejná taktika, která se používá při podvodech s quid pro, ale účinek je umocněn tím, že slyšíte hlas někoho blízkého.
Rodinní příslušníci osob s vysokou přítomností na sociálních sítích nebo cestující jsou zvláště ohroženi, protože jejich situace poskytuje věrohodný kontext pro podvodníkovo vymyšlené vyprávění. Podvodníci často sklízejí a používají soukromá data svých cílů ze svých veřejně přístupných účtů na sociálních sítích předem, díky čemuž jsou příběhy ještě přesvědčivější.
Klíčové příznaky podvodu s klonováním hlasu AI
Navzdory své propracovanosti se mohou podvody s hlasovými klony AI odhalit prostřednictvím konkrétních varovných signálů:
- Naléhavost: Podvodník vás přesvědčí, že se stane něco hrozného, pokud okamžitě nezasáhnete.
- Fakta: Podvodníci ne vždy znají celý příběh vašeho vztahu s cílem, takže věnujte pozornost nesrovnalostem.
- Neobvyklé požadavky: Žádosti o převody peněz na zahraniční bankovní účty nebo platby do kryptoměnové peněženky jsou běžnou taktikou.
Zvažování těchto faktorů při předložení hrozného scénáře je obtížné, ale mohlo by vás to zastavit před podvodem.
Co dělat, když máte podezření na podvod s klonováním hlasu AI
Pokud obdržíte hovor nebo hlasovou zprávu od svých blízkých v tísni, zůstaňte v klidu. Podvodníci se spoléhají na to, že zpanikaříte a stanete se emocionálními, protože to zvyšuje vaši zranitelnost vůči jejich taktice.
Pokud přijmete telefonní hovor
Pokud máte, byť jen na vteřinu, podezření, že hovor může být podvodným klonováním hlasu, okamžitě hovor zavěste. Nesdílejte žádné informace a nezapojujte se s podvodníky. Místo toho zavolejte svému milovanému zpět na známé číslo, abyste potvrdili pravost tísňového volání.
Další konverzace s podvodníky může riskovat, že váš hlas bude nahrán a naklonován.
Pokud obdržíte hlasovou zprávu
Pokud podvodníci zanechali hlasovou zprávu, okamžitě si uložte zvuk do telefonu nebo notebooku. Tento vzorek zvuku lze použít v nástroji pro klasifikaci řeči AI k určení, zda se jedná o lidský hlas. Tyto klasifikátory řeči AI fungují stejně jako detektory psaní AI. Jednoduše vložte zvukový soubor a klasifikátor jej označí jako vytvořený člověkem nebo umělou inteligencí.
Skvělým nástrojem pro provedení této kontroly je klasifikátor řeči ElevenLabs. ElevenLabs pohání většinu klonovacích platforem AI, takže je to ideální nástroj pro zjištění, zda byl hlas naklonován. Zde je návod, jak jej můžete použít k určení hlasu klonovaného AI:
V níže uvedeném příkladu člověk zaznamenal znepokojivou zprávu a nahrál ji do klasifikátoru. Můžete vidět, že byl označen jako s 2% pravděpodobností manipulace.
V dalším příkladu byla stejná znepokojivá zpráva vytvořena pomocí nástroje pro klonování hlasu AI. Pro lidské ucho jsou hlasy nerozeznatelné. Tento nástroj jej však označil za 98% pravděpodobnost, že bude generován AI.
I když se na tento klasifikátor nemůžete 100% spolehnout, může potvrdit vaše podezření na používání klonovaného hlasu. Pro potvrzení byste měli také kontaktovat svého blízkého na známém čísle.
Prevence je nejlepší obranou proti podvodům s klonováním hlasu AI
Někdy je nejlepší obranou proti high-tech podvodu řešení s nízkou technologií.
Vytvořte si offline heslo, které znají pouze blízcí se svou rodinou a přáteli. V případě zběsilého hovoru může být použití tohoto hesla spolehlivým způsobem, jak potvrdit identitu volajícího.
A konečně, uchovávání vašich soukromých informací mimo sociální média je obrovským krokem k zajištění toho, aby podvodníci nemohli získat dostatek informací k vytvoření příběhu. Pamatujte: Pokud nechcete, aby to všichni věděli, je nejlepší to na sociálních sítích nesdílet.