AI a finanční podvody: Nové hrozby pro bezpečnost a regulatorní odpověď

Photo of author

By etechblogcz

Rychlý pokrok umělé inteligence (AI) sice slibuje převratné inovace, zároveň však představuje rostoucí rizika, zejména v oblasti finanční bezpečnosti. Značné obavy vzbuzuje potenciál sofistikovaných podvodů řízených umělou inteligencí, což dokládají varování lídrů v oboru ohledně zranitelnosti zavedených autentizačních metod. Toto nově vznikající prostředí hrozeb vyžaduje naléhavou pozornost finančních institucí a regulačních orgánů, aby ochránily spotřebitele a zachovaly integritu trhu.

  • Sam Altman z OpenAI varoval před zranitelností autentizace pomocí digitálního hlasového ID pro transakce vysoké hodnoty.
  • AI umožňuje přesné klonování lidských hlasů, tzv. audio deepfake, což představuje přímou hrozbu pro finanční bezpečnost.
  • AI zrychluje kybernetické útoky a umožňuje zločincům provádět vysoce přesvědčivé a personalizované podvody v bezprecedentním měřítku.
  • Federální obchodní komise (FTC) v roce 2024 dokončila pravidlo proti zneužití identity a zahájila výzvu k vývoji řešení pro detekci klonování hlasu.

Sam Altman, generální ředitel OpenAI, nedávno vyjádřil značné obavy z blížící se podvodné krize, konkrétně zdůraznil nejistou závislost na autentizaci pomocí digitálního hlasového ID pro transakce vysoké hodnoty. Na regulační bankovní konferenci pořádané Federálním rezervním systémem Altman zdůraznil, že zlomyslní aktéři by brzy mohli zneužít technologii replikace hlasu, což by umožnilo neoprávněné převody velkých finančních částek. Tato zranitelnost, jak poznamenal, není novým problémem, neboť odborníci na kybernetickou bezpečnost na ni upozorňují již několik let.

Vyvíjející se krajina hrozeb

Jádro této eskalující hrozby spočívá ve schopnosti umělé inteligence klonovat lidské hlasy s pozoruhodnou přesností. Jak podrobně popsala Asociace certifikovaných vyšetřovatelů podvodů (ACFE) v červnu 2024, AI využívá pokročilé algoritmy a neuronové sítě k pečlivé analýze a napodobování individuálních hlasových vzorců, tónu a kadence. Zatímco technologie deepfake zpočátku získala proslulost prostřednictvím vizuálního obsahu, jako jsou zmanipulovaná videa, rozvoj audio deepfaků se stal kritickým problémem, který představuje přímou hrozbu pro finanční bezpečnost prostřednictvím potenciálních neoprávněných transakcí.

Kromě klonování hlasu umělá inteligence zásadně přetváří širší prostředí kybernetické bezpečnosti. Diskuze na konferenci RSA 2025 v San Francisku zdůraznily, jak umělá inteligence nejen zrychluje tempo kybernetických útoků, kdy k prolomení dochází za méně než hodinu, ale také umožňuje zločincům provádět vysoce přesvědčivé a personalizované útoky v bezprecedentním měřítku. Konzultační firma McKinsey podrobně popsala, jak hackeři využívají nástroje umělé inteligence – od vytváření sofistikovaných phishingových e-mailů a falešných webových stránek až po tvorbu deepfake videí a vkládání škodlivých příkazů – k obcházení konvenčních detekčních mechanismů. Blogový příspěvek McKinsey z května 2025 výstižně shrnul tuto dynamiku: „AI je dnes největší hrozbou – i obranou – v kybernetické bezpečnosti,“ což zdůrazňuje dvojí povahu této mocné technologie.

Uprostřed těchto rostoucích obav se rozsah rozvoje infrastruktury umělé inteligence nadále rozšiřuje. Například OpenAI se podílí na masivních projektech, jako je iniciativa infrastruktury Stargate, což podtrhuje hlubokou integraci a šíření schopností umělé inteligence napříč technologickými a ekonomickými sektory. Tato rychlá expanze dále zdůrazňuje potřebu robustních bezpečnostních rámců pro zmírnění souvisejících rizik.

Regulační reakce a úsilí o zmírnění rizik

V reakci na tyto všudypřítomné hrozby přijímají regulační orgány proaktivní opatření. Například Federální obchodní komise (FTC) zavedla několik preventivních akcí k detekci, odrazení a zastavení zneužití identity souvisejícího s umělou inteligencí. Pozoruhodné je, že FTC v roce 2024 dokončila pravidlo speciálně navržené k boji proti zneužití identity vládních subjektů a podniků. Dále agentura spustila výzvu k vývoji řešení pro klonování hlasu, což je strategická iniciativa zaměřená na stimulaci vývoje inovativních řešení pro ochranu spotřebitelů identifikací a prevencí neoprávněného použití softwaru pro klonování hlasu.