10 etických dilemat generativní umělé inteligence, která nemůžeme ignorovat

Revoluce generativní umělé inteligence: etické výzvy a řešení

Žádný obor ani odvětví nezůstává stranou vlivu převratné umělé inteligence (AI) a jejích schopností. Zejména generativní umělá inteligence vyvolává rozruch mezi firmami, jednotlivci a vedoucími trhu, neboť mění zaběhlé postupy.

Impozantní schopnost generativní AI produkovat rozmanitý a kvalitní obsah – od textu a obrazů po videa a hudbu – výrazně zasáhla do mnoha oblastí.

Podle analýzy společnosti Acumen se předpokládá, že celosvětový trh s generativní AI dosáhne 208,8 miliardy dolarů do roku 2032, s průměrným ročním růstem (CAGR) 35,1 % mezi roky 2023 a 2032.

Nicméně, s rozvojem této mocné technologie se objevuje řada etických a problémových otázek, které nelze ignorovat, především v souvislosti s ochranou soukromí, autorskými právy, deepfakes a dodržováním regulací.

V tomto článku se podrobně zaměříme na etické obavy spojené s generativní AI, na jejich podstatu a na to, jak jim můžeme předejít. Nejdříve se však podíváme na etické směrnice pro důvěryhodnou AI, které Evropská unie (EU) stanovila v roce 2019.

Etické směrnice pro spolehlivou AI

V roce 2019 byla vytvořena skupina odborníků na umělou inteligenci na vysoké úrovni, která představila Etické směrnice pro důvěryhodnou umělou inteligenci (AI).

Tyto směrnice byly publikovány s cílem reagovat na potenciální rizika, která AI v té době představovala, včetně narušení dat a soukromí, diskriminačních praktik, hrozeb škodlivých dopadů na třetí strany, nepoctivé AI a podvodných aktivit.

Směrnice navrhuje následující tři pilíře, na kterých by měla důvěryhodná AI stát:

  • Etický: Musí respektovat etické hodnoty a principy.
  • Právní: Musí respektovat všechny platné zákony a předpisy.
  • Robustní: Musí zaručit spolehlivé zabezpečení z technického hlediska i z pohledu společenských dopadů.

Kromě toho směrnice zdůraznila sedm klíčových požadavků, které musí systém umělé inteligence splňovat, aby byl považován za důvěryhodný. Požadavky jsou následující:

  • Lidský dohled: Důvěryhodný systém AI by měl posilovat lidský dohled a inteligenci a umožňovat lidem činit informovaná rozhodnutí v souladu se svými základními právy.
  • Technická bezpečnost a robustnost: Systémy AI musí být spolehlivé, přesné, stabilní a reprodukovatelné, a zároveň musí zajistit záložní řešení pro případ selhání. Tím se pomáhá předcházet a minimalizovat rizika neúmyslného poškození.
  • Transparentnost dat: Datový systém AI musí být transparentní a musí být schopen vysvětlit rozhodnutí, která přijímá, zainteresovaným stranám. Kromě toho si lidé musí být vědomi schopností a omezení systému AI.
  • Ochrana soukromí a správa dat: Kromě zajištění bezpečnosti dat musí systém AI zajistit adekvátní opatření pro správu dat s ohledem na kvalitu, integritu a legitimní přístup k datům.
  • Odpovědnost: Systémy AI by měly zavést mechanismy, které zajišťují odpovědnost, dohled a audit, což umožní hodnocení dat, algoritmů a procesů návrhu.
  • Diverzita a nediskriminace: Důvěryhodná AI by se měla vyvarovat nespravedlivých předsudků, které by mohly mít negativní dopady. Naopak, měla by zajišťovat rozmanitost a spravedlnost a měla by být přístupná všem bez ohledu na jejich handicap.
  • Společenský a environmentální blahobyt: Systémy AI by měly být ohleduplné k životnímu prostředí, udržitelné a měly by zajišťovat přínos i pro budoucí generace.

Přestože tyto směrnice významně ovlivnily sektor umělé inteligence, stále existují obavy, které s nárůstem generativní AI dokonce narůstají.

Generativní AI a nárůst etických obav

V kontextu etiky v AI představuje generativní AI jedinečnou sadu výzev, zejména s příchodem generativních modelů, jako je OpenAI a ChatGPT.

Specifická povaha generativní AI vyvolává etické obavy, zejména v oblastech, jako je dodržování regulací, bezpečnost a soukromí dat, kontrola, environmentální zájmy a autorská práva a vlastnictví dat.

Například generativní AI dokáže vytvářet text, obrázky a videa, což vyvolává obavy z deepfakes, generování falešných zpráv a dalšího škodlivého obsahu, který může způsobit škodu a šířit dezinformace. Navíc mohou jednotlivci pociťovat ztrátu kontroly nad rozhodováním modelů AI na základě jejich algoritmů.

Geoffrey Hinton, tzv. „kmotr umělé inteligence“, upozornil, že vývojáři AI by se měli snažit pochopit, jak se modely AI mohou snažit převzít kontrolu nad lidmi. Mnoho dalších odborníků a výzkumníků v oblasti AI sdílí obavy ohledně schopností a etiky AI.

Naopak, hlavní vědec AI ve společnosti Facebook a profesor NYU, Yann LeCun, tvrdí, že obavy o to, že by AI mohla představovat ohrožení lidstva, jsou „absurdně směšné“.

Vzhledem k tomu, že generativní AI dává organizacím i jednotlivcům nebývalé možnosti manipulovat s daty, je řešení těchto problémů nanejvýš důležité.

Podívejme se na tyto obavy podrobněji.

Generování a šíření škodlivého obsahu

Systémy AI na základě textových podnětů, které jim zadáme, automaticky vytvářejí obsah, který může být přesný a užitečný, ale i škodlivý.

Generativní AI systémy mohou produkovat škodlivý obsah záměrně nebo neúmyslně z důvodů, jako jsou halucinace AI. Mezi nejzávažnější situace patří deepfake technologie, která vytváří falešné obrazy, texty, zvuky a videa, manipuluje s identitou a hlasem osoby za účelem šíření nenávistných projevů.

Příklady škodlivého generování a šíření obsahu AI mohou zahrnovat:

  • E-mail nebo příspěvek na sociálních sítích, který je vygenerován AI a odeslán jménem organizace, může obsahovat urážlivé a nevhodné výrazy a poškodit náladu zaměstnanců nebo zákazníků.
  • Útočníci mohou také využít deepfake k vytváření a šíření videí generovaných AI, ve kterých se objevují veřejné osobnosti, jako jsou politici nebo herci, a říkají věci, které ve skutečnosti neřekli. Video s Barrackem Obamou je jedním z nejznámějších příkladů deepfake.

Šíření takového škodlivého obsahu může mít vážné důsledky a negativní dopad na pověst a důvěryhodnost jednotlivce i organizace.

Obsah generovaný AI navíc může zesilovat předsudky tím, že se učí z trénovacích dat a vytváří tak ještě zaujatější, nenávistný a škodlivý obsah, což z něj činí jedno z nejzávažnějších etických dilemat generativní AI.

Porušování autorských práv

Vzhledem k tomu, že generativní modely AI jsou trénovány na obrovském množství dat, může to někdy vést k nejasnostem ohledně autorství a autorských práv.

Když nástroje AI vytvářejí obrázky, kódy nebo videa, zdroj dat z trénovací sady dat, na kterou odkazují, může být neznámý, což vede k porušování práv duševního vlastnictví nebo autorských práv jiných jednotlivců či organizací.

Tato porušení mohou mít za následek finanční, právní a reputační škody pro organizaci, a to včetně nákladných soudních sporů a negativní reakce veřejnosti.

Porušování ochrany osobních údajů

Trénovací data velkých jazykových modelů (LLM) generativní AI mohou obsahovat citlivé a osobní informace, tzv. osobně identifikovatelné informace (PII).

Americké ministerstvo práce definuje PII jako údaje, které přímo identifikují jednotlivce, jako je jméno, adresa, e-mail, telefonní číslo, rodné číslo nebo jiný kód či osobní identifikační číslo.

Narušení dat nebo neoprávněné použití těchto dat může vést ke krádeži identity, zneužití dat, manipulaci nebo diskriminaci, což může mít právní důsledky.

Například model AI, trénovaný na osobních zdravotnických datech, může neúmyslně vygenerovat profil, který se velmi podobá skutečnému pacientovi, což vyvolává obavy o bezpečnost a ochranu osobních údajů a porušuje nařízení HIPAA (Health Insurance Portability and Accountability Act).

Zesílení existujících předsudků

Stejně jako model AI, tak i generativní model AI je jen tak dobrý, jako je datový soubor, na kterém je trénován.

Pokud trénovací datový soubor obsahuje předsudky, generativní AI je zesílí generováním zaujatých výstupů. Tyto předsudky obvykle odrážejí stávající společenské předsudky a mohou zahrnovat rasistické, sexistické nebo diskriminační přístupy v online komunitách.

Podle Zprávy o indexu AI za rok 2022, byl v roce 2021 vyvinut model s 280 miliardami parametrů, který vykazoval 29% nárůst v předsudcích a toxicitě. I když se AI LLM stávají výkonnějšími, zároveň se stávají také více zaujatými na základě stávajících trénovacích dat.

Dopad na pracovní místa a morálku

Generativní modely AI zvyšují produktivitu pracovníků automatizací běžných činností a plněním každodenních úkolů, jako je psaní, kódování, analýza, generování obsahu, sumarizace, zákaznická podpora a další.

Zatímco na jedné straně to pomáhá zvýšit produktivitu pracovníků, na druhé straně růst generativní AI s sebou nese riziko ztráty pracovních míst. Podle zprávy společnosti McKinsey, která se zabývá transformací pracovních sil a přijetím AI, se odhaduje, že polovina dnešních úkolů a činností pracovníků by mohla být automatizována mezi roky 2030 a 2060, přičemž rok 2045 je považován za střední bod.

Ačkoli přijetí generativní AI s sebou nese riziko ztráty pracovních míst, neznamená to, že by se měl vývoj AI zastavit nebo omezit. Spíše bude nutné, aby se zaměstnanci a pracovníci přeškolili a organizace musely podporovat pracovníky při přechodu na jiné pozice, aniž by přišli o zaměstnání.

Nedostatek transparentnosti a vysvětlitelnosti

Transparentnost je jedním ze základních principů etické AI. Přesto je povaha generativní AI komplikovaná a neprůhledná, což ztěžuje dosažení vysoké úrovně transparentnosti.

Složitá povaha generativní AI ztěžuje určení, jak dospěla ke konkrétní odpovědi nebo výstupu, nebo dokonce pochopení faktorů, které k jejímu rozhodování přispěly.

Tento nedostatek vysvětlitelnosti a jasnosti často vyvolává obavy ze zneužití a manipulace s daty, přesnosti a spolehlivosti výstupů a kvality testování. To je zvláště důležité u aplikací a softwaru s vysokými sázkami.

Dopad na životní prostředí

Generativní modely AI vyžadují značný výpočetní výkon, zejména modely s rozsáhlými parametry. V důsledku toho tyto modely spotřebovávají mnoho energie, což má potenciální negativní dopad na životní prostředí, včetně emisí uhlíku a globálního oteplování.

Přestože se jedná o často opomíjený aspekt etiky AI, zajištění ohleduplnosti k životnímu prostředí je nezbytné pro udržitelné a energeticky efektivní datové modely.

Spravedlnost a rovnost

Potenciál generativní AI vytvářet nevhodné, nepřesné, urážlivé a zaujaté reakce představuje další závažný problém v souvislosti se zajištěním etiky v AI.

To může být způsobeno problémy, jako jsou rasově necitlivé výroky, které postihují marginalizované komunity, a vytváření deepfake videí a obrázků, které šíří zaujatá tvrzení, zkreslují pravdu a vytvářejí obsah, který posiluje běžné stereotypy a předsudky.

Odpovědnost

Proces vytváření a implementace generativních modelů AI často komplikuje stanovení odpovědnosti v rámci AI.

V případech nehod, kontroverzí a nečekaných situací vede nedefinovaná hierarchie odpovědnosti k právním komplikacím, obviňování a ohrožuje důvěryhodnost značky.

Bez pevné hierarchie odpovědnosti se tento problém může rychle vymknout kontrole, poškodit image a pověst značky i její důvěryhodnost.

Autonomie a kontrola

Generativní modely AI automatizují úkoly a rozhodovací procesy v různých oblastech, jako je zdravotnictví, právo a finance, což vede ke ztrátě kontroly a individuální autonomie. Je to proto, že rozhodnutí jsou převážně řízena algoritmy AI namísto lidského úsudku.

Například automatizovaný systém schvalování půjček řízený AI může bez lidského zásahu rozhodnout o schopnosti jednotlivce získat půjčku nebo jeho úvěruschopnosti na základě jeho kreditního skóre a historie splácení.

Generativní modely AI navíc někdy vedou ke ztrátě profesionální autonomie. Například v oblastech, jako je žurnalistika, umění a kreativní psaní, generativní modely AI vytvářejí obsah, který je výzvou a konkuruje tvorbě lidské práce, což vyvolává obavy ze ztráty pracovních míst a profesionální autonomie.

Jak zmírnit etické obavy spojené s generativní AI? Řešení a doporučené postupy

Zatímco vývoj a technologický pokrok přinesly generativní AI, která je pro společnost velkým přínosem, je také zásadní řešit etické problémy a zajistit odpovědné, regulované, bezpečné a spolehlivé praktiky v oblasti AI.

Kromě tvůrců modelů AI a jednotlivců je to také důležité pro podniky, které využívají generativní AI systémy k automatizaci svých procesů, aby zajistily dodržování nejlepších postupů v oblasti AI a řešily související etické problémy.

Zde jsou doporučené postupy, které musí organizace a podniky přijmout, aby zajistily etické používání generativní AI:

✅ Investujte do robustního zabezpečení dat: Použití pokročilých řešení zabezpečení dat, jako je šifrování a anonymizace, pomáhá zabezpečit citlivá data, osobní údaje a důvěrné firemní informace, a tak řešit etické obavy z narušení soukromí související s generativní AI.

✅ Zahrňte různé perspektivy: Organizace musí do trénovacích dat AI zahrnout různé perspektivy, aby snížily zaujatost a zajistily rovnost a spravedlivé rozhodování. To zahrnuje zapojení jednotlivců z různých prostředí a zkušeností a vyhýbání se navrhování systémů AI, které by poškozovaly nebo znevýhodňovaly určité skupiny jedinců.

✅ Zůstaňte informováni o vývoji AI: Prostředí AI se neustále vyvíjí s novými nástroji a technologiemi, což s sebou přináší i nové etické obavy. Podniky musí věnovat zdroje a čas tomu, aby porozuměly novým předpisům v oblasti AI a sledovaly nové změny, aby zajistily dodržování nejlepších postupů v oblasti AI.

✅ Implementujte digitální podpisy: Další odborníci v oblasti doporučených postupů navrhují k překonání obav z generativní AI využívání digitálních podpisů, vodoznaků a technologie blockchain. To pomáhá vysledovat původ generovaného obsahu a identifikovat potenciální neoprávněné použití nebo manipulaci s obsahem.

✅ Vytvořte jasné etické směrnice a zásady používání: Stanovení jasných etických směrnic a zásad používání pro využití a vývoj AI je zásadní pro pokrytí témat, jako je odpovědnost, soukromí a transparentnost. Navíc využívání zavedených rámců, jako je Rámec EU pro řízení rizik v oblasti umělé inteligence nebo Etické směrnice EU pro důvěryhodnou umělou inteligenci pomáhá předcházet zneužití dat.

✅ Sladění s globálními standardy: Organizace se musí seznámit s globálními standardy a směrnicemi, jako jsou Pokyny UNESCO pro etiku umělé inteligence, které zdůrazňují čtyři základní hodnoty, včetně lidských práv a důstojnosti, rozmanitosti a inkluze, mírové a spravedlivé společnosti a ekologické prosperity.

✅ Podporujte otevřenost a transparentnost: Organizace musí podporovat transparentnost používání a vývoje AI, aby si vybudovaly důvěru u svých uživatelů a zákazníků. Pro podniky je zásadní jasně definovat, jak systémy AI fungují, jak se rozhodují a jak shromažďují a využívají data.

✅ Důsledně vyhodnocujte a monitorujte systémy AI: A konečně, důsledné hodnocení a monitorování systémů AI je klíčové pro to, aby byly v souladu s etickými standardy a pokyny pro AI. Organizace musí pravidelně provádět hodnocení a audity AI, aby se vyhnuly rizikům etických problémů.

Závěr

Generativní umělá inteligence nabízí významné výhody a revoluci v mnoha odvětvích, proto je pochopení a řešení souvisejících etických problémů zásadní pro podporu odpovědného a bezpečného používání AI.

Etické obavy týkající se generativní AI, jako je porušování autorských práv, porušování ochrany soukromí, šíření škodlivého obsahu a nedostatek transparentnosti, vyžadují striktní předpisy a etické směrnice, které zajistí správnou rovnováhu a robustní a odpovědné používání AI.

Organizace mohou využít sílu AI na její maximální potenciál s minimálními nebo žádnými etickými riziky a obavami implementací a rozvojem etických pravidel a pokynů a dodržováním nejlepších postupů v oblasti AI.

Dále se podívejte na statistiky/trendy umělé inteligence, které vám vyrazí dech.