10 etických dilemat generativní umělé inteligence, která nemůžeme ignorovat

Žádný sektor ani průmysl nezůstane nedotčen revoluční umělou inteligencí (AI) a jejími schopnostmi. A je to zejména generativní umělá inteligence, která vytváří rozruch mezi podniky, jednotlivci a lídry na trhu při transformaci světských operací.

Působivá schopnost generativní umělé inteligence generovat různorodý a vysoce kvalitní obsah – od textu a obrázků po videa a hudbu – významně ovlivnila řadu oblastí.

Podle výzkumu společnosti Acumen se očekává, že globální generativní trh AI dosáhne 208,8 miliardy dolarů do roku 2032mezi lety 2023 a 2032 rostla o CAGR 35,1 %.

Růst této výkonné technologie však přichází s několika etickými problémy a problémy, které nelze ignorovat, zejména ty, které se týkají ochrany osobních údajů, autorských práv, deepfakes a problémů s dodržováním předpisů.

V tomto článku se ponoříme hluboko do těchto generativních etických obav AI – jaké to jsou a jak jim můžeme předejít. Nejprve se však podívejme na Etické pokyny, které EU vytvořila v roce 2019 pro důvěryhodnou AI.

Etické pokyny pro důvěryhodnou AI

V roce 2019 byla ustavena skupina odborníků na AI na vysoké úrovni Etické pokyny pro důvěryhodnou umělou inteligenci (AI).

Tyto pokyny byly zveřejněny s cílem řešit potenciální nebezpečí AI v té době, včetně narušení dat a soukromí, diskriminačních praktik, hrozeb škodlivých dopadů na třetí strany, nepoctivé AI a podvodných aktivit.

Směrnice navrhuje tyto tři oblasti, na které se musí důvěryhodná AI spolehnout:

  • Etický: Musí respektovat etické hodnoty a zásady.
  • Zákonný: Musí respektovat všechny platné zákony a předpisy.
  • Robustní: Musí zajistit robustní zabezpečení z pohledu technického zabezpečení a sociálního prostředí.

Kromě toho směrnice také zdůraznila sedm klíčových požadavků, které musí systém umělé inteligence splňovat, aby byl považován za důvěryhodný. Požadavky jsou uvedeny:

  • Lidský dohled: Důvěryhodný systém umělé inteligence by měl posílit lidský dohled a inteligenci – umožnit lidem činit informovaná rozhodnutí podle jejich základních práv.
  • Technická bezpečnost a robustnost: Systémy umělé inteligence musí být odolné, přesné, spolehlivé a reprodukovatelné spolu se zajištěním záložního plánu pro případ, že by se něco pokazilo. To pomáhá předcházet a minimalizovat rizika jakéhokoli neúmyslného poškození.
  • Transparentnost dat: Datový systém AI musí být transparentní a musí být schopen vysvětlovat rozhodnutí, která přijímá, zúčastněným stranám. Kromě toho si lidé musí být vědomi a informováni o schopnostech a omezeních systému AI.
  • Soukromí a správa dat: Kromě zajištění bezpečnosti dat musí systém umělé inteligence zajistit adekvátní opatření pro správu dat s ohledem na kvalitu dat, integritu a legitimní přístup k datům.
  • Odpovědnost: Systémy umělé inteligence by měly implementovat mechanismy zajišťující odpovědnost, odpovědnost a slyšitelnost, které umožňují hodnocení dat, algoritmů nebo procesů návrhu.
  • Rozmanitost a nediskriminace: Důvěryhodná AI by se měla vyvarovat nespravedlivých předsudků, které mohou mít negativní důsledky. Místo toho by měl zajistit rozmanitost a spravedlnost a měl by být přístupný všem bez ohledu na jejich postižení.
  • Společenský a ekologický blahobyt: Systémy umělé inteligence by měly být šetrné k životnímu prostředí a udržitelné a měly by zajistit, že budou přínosem i pro budoucí generace.
  • I když tyto pokyny měly významný dopad na odvětví umělé inteligence, stále existují obavy, které se s nárůstem generativní umělé inteligence dokonce zvyšují.

    Generativní umělá inteligence a vzestup etických obav

    Když mluvíme o etice v AI, generativní AI přináší jedinečnou sadu výzev, zejména s příchodem generativních modelů, jako je OpenAI a ChatGPT.

      Jak odemknout podrobné statistiky streamování na Apple TV

    Zvláštní povaha generativní umělé inteligence vyvolává etické obavy, zejména v oblastech, jako je dodržování předpisů, bezpečnost a soukromí dat, kontrola, environmentální zájmy a autorská práva a vlastnictví dat.

    Například generativní umělá inteligence může generovat lidský text, včetně obrázků a videí, což vyvolává obavy z hlubokých padělků, generování falešných zpráv a dalšího škodlivého obsahu, který může způsobit škodu a šířit dezinformace. Kromě toho mohou jednotlivci také cítit ztrátu kontroly nad rozhodováním modelů AI na základě jejich algoritmů.

    Geoffrey HintonAI, takzvaný kmotr umělé inteligence, řekl, že vývojáři umělé inteligence se musí snažit pochopit, jak se modely umělé inteligence mohou snažit převzít kontrolu nad lidmi. Podobně se mnoho odborníků a výzkumníků na AI zajímá o schopnosti a etiku AI.

    Hlavní vědec AI na Facebooku a profesor NYU Yann LeCun říká, že problémy a obavy, které by umělá inteligence mohla vzbudit pro lidstvo, jsou „nesmyslně směšné“.

    Protože generativní umělá inteligence poskytuje organizacím a jednotlivcům nebývalé možnosti měnit a manipulovat s daty – řešení těchto problémů je nanejvýš důležité.

    Podívejme se na tyto obavy podrobněji.

    Vytváření a distribuce škodlivého obsahu

    Na základě textových výzev, které poskytujeme, systémy umělé inteligence automaticky vytvářejí a generují obsah, který může být přesný a užitečný, ale také škodlivý.

    Generativní systémy umělé inteligence mohou generovat škodlivý obsah záměrně nebo neúmyslně z důvodů, jako jsou halucinace umělé inteligence. Mezi nejvíce znepokojující situace patří technologie deepfake, která vytváří falešné obrázky, texty, zvuk a videa, manipuluje s identitou a hlasem osoby za účelem šíření nenávistných projevů.

    Příklady škodlivého generování a distribuce obsahu AI mohou zahrnovat:

    • E-mail nebo příspěvek na sociálních sítích vygenerovaný umělou inteligencí odeslaný a zveřejněný jménem organizace, který může obsahovat urážlivé a rozumné výrazy a poškozovat nálady jejích zaměstnanců nebo zákazníků.
    • Útočníci by také mohli využít deepfake k vytváření a distribuci videí generovaných umělou inteligencí, ve kterých se objevují veřejné osobnosti, jako jsou politici nebo herci, kteří říkají věci, které ve skutečnosti neřekli. Video s Barrackem Obamou je jedním z nejpopulárnějších příkladů deepfake.

    • Příkladem hlubokého falešného zvuku je, když nedávno podvodník předstíral únos klonování hlasu mladé dívky požádat o výkupné od své matky.

    Šíření takového škodlivého obsahu může mít vážné důsledky a negativní dopady na pověst a důvěryhodnost jednotlivce a organizace.

    Kromě toho může obsah generovaný umělou inteligencí zesílit předsudky tím, že se poučí z trénovacích datových souborů a vytvoří více zaujatý, nenávistný a škodlivý obsah, což z něj činí jedno z nejvíce znepokojujících etických dilemat generativní umělé inteligence.

    Vzhledem k tomu, že generativní modely umělé inteligence jsou trénovány na velkém množství dat, může to někdy vést k nejasnostem ohledně autority a autorských práv.

    Když nástroje umělé inteligence generují obrázky nebo kódy a vytvářejí videa, zdroj dat ze sady školicích dat, na kterou odkazuje, může být neznámý, v důsledku čehož mohou porušovat práva duševního vlastnictví nebo autorská práva jiných jednotlivců nebo organizací.

    Tato porušení mohou mít za následek finanční, právní a reputační poškození organizace, což má za následek nákladné soudní spory a veřejnou reakci.

    Porušení ochrany osobních údajů

    Základní trénovací data generativních AI velkých jazykových modelů (LLM) mohou obsahovat citlivé a osobní informace, nazývané také osobně identifikovatelné informace (PII).

    The Americké ministerstvo práce definuje PII jako údaje, které přímo identifikují jednotlivce s podrobnostmi, jako je jeho jméno, adresa, e-mailová adresa, telefonní číslo, rodné číslo nebo jiný kód nebo osobní identifikační číslo.

    Porušení dat nebo neoprávněné použití těchto dat může vést ke krádeži identity, zneužití dat, manipulaci nebo diskriminaci, což může mít právní důsledky.

      Staňte se člověkem k dispozici na Xboxu?

    Například model AI, trénovaná osobní lékařská data mohou neúmyslně vygenerovat profil, který se může velmi podobat skutečnému pacientovi, což vede k obavám o bezpečnost a ochranu osobních údajů a porušení nařízení Health Insurance Portability and Accountability Act (HIPAA).

    Amplifikace existujícího zkreslení

    Stejně jako model umělé inteligence je i generativní model umělé inteligence tak dobrý, jako je trénovací datový soubor, na kterém je trénován.

    Pokud tedy trénovací datový soubor obsahuje zkreslení, generativní AI zesílí toto existující zkreslení generováním zkreslených výstupů. Tyto předsudky obecně převládají ve stávajících společenských předsudcích a mohou zahrnovat rasistické, sexistické nebo neschopné přístupy v online komunitách.

    Podle Zpráva o indexu AI za rok 2022, 2021 vyvinul model s 280 miliardami parametrů, který představuje 29% nárůst zkreslení a úrovní toxicity. I když se AI LLM stávají schopnějšími než kdy jindy, stávají se také více zaujatými na základě existujících školicích dat.

    Dopad na role a morálku pracovní síly

    Generativní modely umělé inteligence zvyšují produktivitu pracovní síly automatizací běžných činností a prováděním každodenních úkolů, jako je psaní, kódování, analýza, generování obsahu, sumarizace, zákaznická podpora a další.

    Zatímco na jedné straně to pomáhá zvýšit produktivitu pracovní síly, na druhé straně růst generativní umělé inteligence znamená také ztrátu pracovních míst. Podle McKinseyho zprávaTransformace pracovní síly a přijetí umělé inteligence odhadují, že polovina dnešních úkolů a činností pracovní síly by mohla být automatizována mezi lety 2030 a 2060, přičemž rok 2045 je středním rokem.

    Ačkoli generativní přijetí umělé inteligence znamená ztrátu pracovní síly, neznamená to, že by došlo k nějakému zastavení nebo nutnosti omezit transformaci umělé inteligence. Místo toho budou muset zaměstnanci a pracovníci zvýšit kvalifikaci a organizace budou muset podporovat pracovníky při přechodu na jiné místo, aniž by o práci přišli.

    Nedostatek transparentnosti a vysvětlitelnosti

    Transparentnost je jedním ze základních principů etické umělé inteligence. Přesto je povaha generativní umělé inteligence černá, neprůhledná a vysoce komplexní, takže dosažení vysoké úrovně průhlednosti je náročné.

    Složitá povaha generativní umělé inteligence ztěžuje určení, jak dospěla ke konkrétní odpovědi/výstupu, nebo dokonce porozumět faktorům přispívajícím k jejímu rozhodování.

    Tento nedostatek vysvětlitelnosti a jasnosti často vyvolává obavy ze zneužití a manipulace s daty, přesnosti a spolehlivosti výstupů a kvality testování. To je zvláště důležité pro aplikace a software s vysokými sázkami.

    Zásah do životního prostředí

    Generativní modely umělé inteligence vyžadují značné množství výpočetního výkonu, zejména modely s většími měřítky. Díky tomu tyto modely spotřebovávají hodně energie, což má potenciální vysoce rizikové dopady na životní prostředí, včetně emisí uhlíku a globálního oteplování.

    I když jde o přehlížený faktor etické umělé inteligence, zajištění šetrnosti k životnímu prostředí je nezbytné pro udržitelné a energeticky účinné datové modely.

    Spravedlnost a spravedlnost

    Potenciál generativní umělé inteligence produkovat nevhodné, nepřesné, urážlivé a zaujaté reakce je dalším hlavním problémem, pokud jde o zajištění etiky v AI.

    Může vzniknout kvůli problémům, jako jsou rasově necitlivé poznámky ovlivňující marginalizované komunity a vytváření hluboce falešných videí a obrázků, které produkují zaujatá tvrzení, zkreslují pravdu a vytvářejí obsah, který poškozuje běžné stereotypy a předsudky.

    Odpovědnost

    Tréninkový proces vytváření a implementace generativních modelů umělé inteligence často komplikuje atribut odpovědnosti umělé inteligence.

    V případech nehod, kontroverzí a bezprecedentních okolností vede nedefinovaná hierarchie a struktura odpovědnosti k právním komplikacím, osočování a brání důvěryhodnosti značky.

    Bez pevné hierarchie odpovědnosti se tento problém může rychle zvrtnout, posílit image značky a poškodit pověst a důvěryhodnost značky.

    Autonomie a kontrola

    Generativní modely umělé inteligence automatizují úkoly a rozhodovací procesy v různých oblastech, jako je zdravotnictví, právo a finance, což vede ke ztrátě kontroly a individuální autonomie. Je to proto, že rozhodnutí jsou převážně řízena algoritmy AI namísto lidského úsudku.

      Jak procházet Chrome na vašem iPhone pomocí gest přejetí

    Například bez lidského zásahu může automatizovaný systém schvalování půjček řízený umělou inteligencí určit schopnost jednotlivce vzít si půjčku nebo bonitu na základě jejich kreditního skóre a historie splácení.

    Generativní modely umělé inteligence navíc někdy vedou ke ztrátě profesionální autonomie. Například v oblastech, jako je žurnalistika, umění a kreativní psaní, vytvářejí generativní modely umělé inteligence obsah, který je výzvou a soutěží s prací vytvořenou lidmi – což vyvolává obavy z vytěsnění pracovních míst a profesní autonomie.

    Jak zmírnit etické obavy s generativní AI? Řešení a osvědčené postupy

    Zatímco vývoj a technologický pokrok vedl ke generativní umělé inteligenci, která je pro společnost velkým přínosem, zásadní je také řešení etických problémů a zajištění odpovědných, regulovaných, odpovědných a bezpečných postupů umělé inteligence.

    Kromě tvůrců modelů umělé inteligence a jednotlivců je to také důležité pro podniky, které používají generativní systémy umělé inteligence k automatizaci svých procesů, aby zajistily nejlepší postupy umělé inteligence a řešily související etické problémy.

    Zde jsou osvědčené postupy, které musí organizace a podniky přijmout, aby zajistily etickou generativní umělou inteligenci:

    ✅ Investujte do robustního zabezpečení dat: Použití pokročilých řešení zabezpečení dat, jako je šifrování a anonymizace, pomáhá zabezpečit citlivá data, osobní údaje a důvěrné firemní informace – řeší etické obavy z porušení ochrany osobních údajů související s generativní umělou inteligencí.

    ✅ Zahrnout různé pohledy: Organizace musí začlenit různé pohledy do datového souboru školení AI, aby se snížila zaujatost a zajistila rovnost a spravedlivé rozhodování. To zahrnuje zapojení jednotlivců z různých prostředí a zkušeností a vyhýbání se navrhování systémů umělé inteligence, které poškozují nebo znevýhodňují určité skupiny jednotlivců.

    ✅ Zůstaňte informováni o prostředí AI: Prostředí AI se neustále vyvíjí s novými nástroji a technologiemi, což vede k novým etickým obavám. Podniky musí investovat zdroje a čas, aby porozuměly novým předpisům pro umělou inteligenci a zůstaly informovány o nových změnách, aby zajistily nejlepší postupy umělé inteligence.

    ✅ Implementace digitálních podpisů: Další odborníci na osvědčené postupy navrhují k překonání obav z generativní umělé inteligence používání digitálních podpisů, vodoznaků a technologie blockchain. To pomáhá vysledovat původ generovaného obsahu a identifikovat potenciální neoprávněné použití nebo manipulaci s obsahem.

    ✅ Vytvořte jasné etické pokyny a zásady používání: Stanovení jasných etických pokynů a zásad používání pro používání a vývoj AI je zásadní pro pokrytí témat, jako je odpovědnost, soukromí a transparentnost. Navíc pomocí zavedených rámců, jako je např AI rámec řízení rizik nebo Etické směrnice EU pro důvěryhodnou umělou inteligenci pomáhá předcházet zneužití dat.

    ✅ V souladu s globálními standardy: Organizace se musí seznámit s globálními standardy a směrnicemi, jako je např UNESCO etika umělé inteligence pokyny, které zdůrazňují čtyři základní hodnoty, včetně lidských práv a důstojnosti, rozmanitosti a začlenění, mírové a spravedlivé společnosti a ekologického rozkvětu.

    ✅ Podporujte otevřenost a transparentnost: Organizace musí podporovat transparentnost používání a vývoje AI, aby si vybudovaly důvěru u svých uživatelů a zákazníků. Pro podniky je zásadní, aby jasně definovaly fungování systémů umělé inteligence, jak se rozhodují a jak shromažďují a používají data.

    ✅ Důsledně vyhodnocovat a monitorovat systémy umělé inteligence: A konečně, důsledné hodnocení a monitorování systémů umělé inteligence je klíčové, aby byly v souladu a etické v souladu se stanovenými standardy a pokyny pro umělou inteligenci. Organizace proto musí pravidelně provádět hodnocení a audity umělé inteligence, aby se vyhnuly rizikům etických problémů.

    Závěr

    Zatímco generativní umělá inteligence nabízí významné výhody a přináší revoluci do mnoha odvětví, porozumění a řešení okolních etických problémů je zásadní pro podporu odpovědného a bezpečného používání umělé inteligence.

    Etické obavy kolem generativní umělé inteligence, jako je porušování autorských práv, porušování ochrany osobních údajů, šíření škodlivého obsahu a nedostatek transparentnosti, vyžadují přísné předpisy a etické pokyny, které zajistí správnou rovnováhu a robustní a odpovědné používání umělé inteligence.

    Organizace mohou využít sílu umělé inteligence na její maximální potenciál s minimálními nebo žádnými etickými riziky a obavami implementací a rozvojem etických pravidel a pokynů a dodržováním nejlepších postupů umělé inteligence.

    Dále se podívejte na statistiky/trendy umělé inteligence, které vám vyrazí dech.