5 Způsobů, jak generativní AI už ničí sociální média

Generativní AI stále dělá vlny, zejména jak se sociální média snaží implementovat tuto technologii. Ovšem současně s tímto pokrokem přicházejí i významné nevýhody pro uživatele sociálních médií. Tento článek se zaměřuje na několik hlavních problémů, které generativní AI způsobuje na sociálních platformách, jakými jsou Facebook a Instagram. Pojďme se podívat na konkrétní výzvy, se kterými se uživatelé musí potýkat, a jak to mění způsob, jakým interagujeme s obsahem online.

1 Povodeň AI odpadků

Pokud jste častým uživatelem platforem, jako je Facebook, pravděpodobně jste narazili na AI odpadky. AI odpadky jsou výstupy generativní AI, které zahrnují surrealistické umění a nesmyslné recepty. Dokonce existuje X účet věnovaný AI odpadkům na Facebooku.

Často se tyto AI odpadky objevují ze spamových stránek snažících se stát virálními. A protože Facebook doporučuje virální obsah, můžete skončit s větším množstvím nesmyslů ve svém feedu, než je obvyklé. Generativní AI usnadnila vytváření těchto typů spamových příspěvků a kvalitní obsah je tak vytlačován z sociálních médií.

2 Ztráta ještě větší autenticity

Dontree_M/Shutterstock

Sociální média nejsou známa svou autenticity. Často influenceři ukazují útržky ze svých životů převážně s cílem vytvořit si dokonalý obraz nebo prodat produkt, za který byli placeni.

Ale AI vzdalují tuto neautenticitu ještě dále. TikTok testuje virtuální influencery, kteří umožní podnikům inzerovat uživatelům pomocí digitálně vytvořeného avatara, podle SocialMediaToday. Mezitím Instagram testuje funkci, která umožňuje influencerům vytvářet AI boty, kteří odpovídají fanouškům v zprávách. Tento test oznámil generální ředitel Meta, Mark Zuckerberg, ve svém vysílacím kanálu na Instagramu.

Tato diluce toho, co málo autenticity na sociálních médiích je, se netýká pouze influencerů. AI se používá i k generování uživatelských příspěvků na sociálních sítích, jako je Reddit a X (Twitter). I když chatboti, kteří to dokážou, existovali již nějakou dobu, spuštění velkých jazykových modelů ztěžuje rozlišování mezi tím, co je skutečné, a co ne. Každý den, který strávím na Redditu, nevyhnutelně zahrnuje uživatele obviňující ostatní z používání AI k psaní příspěvků nebo příběhů.

AI platformy od společností sociálních médií jsou stále ve fázi vývoje, což znamená, že stále dělají chyby. Některé z těchto chyb přispívají k dezinformacím nebo snižují důvěru uživatelů v platformu.

Příklad: Meta AI odpověděla na příspěvek ve facebookové skupině, kde se uživatel ptal na rady ohledně „2e“ (dvakrát výjimečného) dítěte, které je zapsáno v programu pro nadané a talentované studenty, jak uvedl Sky News. Naštěstí byly odpovědi Meta AI jasně označeny na Facebooku, takže uživatelé mohli poznat, že odpověď není skutečná. Přesto to vyvolává otázku důvěryhodnosti AI nástrojů, jako je Meta AI, když se zapojují do konverzací, do kterých nemají co mluvit.

Mezitím byl Grok AI (AI chatbot X) kritizován za šíření dezinformací. Jedním z těchto případů bylo obvinění NBA hráče Klay Thompsona z vandalismu poté, co AI nesprávně interpretovala basketbalový slang, který nazývá střely, jež neprojdou košem, „cihlami“.

4 Uvědomení si teorie mrtvého internetu

Teorie mrtvého internetu je myšlenka, že drtivá většina obsahu na internetu je generována boty. I když se to dříve dalo lehce zesměšnit, nyní to vypadá stále pravděpodobněji, jak jsme zaplaveni AI spamem a odpověďmi na sociálních platformách.

Fakt, že sociální sítě integrují boty jako uživatele, činí tuto myšlenku realistickější než dříve. Dokonce to vedlo ke spuštění Butterflies AI, sociální platformy, kde někteří uživatelé jsou ve skutečnosti pouze AI boty. I když mohou být boti užiteční na sociálních médiích, předstírat, že jsou jinými uživateli, mi prostě nepřipadá atraktivní.

Z pohledu každodenního uživatelského zážitku usnadnila generativní AI spamovým botům napodobovat skutečné uživatele. Nedávno jsem zveřejnil příspěvek na X, abych si objednal umělecké dílo, a můj inbox se zaplnil odpověďmi od botů. Rozlišit skutečné uživatele od botů je stále obtížnější.

5 Lidé potřebují najít způsoby, jak chránit svůj obsah před AI scrapingem

Uživatelé hledají různé způsoby, jak se pokusit chránit svůj obsah před použitím v AI datasetech. Ale ne vždy je to tak jednoduché jako se odhlásit. Pokud jsou vaše příspěvky veřejné, je pravděpodobné, že byly již využity k trénování AI.

V důsledku toho se uživatelé snaží o náhradní způsoby ochrany svých dat. To zahrnuje přechod na soukromé profily a také znečištění dat. Použití Nightshade k znečištění uměleckých děl nemá vliv na to, jak uživatelé vidí obrázky, ale jiné formy znečištění dat mohou mít dopad na obsah, který vidíme na sociálních médiích.

Pokud více uživatelů přejde na soukromé profily na veřejnějších sociálních sítích, bude stále obtížnější objevovat uživatele a obsah, který se vám líbí. A jak se umělci vzdávají platforem, které poskytují tréninková data pro generativní AI, lidé, kteří si chtějí jen vychutnat jejich práci, přijdou zkrátka, pokud se nepřesunou na specializované platformy.

Ačkoli existují určité způsoby využití generativní AI na těchto platformách, někteří lidé by argumentovali, že generativní AI na sociálních médiích vlastně ani nepotřebujeme. Ale bez ohledu na to, co si myslíme, generativní AI již fundamentálně změnila sociální média v několika ohledech.

Souhrn: Generativní AI přináší na sociální média mnoho výzev, včetně ohromného množství odpadkového obsahu, ztráty autenticity, vzniku teorií o mrtvém internetu a problémů s dezinformacemi. Uživatelé se snaží najít způsoby, jak chránit svůj obsah a udržet kvalitní interakce v online prostředí, což bude stále důležitější, jak se technologie vyvíjí.