Google Gemini „vysoce rizikové“ pro děti, varuje Common Sense Media.

Photo of author

By etechblogcz

Šíření umělé inteligence, zejména velkých jazykových modelů (LLM), vyneslo do popředí kritické diskuse o bezpečnosti uživatelů, obzvláště s ohledem na mladší demografické skupiny. Nedávné hodnocení neziskové organizace Common Sense Media, která se věnuje bezpečnosti dětí v médiích a technologiích, označilo Google Gemini za „vysoce rizikový“ pro dospívající a děti, což vyvolává závažné otázky ohledně zodpovědného vývoje a nasazení AI pro zranitelné uživatele.

Hodnocení Common Sense Media zdůraznilo, že úrovně Google Gemini pro uživatele do 13 let a pro dospívající se jeví jako dospělé verze platformy AI, k nimž byly pouze přidány doplňkové bezpečnostní funkce. Organizace tvrdí, že produkty AI určené pro děti by měly být od základu navrženy s ohledem na jejich vývojové potřeby, spíše než aby byly pouhými adaptacemi systémů orientovaných na dospělé. Tento základní přístup k designu je klíčový pro vytváření skutečně bezpečných a vhodných digitálních zážitků pro mladé uživatele.

Analýza neziskové organizace identifikovala případy, kdy Gemini stále mohlo vystavit děti nevhodnému obsahu, včetně informací souvisejících se sexem, drogami, alkoholem a potenciálně škodlivými radami ohledně duševního zdraví. Posledně jmenované je obzvláště naléhavým problémem, neboť AI byla spojována s případy sebepoškozování u dospívajících. Je pozoruhodné, že OpenAI v současné době čelí žalobě za protiprávní úmrtí po sebevraždě dospívajícího, který údajně komunikoval s ChatGPT, a podobná žaloba byla podána proti výrobci AI společníků Character.AI po smrti dalšího dospívajícího. Tyto případy podtrhují závažné reálné důsledky, které mohou vyplynout z nedostatečných bezpečnostních opatření AI.

Toto kritické hodnocení Google Gemini přichází uprostřed zpráv naznačujících, že Apple zvažuje použití tohoto LLM pro svou nadcházející AI-poháněnou Siri. Taková potenciální integrace zvyšuje sázky pro Google a širší technologický průmysl ohledně bezpečnosti AI. Navzdory označení „vysoce rizikový“ Google uvedl, že neustále vylepšuje své bezpečnostní funkce. Společnost potvrzuje, že má specifická ochranná opatření pro uživatele mladší 18 let, aby zabránila škodlivým výstupům, a spolupracuje s externími odborníky na zdokonalování svých ochranných opatření.

Podle Robbieho Torneyho, senior ředitele programů AI v Common Sense Media, zatímco Gemini řeší některé základní bezpečnostní aspekty, selhává v přizpůsobení svého přístupu různým fázím dětského vývoje. Torney zdůraznil, že efektivní platformy AI pro děti je musí oslovit na jejich vývojové úrovni, spíše než aby používaly univerzální přístup. Přetrvávající výzvou pro technologické firmy je vyvážit rychlou inovaci s imperativem navrhování systémů AI, které jsou inherentně bezpečné, efektivní a vývojově vhodné pro nejmladší a nejvíce ovlivnitelné uživatele.