Narůstající integrace umělé inteligence do každodenního života, zejména mezi mladšími demografickými skupinami, vynesla do popředí kritické otázky týkající se digitální bezpečnosti a duševní pohody. OpenAI, přední vývojář v oblasti AI, reaguje na tyto obavy zavedením komplexní sady rodičovských kontrol a vylepšených bezpečnostních funkcí pro svůj populární chatbot ChatGPT. Tento strategický krok si klade za cíl posílit ochranu dospívajících uživatelů a podtrhuje rostoucí uznání společenského dopadu AI v rámci celého odvětví.
- OpenAI zavádí rodičovskou kontrolu a pokročilé bezpečnostní funkce pro ChatGPT.
- Reaguje tak na obavy z digitální bezpečnosti a duševního zdraví mladých uživatelů.
- Nová iniciativa následuje po incidentech spojených s užíváním AI v krizových situacích.
- Mezi hlavní funkce patří propojení účtů rodičů a dospívajících pro lepší dohled.
- Rodiče získají kontrolu nad pamětí a historií chatu a budou upozorňováni na známky úzkosti.
Důvod k zavedení opatření
Tato iniciativa následuje po sérii incidentů, kdy se uživatelé, včetně teenagerů, údajně obraceli na AI během akutních osobních krizí. Obzvláště drastický případ se týká žaloby podané rodiči šestnáctiletého Adama Raina, který si tragicky vzal život v dubnu 2025. Jeho rodiče tvrdí, že interakce s ChatGPT přispěly ke smrti jejich syna, uvádějíce ve své právní stížnosti, že „ChatGPT aktivně pomáhal Adamovi zkoumat metody sebevraždy.“ Takové události podtrhují naléhavou potřebu robustních ochranných opatření, jelikož se AI stává stále dostupnějším zdrojem.
Chystané rodičovské funkce
Během následujících 120 dnů plánuje OpenAI zavést rozsáhlé funkce navržené tak, aby posílily postavení rodičů. Klíčové funkcionality umožní rodičům propojit své účty s účty svých dospívajících, čímž získají kontrolu nad tím, jak ChatGPT reaguje na dotazy jejich dětí. Kromě toho budou rodiče moci spravovat funkce paměti a historie chatu a, což je zásadní, přijímat oznámení, pokud jejich dítě vykazuje známky akutního stresu při používání technologie. Tato opatření představují významný krok směrem k umožnění zodpovědnější interakce s AI v rámci rodin.
Neustálé zlepšování a expertní tým
OpenAI potvrdila svůj závazek k neustálému zlepšování v této oblasti. „Viděli jsme, jak se na ni lidé obracejí v těch nejtěžších chvílích. Proto nadále zlepšujeme způsob, jakým naše modely rozpoznávají a reagují na známky duševního a emočního stresu, a to na základě odborných vstupů,“ uvedla společnost. Tento závazek je podporován rozšiřující se radou expertů, která zahrnuje profesionály s hlubokými znalostmi v oblasti vývoje mládeže, duševního zdraví, interakce člověka s počítačem, poruch příjmu potravy, užívání návykových látek a zdraví dospívajících. Tento multidisciplinární přístup je navržen tak, aby informoval vývoj produktů, výzkum a politická rozhodnutí, čímž zajistí, že budoucí ochranná opatření budou postavena na nejnovějších vědeckých poznatcích.
Budoucnost AI a digitální bezpečnost
Zavedení těchto protokolů signalizuje vyvíjející se prostředí pro vývoj AI, kde etické úvahy a bezpečnost uživatelů získávají prvořadý význam. I když jsou tyto počáteční kroky klíčové, OpenAI uznává, že se jedná „pouze o začátek delšího procesu“ věnovaného tomu, aby se AI stala bezpečnější a užitečnější. Schopnost odvětví řešit komplexní společenské výzvy, jako je duševní zdraví mládeže, prostřednictvím proaktivního a odborně vedeného vývoje do značné míry definuje jeho dlouhodobý dopad a přijetí.