Integrace nástrojů umělé inteligence do vzdělávacích prostředí přináší složité etické a bezpečnostní otázky, jak dokládá nedávný incident týkající se studenta z Floridy a ChatGPT. Tento případ podtrhuje zásadní potřebu důkladného dohledu a vzdělávání v oblasti digitální gramotnosti, aby bylo možné zvládnout potenciální důsledky interakcí s AI ve školním prostředí.
Třináctiletý student z Delandu na Floridě byl zadržen úřady poté, co položil znepokojivou otázku chatbotu ChatGPT. Dotaz, údajně „jak zabít svého přítele uprostřed hodiny“, byl označen systémem Gaggle, který monitoruje online aktivity studentů. Tento automatizovaný výstražný systém následně informoval školní správu, která věc postoupila policii.
Po vyšetřování student tvrdil, že otázka byla zamýšlena jako vtip nebo „trolling“ namířený na spolužáka, s nímž se neshodl. Policisté však zdůraznili, že taková prohlášení, bez ohledu na záměr, jsou v rámci školní jurisdikce považována za důvěryhodné hrozby, což vyžaduje vážnou a okamžitou reakci k zajištění bezpečnosti studentů.
Úřad šerifa okresu Volusia označil incident za ostré připomenutí toho, jak se zdánlivě neformální nebo mylné dotazy mohou zvrhnout v potenciální nouzové situace. Úředníci z úřadu šerifa a školní správy zopakovali důležitost rodičovského vedení při vzdělávání dětí o vážných důsledcích jejich online komunikace, zejména při interakci s technologiemi AI.
Tato událost slouží jako klíčový zlom v diskurzu o AI ve školách. Posiluje nutnost digitálního občanství a zodpovědného zapojení do pokročilých technologií. Správa zdůraznila, že i když hrozby nejsou vědomě zlomyslné, jejich potenciál narušit a ohrozit vzdělávací komunitu nelze přehlížet.
V reakci na tyto obavy vývojáři AI, jako je OpenAI, údajně zkoumají vylepšené bezpečnostní funkce pro své platformy. Tato vylepšení zahrnují rodičovské kontroly a nástroje pro správu soukromí s cílem vytvořit bezpečnější prostředí pro mladší uživatele. Incident podtrhuje širší výzvu k akci pro rodice a pedagogy, aby proaktivně monitorovali a instruovali děti o bezpečném a etickém používání všech online nástrojů.
Stojí za zmínku, že právní rámce se také vyvíjejí, aby řešily dokazovací problémy, které představuje obsah generovaný AI. Například Nejvyšší soud Ukrajiny rozhodl proti přípustnosti odpovědí z modelů AI, jako jsou Grok a ChatGPT, jako důkazů v právních řízeních.