Evropské centrum pro digitální práva [NOYB] podalo v Norsku stížnost na americkou OpenAI kvůli šíření lživých informací o konkrétních lidech prostřednictvím chatbotu ChatGPT. Úřad to oznámil v tiskové zprávě.
Podle Evropského centra pro digitální práva [nezisková organizace se sídlem ve Vídni založená v roce 2017, pozn. red.] jazykový model ChatGPT s prvky umělé inteligence [AI] opakovaně generuje nepravdivé informace. Avšak patří mezi ně i poškozující informace, včetně falešných obvinění z trestné činnosti. A tím tento zázrak strojového učení podle centra porušuje legislativu na ochranu osobních údajů.
Konkrétní případ, na který NOYB upozorňuje, se týká norského občana Arveho Hjalmara Holmena. Právě i jeho jménem podalo centrum stížnost. Jedná se o skutečně zajímavý případ výstupu umělé inteligence.
Arve Hjalmar Holmen zjistil, že ChatGPT o něm vytvořil smyšlený příběh, podle nějž byl odsouzen za vraždu svých dvou dětí a pokus o vraždu třetího potomka. Kromě těchto nepravdivých informací chatbot zahrnul do odpovědí i skutečné osobní údaje poškozeného Nora, včetně jeho rodiště a počtu jeho dětí.
„Obyčejní lidé se mohou stát obětí falešných obvinění, která mohou vážně poškodit jejich pověst,“ uvedl právník NOYB Joakim Söderberg specializující se na ochranu osobních údajů.
OpenAI navíc podle něj neposkytuje žádný mechanismus, jak chybné informace opravit nebo odstranit. Podle NOYB se v důsledku výše uvedených skutečností nesprávná data nadále šíří a nelze se proti tomu účinně bránit.
OpenAI šíří nepravdivé a velmi vážné informace
Podle právníků NOYB umožňuje společnost OpenAI vědomě šíření zavádějících informací. A tím porušuje zásadu přesnosti dat podle jednoho z článků nařízení Evropského parlamentu a Rady EU 2016/679 ze dne 27. dubna 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů – GDPR.
Čínský DeepSeek zaskočil Západ i investory. Co bude dál, se uvidí
Zastánci OpenAI uvádí, že uvedený případ, kdy vygenerované informace odporují skutečnosti, a dokonce poškozují daný subjekt, není nijak ojedinělý. Prakticky každý strojem vytvořený obsah zahrnuje nějaké chyby, argumentují. Toto podle nich souvisí s takzvanými halucinacemi. V kontextu AI a jazykových modelů jsou „halucinace“ označením pro vygenerované odpovědi, které obsahují nepravdivé nebo zavádějící informace. Může jít rovněž o výsledek nedostatečných, neaktuálních nebo zkreslených trénovacích dat.
Je čím dál více žádoucí, aby lidé mysleli kriticky, říká expert na AI
Centrum NOYB přesto požaduje, aby OpenAI odstranila zavádějící informace, upravila svůj model tak, aby podobným chybám předcházela, a zavedla mechanismus pro opravu chybných údajů. Centrum zároveň navrhlo, aby norský úřad pro ochranu osobních údajů OpenAI udělil pokutu jako varování před dalšími podobnými případy.
ChatGPT není první platforma, kterou napadlo centrum
NOYB, což je zkratka z anglických slov None of Your Business [Do toho vám nic není], je rakouská spotřebitelská organizace sídlící ve Vídni. Zabývá se ochranou soukromí napříč Evropou. Založil ji rakouský právník a aktivista v oblasti ochrany soukromí Max Schrems. Za cíl si klade strategické soudní případy a mediální iniciativy na podporu obecného nařízení o ochraně osobních údajů GDPR.
NOYB se zaměřuje na otázky ochrany soukromí a porušování soukromí ve veřejném a soukromém sektoru. Podle článku 80 GDPR předpokládá, že neziskové organizace mohou podniknout kroky nebo zastupovat uživatele. NOYB je uznávána jako „kvalifikovaný subjekt“ pro podávání hromadných žalob spotřebitelů v Belgii.
Rakouské Centrum pro digitální práva stojí za loňskými stížnostmi v několika zemích EU a Norsku na firmu Meta kvůli záměru využívat uživatelská data na síti Facebook k trénování AI. Uspěla i se stížností na platformu X kvůli způsobu, kterým sbírá data uživatelů pro trénování svých systémů AI.