ChatGPT od spoločnosti OpenAI je mimoriadne populárny nástroj, ktorý používajú ľudia po celom svete. Problémom umelej inteligencie je ale fakt, že z času na čas trpí halucináciami. A práve vtedy poskytuje používateľom nepravdivé, prípadne nebezpečné informácie. Na jeden nedávny prípad upozornil aj Nyob, čo je mimovládna organizácia sídliaca vo Viedni, ktorá sa snaží presadzovať zákony na ochranu údajov (GDPR).
Nyob tvrdí, že ChatGPT môže vážne poškodiť dobrú povesť osoby. V minulosti napríklad táto umelá inteligencia falošne obvinila ľudí z korupcie, zneužívania detí, rôznych škandálov alebo dokonca z vraždy. Organizácia poukázala na prípad, ktorý sa nedávno stal jednému Nórovi.
ChatGPT vytvoril falošného vraha
Nórsky používateľ chcel zistiť, či má ChatGPT o ňom nejaké informácie. Chatbot mu poskytol odpoveď, ktorá ho šokovala. S istotou o tomto používateľovi tvrdil, že ide o odsúdeného vraha. Samozrejme, išlo o nepravdivý príbeh. Ako uvádza Nyob, tento prípad nie je jediný a organizácia preto podala na spoločnosť OpenAI už druhú sťažnosť. Nyob poukazuje na to, že ChatGPT môže produkovať hanlivé výsledky, ktoré narúšajú dobrú povesť používateľov a navyše porušujú aj zásadu presnosti údajov podľa GDPR.
Nór Arve Hjalmar Holmen bol chatbotom označený za odsúdeného zločinca, ktorý zavraždil dve zo svojich detí a pokúsil sa zavraždiť aj svojho tretieho syna. Falošný príbeh, ktorý vytvoril ChatGPT, navyše obsahoval aj skutočné prvky z osobného života používateľa. Medzi nimi bol napríklad skutočný počet detí a pohlavie jeho detí a tiež meno jeho rodného mesta. ChatGPT vo falošnom príbehu uviedol, že používateľ bol odsúdený na 21 rokov väzenia. Ako spresňuje Nyob: „Vzhľadom na kombináciu jasne identifikovateľných osobných údajov a falošných informácií je to nepochybne v rozpore s GDPR. Podľa článku 5 ods. 1 písm. d) musia spoločnosti zabezpečiť, aby osobné údaje, ktoré o jednotlivcoch poskytujú, boli presné.“

Nyob podal už druhú sťažnosť
Prvú sťažnosť podala organizácia Nyob už v apríli minulého roka. Vtedy žiadala OpenAI o opravu alebo vymazanie nesprávneho dátumu narodenia verejne známej osoby. OpenAI údajne tvrdil, že údaje nemôže opraviť. Namiesto toho môže blokovať údaje iba pri určitých výzvach, ale nepravdivé informácie zostávajú naďalej v systéme. Nyob toto považuje za vážne zlyhanie v oblasti GDPR. OpenAI sa navyše zbavuje zodpovednosti tým, keď uvádza, že „môže robiť chyby“ a používateľ by mal „skontrolovať dôležité informácie“. Ďalšia sťažnosť, ktorý Nyob podal na OpenAI, bola odoslané len nedávno a smerovala na nórsky Datatilsynet. Nyob navrhol, aby orgán na ochranu údajov uložiť spoločnosti OpenAI správnu pokutu. Chce tým zabrániť, aby v budúcnosti ChatGPT opäť nevytváral falošné informácie o používateľoch, ktoré môžu narušiť ich dobrú povesť.
Prečo má ChatGPT halucinácie?
Halucinácie umelej inteligencie sú bežné a netýkajú sa len nástroja ChatGPT. Ako uvádza Nyob, dôvodom je, že tieto veľké jazykové modely predpovedajú ďalšie najpravdepodobnejšie slovo ako odpoveď na výzvu od používateľa. Výsledkom potom je, že z času na čas sa objavia halucinácie. V praxi to znamená, že AI si môže vymyslieť príbeh. Nyob upozorňuje, že v niektorých prípadoch je to neškodné alebo dokonca zábavné, ale v iných prípadoch to môže mať katastrofálne následky pre životy ľudí. V médiách sa objavili viaceré vymyslené správy, za ktorými stála umelá inteligencia. Či už používate ChatGPT alebo inú AI, mali by ste ju brať s nadhľadom a rátať s tým, že informácie, ktoré vám poskytne, nie sú vždy presné alebo pravdivé.