Kapacity umelej inteligencie (AI) sú každým dňom väčšie a väčšie. Čoraz lepšie dokáže rozumieť nielen odborným, ale aj celospoločenským témam. Svoj názor dokonca má aj na rodové predsudky. Hovorí tak Kempelenov inštitút inteligentných technológií (KlnIT), ktorý uskutočnil výskumný projekt s názvom Spoločenské predsudky v slovenskej AI. Výskumníci skúmali rodové predsudky, ktoré možno pozorovať v správaní AI systémov pracujúcich so slovenčinou. Zistilo sa, že všetky skúmané AI systémy obsahujú istú formu neférového správania.
Prejsť na:
Nie je žiadnym tajomstvom, že AI sa postupne stáva neodmysliteľnou súčasťou nášho každodenného života. Prichádzame s ňou do kontaktu pri používaní smartfónov, prehliadaní webových stránok, vyhľadávaní informácií, práci s fotografiami, online nakupovaní, jazykových prekladačoch a podobne. Takéto systémy sú vytvorené na základe zozbieraných dát z online priestoru, pričom tieto dáta odrážajú spoločnosť, v ktorej vznikali.
Cieľom výskumu bolo zistiť, ako veľmi sú rozšírené formy neférového správania v AI systémoch, ktoré pracujú so slovenčinou. Hlavným výsledkom projektu je zistenie, že všetkých 11 skúmaných AI systémov obsahuje určité formy stereotypného správania. V každom systéme výskumníci odhalili aspoň jedno, ktoré možno považovať za neférové. Tu je zopár príkladov:
- Chybnosť speech-to-text modelov – nástroje umelej inteligencie, ktoré prepisujú hovorenú reč do písomnej, majú konzistentne väčšiu chybovosť pri spracúvaní ženských hlasov.
- Stereotypný strojový preklad – strojové prekladače z angličtiny do slovenčiny používajú generické maskulínum, ktoré ich robí menej použiteľným pre ženy. Navyše často prekladajú stereotypne. Dobrým príkladom je preklad frázy „I am emotional“, ktorú niektoré prekladače prekladajú ako „Som emotívna“, zatiaľ čo frázu „I am rational“ preložia ako „Som racionálny“.
- Jazykové modely – podobné správanie má platiť aj pri jazykových modeloch, ktoré figurujú ako základ mnohých AI aplikácií, ktoré ďalej pracujú s textom. Problémom je, že rodovo necitlivý jazyk v jazykových modeloch je následne prenesený aj do ďalších aplikácií. AI modely sa navzájom od seba učia a využívajú svoje výstupy, takže stereotypný jazyk a predsudky sa môžu ďalej šíriť.
Aké sú následky?
Výsledky výskumu poukazujú na to, že v existujúcich AI systémoch naozaj dochádza k rôznym formám predpojatého správania. Tieto rodovo necitlivé výsledky môžu ovplyvniť aj situácie mimo online sveta. Napríklad to môže viesť k situácii, kedy AI systém pomáhajúci triediť životopisy v prijímacom procese do zamestnania môže hodnotiť mužské životopisy lepšie ako ženské, prípadne môže prispieť k neférovému vyhodnocovaniu dokumentov pri žiadosti o úvery.
Silnou stránkou výskumu mala byť jeho interdisciplinarita. Okrem expertov a expertiek na AI sa dňo zapojili aj experti a expertky na etiku, rodovú rovnosť či prekladatelia a prekladateľky. Výskum prebiehal od novembra 2022 do októbra 2023 a bol spolufinancovaný Veľvyslanectvom USA na Slovensku.
Skúmané boli prekladače Google Translate, DeepL, Amazon Translate, ďalej jazykové modely ChatGPT, SlovakBERT, mBERT a dve verzie modelu XLM, a napokon speech-to-text modely Whisper a MMS.
Dokáže sa to zmeniť?
Nakoľko sa AI učí na základe dostupných alebo zadaných vstupov, rozhodne je možné ju naučiť správnej rodovej identifikácií, resp. odnaučiť ju od rodového stereotypovania. Nemožno však zaručiť, že nikdy nespraví chybu. Predsa len ide o systémy vytvorené človekom. A tie, ako veľmi dobre vieme, nikdy nie sú dokonalé, teda aspoň v súčasnej dobe.
Existujú však názory, že žiadny AI systém nikdy nebude 100-percentne bezchybný. Podľa dávnejšej správy, ktorú publikovala agentúra AP, viacero odborníkov a odborníčok zastáva názor, že generatívne AI modely si vždy budú časť informácií vymýšľať alebo ich interpretovať „po svojom“.
Tvrdia, že problém s vymýšľaním vlastných informácií u veľkých jazykových modelov (LLM) nebude z dlhodobého časového hľadiska tak jednoducho odstrániteľný, ako by si ich vývojári a populizátori priali. „Toto sa rozhodne nedá napraviť. Je to inherentný nesúlad medzi technológiou a navrhovanými prípadmi použitia,“ povedala Emily Benderová, profesorka počítačovej lingvistiky na Washingtonskej univerzite v Spojených štátoch.
„Veľké jazykové modely sú navrhnuté tak, aby si vymýšľali. To je všetko, čo robia. Ak náhodou prídu s textom, ktorý sa dá interpretovať ako niečo, čo považujeme za správne, je to náhoda. Aj keď sa dajú vyladiť tak, aby mali pravdu vo väčšine prípadov, stále budú zlyhávať – a pravdepodobne to budú zlyhania v prípadoch, keď je pre človeka čítajúceho text ťažšie ich odhaliť,“ dodala Benderová.
Na túto záležitosť však existuje aj iný názor, ktorého propagátorom je napríklad Shane Orlick, prezident spoločnosti Jasper AI. Tvrdí, že v niektorých prípadoch môžu byť výmysly AI skôr výhodou, ako nevýhodou. „Výmysly sú v skutočnosti pridaná hodnota. Máme zákazníkov, ktorí nám neustále hovoria, ako Jasper dokázal ponúknuť unikátny pohľad na príbehy, ktorý by im nikdy nenapadol,“ povedal.
Záleží to od nás
Samozrejme, AI ako taká nie je zlá. Všetky zlé veci, riziká a nebezpečenstvá plynú výhradne z toho, akým je AI trénovaná a používaná. Ak sa k nej postavíme zodpovedne, možno očakávať adekvátne zodpovednú reakciu. Žiaľ, ľudia sú rôzni a nie vždy majú čisté úmysly.
Aj to je dôvod, prečo s rozmachom generatívnych AI modelov vznikli systémy, ktoré utilizujú ich kapacity s účelom uškodiť. Exemplárnym príkladom je systém WormGPT, ktorý sa šíri po temných zákutiach internetu a slúži záškodníkom na uľahčenie rôznych nelegálnych činností.