Umelá inteligencia (AI) najmä v posledných mesiacoch zaznamenala obrovský rast a prenikla do útrob mnohých profesionálnych i neprofesionálnych sfér. To podnietilo vznik obáv ohľadne rizík, ktoré plynú z nedostatočného regulovania AI. Nie je tomu tak dávno, čo sa viacero veľkých mien podpísalo na dokument, ktorý žiada zavedenie bezpečnostných rámcov na reguláciu AI, a teda zmiernenie či eliminovanie potenciálnych hrozieb.
S jedným takýmto rámcom teraz prichádza spoločnosť Google. Ako uvádza server SecurityWeek, kalifornský gigant predstavil šesť základných krokov, ktorých dodržiavanie má zaistiť maximálnu bezpečnosť AI. Všetky z nich si zhrnieme v tomto článku.
Rozšírenie bezpečnostných základov do ekosystému AI
Mnohé existujúce bezpečnostné protokoly môžu byť rozšírené a/alebo zamerané na riziká umelej inteligencie. Podľa Google je kľúčové, aby tvorcovia či vývojári AI plnohodnotne využívali ľahko aplikovateľné bezpečnostné praktiky a nástroje, ako je napríklad obmedzenie prístupu používateľov či implementovanie systémov na prevenciu voči útokom.
Ako príklad uvádza útoky typu SQL Injection, čo je neoprávnené ošetrovanie alebo overovanie vstupov od používateľov a vkladanie príslušných údajov bez dostatočnej kontroly do SQL. Týmto spôsobom môžu útočníci získať prístup k citlivým údajom uloženým v databáze. Dokonca ich môžu aj pozmeniť či vymazať.
Rozšírenie povedomia o hrozbách, ktoré AI predstavuje
Google ďalej poukazuje na dôležitosť povedomia o hrozbách a rizikách, ktoré plynú z aktívneho používania AI systémov, ako aj následkov v prípade ich ignorovania. Nevedomé poškodenie dát umelej inteligencie môže negatívne ovplyvniť jej výstupy. Preto je potrebné výstupy AI dôsledne monitorovať a kontrolovať, čím sa odhalia algoritmické chyby či nepriateľské zásahy.
Inými slovami – organizácie používajúce AI musia mať plán na odhaľovanie bezpečnostných trhlín, ako aj na zmierňovanie rizík, ktoré vedú k riziku škodlivého alebo neobjektívneho rozhodovania systému.
Automatizácia bezpečnostných systémov, aby držala krok s pokročilými hrozbami
Google taktiež odporúča, aby organizácie automatizovali svoje bezpečnostné systémy tak, aby držali krok s neustále chytrejšími a zákernejšími útokmi. Taktiež apeluje na to, aby boli používatelia informovaní o dôležitých rozhodnutiach, ale aj o tom, čo určitá hrozba predstavuje a ako sa pred ňou dá efektívne chrániť.
Ľudský faktor má byť kľúčový nielen pre detekciu hrozby, ale aj pre odpoveď na ne. „Je to preto, lebo AI systémy môžu byť zaujaté alebo robiť chyby. Ľudský dozor je tak nevyhnutný na zaistenie eticky korektného a zodpovedného používania AI systémov,“ vysvetľuje Google.
Harmonizácia kontrol
Čoraz frekventovanejšie využívanie umelej inteligencie zdôrazňuje dôležitosť pravidelných kontrol na odhaľovanie rizík a prevenciu voči nim. Tieto kontroly by mali zahŕňať využitie dát na trénovanie modelov umelej inteligencie, ako aj kontinuálnu edukáciu zamestnancov, ktorí s nimi pracujú.
Prispôsobenie kontrolných mechanizmov a umožnenie rýchlej spätnej väzby
V tomto pravidle Google poukazuje na dôležitosť neustáleho testovania a vývoj používaných systémov. Do tohto procesu by mala byť zahrnutá aj spätná väzba od používateľov. Rovnako je podľa spoločnosti dôležité aj adekvátne monitorovanie, aktualizovanie a dolaďovanie modelov tak, aby boli schopné efektívne reagovať na útoky.
„Tým, že organizácie budú mať aktuálne informácie o najnovších metódach útokov, môžu prijať opatrenia na zmiernenie týchto rizík,“ vysvetľuje Google. Dodáva, že vnímanie spätnej väzby zabezpečí nielen zlepšenie obranných systémov, ale aj umelej inteligencie ako takej.
Analyzovanie rizík a ich vnímanie v kontexte okolitých procesov
V poslednom kroku Google poukazuje na dôležitosť pochopenia toho, ako sa AI využíva v rámci podnikových procesov. To zahŕňa posudzovanie rizikového profilu na základe konkrétnych prípadov použitia, citlivosti údajov a spoločnej zodpovednosti pri využívaní riešení poskytnutých tretími stranami.
„Implementujte politiky, protokoly a kontroly v oblasti ochrany osobných údajov, kybernetických rizík a rizík tretích strán počas celého životného vyklu modelov s cieľom usmerniť ich vývoj, implementáciu, monitorovanie a validáciu,“ odkazuje Google. V tomto súvise vyzdvihuje dôležitosť zostavenia silných bezpečnostných tímov.
Kľúč(e) k úspechu
Z uvedených krokov jasne vyplýva, že kľúčom k úspechu je podľa Google vytvorenie dostatočne silných bezpečnostných systémov, dôsledná informovanosť, vnímanie spätnej väzby a adekvátne inovovanie modelov. Pri dodržiavaní uvedených krokov sa možno potenciálne riziká úplne neodstránia, no dokážu sa zredukovať dostatočne na to, aby neviedli k výraznej škode. Rovnako pritom dokážu poslúžiť ako zdroj dát, ktorý možno využiť pri ďalšom trénovaní AI systémov.