DeepSeek, čínska umelá inteligencia, vstúpila na trh s prísľubom konkurovať západným AI modelom. Najväčšie otázniky vyvoláva jej zaobchádzanie s používateľskými údajmi. Na rozdiel od niektorých západných riešení, ktoré ponúkajú krátkodobé konverzačné relácie a minimalizujú dlhodobé uchovávanie, DeepSeek môže ukladať väčší objem dát na dlhšie obdobie. Používatelia tak nemajú jasný prehľad, čo sa s ich údajmi deje po tom, ako model použijú.
Navyše, v Číne platia iné pravidlá pre zber a využitie dát. Západné krajiny podliehajú prísnejším predpisom, zatiaľ čo čínska legislatíva umožňuje použitie informácií vo verejnom záujme, no verejným záujmom sa môže nazývať aj to, čo prospeje komunistickej strane. DeepSeek teda môže slúžiť nielen na rozvoj AI, ale aj na prípadné doplnenie databáz o používateľoch. Takto sa spomína paralela s problémom, ktorý musela riešiť aplikácia TikTok.
Varovanie priamo od NBÚ
V dôsledku viacerých rizík vstúpil do hry aj slovenský Národný bezpečnostný úrad. Jeho predstavitelia vyjadrili obavy z nedostatočného zabezpečenia, ktoré by mohlo viesť k tvorbe profilov používateľov a následnému zneužitiu týchto informácií. Upozornili, že v promptoch a konverzáciách s AI môžu ľudia uvádzať citlivé detaily o svojom živote, povolaní či zdravotnom stave, pričom pri voľnejšom režime ukladania by takéto dáta mohli padnúť do nesprávnych rúk.
Nejde len o únik samotných textov, ale aj o zraniteľnosti operačných systémov, pre ktoré by mohla AI hľadať špecifické „diery“. Keď systém pozná detaily o type zariadenia či softvéru, cez ktorý ho používate, teoreticky vie odhadnúť, aké slabiny by mohol útočník využiť.
Politická cenzúra a vplyv režimu
Model DeepSeek sa líši od svojich západných alternatív aj tým, že podlieha cenzúre citlivých tém z čínskej histórie. Za takú je považovaná napríklad krvavá udalosť na pekinskom námestí Tchien-an-men z konca 80. rokov, o ktorej DeepSeek údajne odmieta poskytovať informácie alebo rovno popiera jej realitu. Tento fakt nastoľuje dilemu, nakoľko je čínska AI schopná ponúknuť neskreslený pohľad na dôležité udalosti.
Na rozdiel od západných AI modelov, ktoré blokujú témy spojené s kriminálnymi činnosťami (napr. návod na výrobu výbušnín), DeepSeek môže vynechávať či cenzurovať historické a politické témy. Táto situácia vedie k neistote, či vôbec môžeme model považovať za neutrálny zdroj informácií.
Obchádzanie bezpečnostných filtrov
Veľa diskusií vyvoláva aj skutočnosť, že DeepSeek je náchylný na tzv. manipulatívne techniky, ktoré západné modely už zväčša potlačili. V praxi to môže znamenať, že stačí zmeniť formu zadania a AI je ochotná vydať informácie, ktoré by bežne mala blokovať. Bezpečnostní experti považujú tieto medzery za ukážku, že model ešte potrebuje značné úpravy a prísnejšie kontroly.
V západných systémoch existujú viacvrstvové ochrany proti žiadostiam nabádajúcim k nelegálnym či neetickým aktivitám. DeepSeek však, podľa analýz, môže byť ľahšie zmanipulovaný, ak ho používateľ presvedčí, že obsah bude použitý pre „výskumné“ alebo fiktívne ciele.
Výrazné chyby v zabezpečení databáz
Zásadným problémom sa stalo nedávne odhalenie od tímu Wiz Research, ktorí narazili na verejne dostupnú databázu prepojenú s DeepSeek. Nevyžadovala ani základné overenie. Databáza obsahovala chatovú históriu, rôzne tajné kľúče i detailné informácie o vnútornej infraštruktúre. V prípade, že by na tieto dáta narazili útočníci so zlým úmyslom, mohli by nielen kradnúť osobné údaje, ale aj meniť či vymazávať záznamy, čo by mohlo vyústiť do rozsiahlych škôd.
Našťastie, spoločnosť spravujúca DeepSeek zareagovala po upozornení a databázu zabezpečila. Otázne však je, či a do akej miery mohol byť únik dát zneužitý, kým prišlo k náprave. Vzhľadom na to, že odborníci narazili na túto chybu rýchlo, je možné, že iní útočníci mohli urobiť to isté.
Čo čakať ďalej?
DeepSeek aj napriek svojim nedostatkom vyvoláva pozornosť a môže byť signálom, že Čína chce v AI segmente konkurovať veľkým západným firmám. No súčasné zistenia o cenzúre, bezpečnostných „dierach“ a nejasnej ochrane osobných údajov stavajú tento model do pozície rizikovej alternatívy. Národné bezpečnostné úrady v Európe aj inde vo svete upozorňujú používateľov, aby s novými modelmi zaobchádzali opatrne a vyhýbali sa zadávaniu citlivých informácií.
V najbližších mesiacoch sa tak môže očakávať intenzívnejšie kontrolovanie, prípadne i regulácia tohto typu AI zo strany rôznych štátov. Spoločnosti, ktoré chcú DeepSeek nasadiť do firemného prostredia, budú musieť zvážiť nielen prínos a konkurencieschopnosť, ale aj etické hľadiská a bezpečnosť svojich dát. Je teda evidentné, že nová AI ukazuje nielen potenciál, ale aj riziká, ktoré s ňou idú ruka v ruke.