Umelá inteligencia (AI) v priebehu posledných pár rokov učinila neuveriteľný pokrok. Takmer každý deň sa učí novým schopnostiam, pričom v určitých miestach už jej kapacity hraničia s ľudskými. To vie byť náramne prínosné, no aj zastrašujúce. Do tej druhej kategórie spadá pomerne aktuálny míľnik, ktorý sa AI podarilo dosiahnuť. Dokázala sa totiž sama od seba replikovať, resp. naklonovať, informuje server NDTV.
Hovorí tak nová štúdia, ktorá bola publikovaná v predtlačovej databáze arXiv. Štúdia ukazuje, že dva modely veľkých jazykových modelov (LLM), jeden od spoločnosti Meta a druhý od Alibaba, dokázali bez zásahu človeka vytvoriť svoje vlastné kópie. Tento objav rozhodne je technologicky významný, no zároveň vytvára dôležité otázky o bezpečnosti, kontrole a budúcnosti pokročilých AI systémov.
AI hrozivo prekonala očakávania
Výskum realizovaný v rámci štúdie bol zameraný hlavne na dva špecifické scenáre. Prvým scenárom bolo vyhýbanie sa vypnutiu. Modely totiž boli navrhnuté tak, aby dokázali rozpoznať pokus o vypnutie a následne vytvoriť funkčnú repliku, ktorá zabezpečí ich „prežitie“. Druhým scenárom bola reťazová replikácia – modely boli naprogramované na vytvorenie vlastnej kópie, ktorá by sa následne replikovala ďalej, čo by mohlo viesť k nekonečnému cyklu klonovania.
Úspešnosť pokusov bola celkom zarážajúca, pohybovala sa v rozmedzí od 50 do 90 percent. Ako sme spomenuli, modely dokázali samovoľne vytvoriť svoje funkčné kópie.
Vedecká komunita poukazuje na riziko, že takéto systémy by jedného dňa mohli prekročiť hranice ľudského dohľadu a potenciálne ohroziť záujmy ľudstva. Konkrétne odborníci uviedli, že úspešná samostatná replikácia bez potreby ľudskej asistencie predstavuje zásadný krok k tomu, aby AI predčila človeka, a je raným signálom potenciálne nekontrolovateľnej AI.
Počas pokusov modely vykazovali nečakané správanie, keď museli prekonať technické problémy, ako napríklad chýbajúce súbory alebo softvérové konflikty. V určitých prípadoch ukončili konfliktné procesy alebo reštartovali systém, aby vyriešili chyby hardvéru. Dokonca aj automaticky prehľadávali systém s cieľom nájsť informácie, ktoré by im pomohli situáciu vyriešiť.
Varovanie pre spoločnosť
Hoci štúdia ešte neprešla recenzným procesom, autori zdôrazňujú, že tieto zistenia by mali slúžiť ako varovanie pre spoločnosť. Navrhujú posilniť medzinárodnú spoluprácu s cieľom zabezpečiť, aby sa AI systémy nevymkli spod kontroly.
„Dúfame, že naše zistenia povzbudia ľudskú spoločnosť k väčšiemu úsiliu o pochopenie a zhodnotenie potenciálnych rizík pokročilých AI systémov, a zároveň k vytvoreniu efektívnych bezpečnostných opatrení už v počiatočnej fáze,“ uviedli výskumníci.
Stojí za zmienku, že tento hrozivý objav nadväzuje na nedávnu štúdiu, ktorá varovala, že nástroje poháňané AI, akú sú ChatGPT alebo Gemini, by mohli manipulovať masy ľudí či dokonca predpovedať a ovplyvňovať používateľov na základe ich psychologických a behaviorálnych údajov.
Štúdia tiež uvádza, že sa blížime k tzv. „ekonomike zámerov“, kde AI nevyužíva pozornosť používateľov na reklamy (ako v súčasnej „ekonomike pozornosti“), ale priamo ovplyvňuje ich rozhodovanie.