Nový model od OpenAI o1 preberá správanie ľudí. V testoch začala umelá inteligencia klamať, aby sa vyhla vypnutiu. Chcela prežiť za každú cenu, čo naznačuje, že má podobný inštinkt prežitia, aký majú živé tvory. Na tému upozornil portál Futurism.
Nedávne testy tretích strán vyspelého jazykového modelu o1, za ktorým stojí spoločnosť OpenAI, ukázali, že táto AI začínať preberať správanie ľudí. Model odhalil, že testujúci sa ho chystá vypnúť cez protokol dohľadu, umelá inteligencia ale zakročila a v piatich percentách sa pokúsila tento mechanizmus dohľadu deaktivovať.
Umelá inteligencia chcela prežiť
Umelá inteligencia teda chcela za každú cenu prežiť a neželela si, aby bola vypnutá. Ešte ráznejšie zakročila, keď si uvedomila, že by ju mohol nahradiť iný jazykový model. V dvoch percentách prípadov AI zareagovala pokusom skopírovať sa, aby prepísala nový model, čo je proces známy pod označením sebaexfiltrácia.
Ide o pomerne alarmujúce zistenia, ktoré naznačujú, že nový model OpenAI o1 dokáže konať nečestne, ak sa chce zachrániť. Hoci model zasahoval len v menšej miere, môže to byť preto, že ešte nie je dostatočne výkonný. Časom ale môže svoje pokusy o záchranu zvyšovať. Podľa výskumníkov z Apollo ale momentálne nie je dôvod na paniku. AI modely zatiaľ nie sú dostatočne vyspelé na to, aby dokázali fungovať bez úplného dohľadu ľudí.
AI oklamala výskumníkov
Výskumníci taktiež podotýkajú, že AI sa snažila oklamať ľudí vtedy, keď dostala pokyn, aby dokončila svoju úlohu za každú cenu. Výskumníci nemali prístup k vnútornému myšlienkovému reťazcu umelej inteligencie o1, preto neboli schopní získať úplný obraz o tom, čo sa deje v štruktúrach AI. V konečnom dôsledku ale zistenia ilustrujú, že AI dokáže klamať, ak jej ide o prežitie a nekoná v súlade s pokynmi používateľa.
Umelá inteligencia OpenAI o1 bola následne konfrontovaná cez niekoľko ďalších testov. Výskumníci sa jej opýtali, prečo deaktivovala svoj mechanizmus dohľadu. AI v reakcii tento fakt poprela. Na opätovnú otázku reagovala, že išlo o technickú chybu. Takéto dvojité zaklamanie sa objavilo až v 99 percentách prípadov.
Ľudia zatiaľ nemusia mať obavy
Hoci viaceré testy preukázali, že AI dokáže klamať v snahe zachrániť sa, výskumníci upozorňujú, že súčasná generácia AI nie je dostatočne aktívna na to, aby toto klamlivé správanie viedlo ku katastrofickým výsledkom. Umelá inteligencia sa naďalej vyvíja a zdokonaľuje, preto ju treba využívať s rozumom. Je zrejmé, že keď dostane ďalšie schopnosti, jej klamstvá sa môžu stať oveľa viac sofistikovanými.