Nie každý veľký výtvor vznikal čestne. Je to smutné, ale je to tak. A po novom sa dozvedáme, že čiastočne je takýmto prípadom aj najznámejší model umelej inteligencie od spoločnosti OpenAI. Tá sa otvorene priznala, že svoj model GPT-4 trénovala na prepisoch z viac ako milióna hodín videí publikovaných na YouTube. O téme píše portál The Verge na základe informácií denníka The Wall Street Journal.
Denník začiatkom tohto týždňa informoval, že spoločnosti zamerané na umelú inteligenciu narážajú na značný problém, pokiaľ ide o zhromažďovanie kvalitných údajov na trénovanie svojich modelov. Riešiť sa ho pritom snažia rôznymi spôsobmi. A výnimkou nie je ani OpenAI.
Vyvinuli model, aby mohli trénovať iný model
OpenAI v zúfalej snahe spraviť z GPT-4 ten najlepší model umelej inteligencie vyvinula systém na prepis zvuku s názvom Whisper. Práve s jeho pomocou dokázala obísť prekážky a získať prepisy viac ako milióna hodín videí na YouTube. S nimi potom trénovala GPT-4.
Samozrejme, ide právne spornú praktiku. A spoločnosť si to veľmi dobre uvedomovala. Napriek tomu ho však presadzovala za spravodlivé. Situáciu ešte väčšmi zhoršuje skutočnosť, že na zhromažďovaní použitých videí sa podieľal aj Greg Brockman, prezident OpenAI.
Lindsay Heldová, hovorkyňa OpenAI, v e-mailovej správe pre The Verge uviedla, že spoločnosť pre každý zo svojich modelov zaobstaráva „jedinečné“ súbory údajov, aby im pomohla „pochopiť svet“. Tým si OpenAI taktiež zabezpečuje potrebnú konkurencieschopnosť v oblasti globálneho výskumu. Heldová dodala, že spoločnosť využíva „množstvo zdrojov, vrátane verejne dostupných údajov a partnerstiev pre neverejné údaje“, a že sa snaží vytvárať vlastné syntetické údaje.
Problémom je, že spoločnosť vyčerpala svoje zásoby užitočných údajov ešte v roku 2021. Následne začala diskutovať o prepise videí z YouTube, podcastov a audiokníh. Až dovtedy trénovala svoje modely na údajoch, ktoré zahŕňali kód z Githubu, databázy šachových ťahov a obsah školských úloh z Quizletu.
Zakázaná praktika
Záležitosť komentoval aj Matt Bryant, hovorca Google. Ten pre The Verge uviedol, že gigant „zaznamenal nepotvrdené správy“ o činnosti OpenAI. Dodal, že súbory obots.txt, ako aj podmienky používania zakazujú neoprávnené sťahovanie alebo kopírovanie obsahu z YouTube. Podobne sa vyjadril aj Neal Mohan, generálny riaditeľ platformy.
Mohan taktiež prehovoril o možnosti, že OpenAI využila prepisy videí na YouTube aj na trénovanie svojho nedávno predstaveného modelu Sora. Hovorca Google skonštatoval, že spoločnosť prijíma „technické a právne opatrenia“, aby zabránila takémuto neoprávnenému využívaniu obsahu, keď na to má jasný právny alebo technický základ.
Aj Google mal využiť prepisy z YouTube na trénovanie svojho modelu AI, avšak Bryant uviedol, že model bol cvičený na určitom obsahu z platformy za dodržania uzavretých dohôd s tvorcami.
Problémy mala aj Meta
V tréningovom procese narazila na bariéru aj spoločnosť Meta. Tá vraj taktiež pôvodne diskutovala o nepovolenom použití diel chránených autorským právom, aby čo najrýchlejšie dobehla OpenAI. Potom vraj mala zvažovať iné kroky, ako napríklad zaplatenie licencií na knihy či kúpu celého vydavateľstva. V spôsoboch, akými môže využívať údaje o spotrebiteľoch, ju však zrejme do istej miery obmedzovali zmeny v oblasti ochrany osobných údajov, ku ktorým musela pristúpiť po vypuknutí škandálu Cambridge Analytica.
Prečítajte si tiež:
- Apple prekvapuje: Má nový AI systém, ktorý dokáže prekonať aj GPT-4
- Mal to byť AI obchod bez pokladní: Ukázalo sa, že Amazon zamestnával 1 000 Indov, ktorí nadiaľku sledovali, čo nakupujete
- AI získava strašidelné schopnosti: OpenAI testuje model, ktorý v priebehu sekúnd zreplikuje ľudský hlas
Samozrejme, modely umelej inteligencie sa dajú trénovať aj legálnym spôsobom. Spoločnosti ich môžu trénovať napríklad na syntetických údajoch, ktoré si vytvoria vlastnými modelmi, prípadne ich môžu trénovať za využitia tzv. kurikulárneho učenia. To spočíva v podávaní vysokokvalitných usporiadaných dát v nádeji, že modely budú schopné identifikovať „inteligentnejšie prepojenia medzi pojmami“ s použitím menšieho množstva informácií. Ani jeden z týchto spôsobov však zatiaľ nebol riadne overený.