Noslēguma darbu reģistrs
  
Studiju darba apraksts
Studiju veids bakalaura akadēmiskās studijas
Studiju programmas nosaukums Informācijas tehnoloģija
Nosaukums Lokāli darbināmo lielo valodu modeļu apskats
Nosaukums angļu valodā A Review of Locally Runnable Large Language Models
Struktūrvienība 33000 Datorzinātnes, informācijas tehnoloģijas un enerģētikas fakultāte
Darba vadītājs Henrihs Gorskis
Recenzents Artūrs Braučs
Anotācija Strauji attīstošie lielu valodu modeļi (LVM) ne tikai sniedz jaunas iespējas teksta prognozēšanā, apstrādē un ģenerēšanā, bet arī rada aizdomas par datu privātumu, jo lielākā daļa LVM ir balstīti mākonī. Tāpēc radās pieprasījums pēc lokālas LVM izmantošanas, saglabājot gan modeļu veiktspēju, gan datu konfidencialitāti. Lokāla LVM izmantošana dod iespēju veikt to apmācību uz specifiskām datu kopām, kas pieder lietotājam vai organizācijai, tādējādi uzlabojot modeļa veiktspējas precizitāti, kā arī nodrošinot tā pielāgošanu konkrētām vajadzībām. Pētījuma mērķis ir salīdzināt un novērtēt lokāli darbināmos LVM un to pielietojumus. Lai sasniegtu mērķi, tika veikti divu klašu eksperimenti: videokaršu specifikāciju izpēte un modeļu apmācības iespēju novērtējums dabiskās valodas apstrādes uzdevumos - vēstuļu klasifikācijā un sarunas kopsavilkumu veidošanā. Eksperimentiem tika izvēlēti trīs modeļi – Mistral ar 7 miljardu parametriem, Phi-2 ar 2.7 miljardu parametriem un TinyLLaMA ar 1.1 miljardu parametru. Tika novērtēti lokālo LVM izmantošanas resursu ierobežojumi. Mistral modelis ir piemērots uzdevumiem, kuriem ir nepieciešama lielāka precizitāte un ir pieejami vismaz 12 GB videokartes atmiņas ar CUDA atbalstu, TinyLLaMA modelis ir lietojams uzdevumiem ar ierobežotiem skaitļošanas resursiem, piemēram, videokartēm ar 4 GB CUDA atmiņu. Noskaidrots, ka mazākie modeļi, izmantojot precīzo ieregulēšanu, sasniedz konkurētspējīgu veiktspēju ar mazāku apmācības laiku un skaitļošanas resursu patēriņu. Darbs sniedz praktisku ieguldījumu, piedāvājot instrukciju lokālo LVM izmantošanai, kas dod iespēju saglabāt datu privātumu un pielāgot modeļus specifiskiem uzdevumiem. Dati par darba apjomu – 58 lappušu, 17 attēlu, 9 tabulu, 2 pielikumu un 38 izmantoto informācijas avotu skaits.
Atslēgas vārdi lokālie lielie valodu modeļi, datu privātums, dabiskās valodas apstrāde, lokālā apmācība
Atslēgas vārdi angļu valodā local large language models, data privacy, natural language processing, local training
Valoda lv
Gads 2025
Darba augšupielādes datums un laiks 26.05.2025 13:35:23