| Anotācija |
Pieejamo neliela mēroga lielo valodas modeļu (LLM) attīstība paver jaunas iespējas
to integrācijai specifiskos lietojumos, piemēram, programmatūras kvalitātes nodrošināšanā
(QA). Šajā darbā tiek pētīta LLM izmantošana testu gadījumu ģenerēšanā, izmantojot
zināšanu pārvaldības (KM) pieejas, īpašu uzmanību pievēršot resursu ierobežotai videi, kur
pilna mēroga papildmācībā nav praktiski īstenojama. Pētījuma hipotēze paredz, ka
strukturētas specifiskas zināšanas, integrētas neliela apjoma LLM modeļos, uzlabo
ģenerēto QA artefaktu kontekstuālo atbilstību un precizitāti.
Hipotēzes pārbaudei tika veikts strukturēts pētījuma process: LLAMA un DeepSeek
modeļu izvietošana uz uzņēmuma klases portatīvā datora, testu datu kopas sagatavošana
un priekšapstrāde, kā arī modeļu veiktspējas novērtēšana, izmantojot standartizētus
rādītājus (BLEU, ROUGE, semantiskā līdzība, funkcionālais pārklājums, cilvēka
vērtējums). Pilna papildmācībā tika novērtēta kā neefektīva mazās datu kopās (<1000
ierakstu). Pretēji tam, Izgūšanas Papildinātās Ģenerācijas (RAG) pielietošana, kombinācijā
ar zināšanu bāzes vektorizāciju, būtiski uzlaboja rezultātus — sasniedzot līdz pat 27%
pieaugumu testu gadījumu kvalitātes rādītājos.
Tālāk pētījumā tika analizēta arī čatbotu izmantošana zināšanu pēctecības un jauno
QA komandas locekļu apmācības atbalstam. Sākotnējie rezultāti liecina, ka LLM balstīti
asistenti var efektīvi atbalstīt QA procesus, vienlaikus saglabājot datu drošību, it īpaši, ja
modeļi tiek darbināti lokāli.
Darba noslēgumā secināts, ka maza apjoma LLM modeļi, apvienoti ar RAG un zināšanu
pārvaldības principiem, piedāvā mērogojamu, privātumu saglabājošu un izmaksu ziņā
efektīvu risinājumu QA inženierijas procesu uzlabošanai. Iegūtie rezultāti sniedz
ieguldījumu gan akadēmiskajā diskursā, gan praktiskajā mākslīgā intelekta pielietošanā
elastīgā programmatūras izstrādē.
Maģistra darbs satur 74 teksta lapas, 8 attēlus, 14 tabulas, 28 informācijas avotus un
5 pielikumus. |