DZB - Zverejnená bakalárska práca

Neurónové jazykové modelovanie typu BERT

Autor
Megela, Ondrej
Školiteľ
Hládek, Daniel
Oponent
Buday, Anton
Škola
Technická univerzita v Košiciach 1040 104005
Rok odovzdania
2021
Počet strán
49s.
Trvalý odkaz - CRZP
https://opac.crzp.sk/?fn=detailBiblioForm&sid=4A7927334F9373E92B42D999785B
Primárny jazyk
slovenčina

Typ práce
Bakalárska práca

Študijný odbor
2508 | *informatika

Dátum zaslania práce do CRZP
25.05.2021

Dátum vytvorenia protokolu
25.05.2021

Dátum doručenia informácií o licenčnej zmluve
07.07.2021

Práca je zverejniteľná od
25.05.2021

Elektronická verzia
 Prehliadať
Jazykové modelovanie je kľúčovým komponentom spracovania prirodzeného jazyka. Jazykový model sa snaží na základe dostupných dátových korpusov vykonať správnu predikciu nasledujúceho slova vo vete. Túto predikciu vykonáva zväčša buď pomocou slov nachádzajúcich sa pred predikovaným slovom, teda postupuje jedným smerom alebo berie do úvahy aj slová nachádzajúce sa za predikovaným slovom, čo značí obojsmerný jazykový model. V rámci teoretickej časti práce sa na začiatku venujeme úvodom do jazykového modelovania a opisom neurónových sietí a v závere teoretickej časti rozoberáme súčasné metódy jazykového modelovania na základe neurónových sietí a ich aplikácie na konkrétne jazykové úlohy. V praktickej časti práce trénujeme vlastný jazykový model metódou RoBERTa pomocou nástroja fairseq, ktorý následne vyhodnocujeme na dátovej sade CommonSenseQA. V závere praktickej časti sa usilujeme o zlepšenie výsledku vyhodnotenia nášho modelu, ktoré vykonávame zmenami parametrov trénovania.
Language modeling is a key component of natural language processing. The language model tries to make a correct prediction of the next word in the sentence based on the available data corpora. It usually performs this prediction either with the help of words located before the predicted word, ie it proceeds in one direction or also takes into account the words behind the predicted word, which means a two-way language model. Within the theoretical part of the work, we begin with an introduction to language modeling and description of neural networks, and at the end of the theoretical part we analyze current methods of language modeling based on neural networks and their application to specific language tasks. In the practical part of the work, we train our own language model using the RoBERT method using the fairseq tool, which we then evaluate on the CommonSenseQA data set. At the end of the practical part, we strive to improve the result of the evaluation of our model, which we perform by changing the training parameters.

Verzia systému: 6.2.61.5 z 31.03.2023 (od SVOP)