KYÖYO QNB Yapay Öğrenme Yarışması - Finalist
Published:
TR
- Attention katmanı ile birlikte LSTM ve GRU kullanılmıştır.
- Kelimeler önişlemeden geçmiş bir şekilde paylaşıldığı için sadece tokenizer işlemi yapılarak veri modellenebilir hale getirilmiştir.
- 56 farklı etiket olduğu için döngü kullanılarak her bir etiket için çıktı katmanı sigmoid olan 56 model kurulmuştur.
- Eğitim Kaggle’da GPU ile yapılmıştır.
Bu çözüm ile finalde sunum yapmaya hak kazandım.
ENG
- LSTM and GRU were used together with Attention layer by using keras on GPU with Kaggle kernel.
- Since the words were preprocessed in the data set, tokenizer operations were made to make them modelable only in keras.
- Since there are 56 different labels, sigmoid was selected in the output layer of the model and training was performed for each label using the loop.
With this solution, I was able to make a presentation in the final.