KYÖYO QNB Yapay Öğrenme Yarışması - Finalist

Published:

alt text

TR tr

  • Attention katmanı ile birlikte LSTM ve GRU kullanılmıştır.
  • Kelimeler önişlemeden geçmiş bir şekilde paylaşıldığı için sadece tokenizer işlemi yapılarak veri modellenebilir hale getirilmiştir.
  • 56 farklı etiket olduğu için döngü kullanılarak her bir etiket için çıktı katmanı sigmoid olan 56 model kurulmuştur.
  • Eğitim Kaggle’da GPU ile yapılmıştır.

Bu çözüm ile finalde sunum yapmaya hak kazandım.

ENG uk

  • LSTM and GRU were used together with Attention layer by using keras on GPU with Kaggle kernel.
  • Since the words were preprocessed in the data set, tokenizer operations were made to make them modelable only in keras.
  • Since there are 56 different labels, sigmoid was selected in the output layer of the model and training was performed for each label using the loop.

With this solution, I was able to make a presentation in the final.

Github