Model Seq2seq (Urutan ke Urutan) dengan PyTorch

Apa itu NLP?

NLP atau Natural Language Processing adalah salah satu cabang populer dari Kecerdasan Buatan yang membantu komputer memahami, memanipulasi, atau merespons manusia dalam bahasa aslinya. NLP adalah mesin di baliknya Google Translate yang membantu kita memahami bahasa lain.

Apa itu Seq2Seq?

Seq2Seq adalah metode terjemahan mesin dan pemrosesan bahasa berbasis encoder-decoder yang memetakan input urutan ke output urutan dengan tag dan nilai perhatian. Idenya adalah menggunakan 2 RNN yang akan bekerja sama dengan token khusus dan mencoba memprediksi urutan keadaan berikutnya dari urutan sebelumnya.

Cara Memprediksi sequence dari sequence sebelumnya

Memprediksi Urutan dari Urutan Sebelumnya

Berikut ini adalah langkah-langkah untuk memprediksi urutan dari urutan sebelumnya dengan PyTorch.

Langkah 1) Memuat Data kami

Untuk kumpulan data kami, Anda akan menggunakan kumpulan data dari Pasangan Kalimat Bilingual yang dibatasi tab. Disini saya akan menggunakan dataset Bahasa Inggris ke Bahasa Indonesia. Anda dapat memilih apa pun yang Anda suka tetapi ingatlah untuk mengubah nama file dan direktori dalam kode.

from __future__ import unicode_literals, print_function, division
import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F

import numpy as np
import pandas as pd

import os
import re
import random

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

Langkah 2) Persiapan Data

Anda tidak dapat menggunakan kumpulan data secara langsung. Anda perlu membagi kalimat menjadi kata-kata dan mengubahnya menjadi One-Hot Vector. Setiap kata akan diindeks secara unik di kelas Lang untuk dijadikan kamus. Kelas Lang akan menyimpan setiap kalimat dan membaginya kata demi kata dengan addSentence. Kemudian buat kamus dengan mengindeks setiap kata yang tidak diketahui untuk model Sequence to sequence.

SOS_token = 0
EOS_token = 1
MAX_LENGTH = 20

#initialize Lang Class
class Lang:
   def __init__(self):
       #initialize containers to hold the words and corresponding index
       self.word2index = {}
       self.word2count = {}
       self.index2word = {0: "SOS", 1: "EOS"}
       self.n_words = 2  # Count SOS and EOS

#split a sentence into words and add it to the container
   def addSentence(self, sentence):
       for word in sentence.split(' '):
           self.addWord(word)

#If the word is not in the container, the word will be added to it, 
#else, update the word counter
   def addWord(self, word):
       if word not in self.word2index:
           self.word2index[word] = self.n_words
           self.word2count[word] = 1
           self.index2word[self.n_words] = word
           self.n_words += 1
       else:
           self.word2count[word] += 1

Kelas Lang merupakan kelas yang akan membantu kita membuat kamus. Untuk setiap bahasa, setiap kalimat akan dipecah menjadi kata-kata dan kemudian ditambahkan ke wadahnya. Setiap wadah akan menyimpan kata-kata dalam indeks yang sesuai, menghitung kata, dan menambahkan indeks kata sehingga kita dapat menggunakannya untuk mencari indeks suatu kata atau menemukan kata dari indeksnya.

Karena data kami dipisahkan oleh TAB, Anda perlu menggunakan panda sebagai pemuat data kami. Pandas akan membaca data kita sebagai dataFrame dan membaginya menjadi kalimat sumber dan target. Untuk setiap kalimat yang Anda miliki,

  • Anda akan menormalkannya menjadi huruf kecil,
  • hapus semua non-karakter
  • konversikan ke ASCII dari Unicode
  • pisahkan kalimatnya, sehingga Anda memiliki setiap kata di dalamnya.
#Normalize every sentence
def normalize_sentence(df, lang):
   sentence = df[lang].str.lower()
   sentence = sentence.str.replace('[^A-Za-z\s]+', '')
   sentence = sentence.str.normalize('NFD')
   sentence = sentence.str.encode('ascii', errors='ignore').str.decode('utf-8')
   return sentence

def read_sentence(df, lang1, lang2):
   sentence1 = normalize_sentence(df, lang1)
   sentence2 = normalize_sentence(df, lang2)
   return sentence1, sentence2

def read_file(loc, lang1, lang2):
   df = pd.read_csv(loc, delimiter='\t', header=None, names=[lang1, lang2])
   return df

def process_data(lang1,lang2):
   df = read_file('text/%s-%s.txt' % (lang1, lang2), lang1, lang2)
   print("Read %s sentence pairs" % len(df))
   sentence1, sentence2 = read_sentence(df, lang1, lang2)

   source = Lang()
   target = Lang()
   pairs = []
   for i in range(len(df)):
       if len(sentence1[i].split(' ')) < MAX_LENGTH and len(sentence2[i].split(' ')) < MAX_LENGTH:
           full = [sentence1[i], sentence2[i]]
           source.addSentence(sentence1[i])
           target.addSentence(sentence2[i])
           pairs.append(full)

   return source, target, pairs

Fungsi berguna lainnya yang akan Anda gunakan adalah mengubah pasangan menjadi Tensor. Ini sangat penting karena jaringan kita hanya membaca data tipe tensor. Ini juga penting karena ini adalah bagian yang di setiap akhir kalimat akan ada token yang memberi tahu jaringan bahwa input sudah selesai. Untuk setiap kata dalam kalimat, ia akan mendapatkan indeks dari kata yang sesuai di kamus dan menambahkan token di akhir kalimat.

def indexesFromSentence(lang, sentence):
   return [lang.word2index[word] for word in sentence.split(' ')]

def tensorFromSentence(lang, sentence):
   indexes = indexesFromSentence(lang, sentence)
   indexes.append(EOS_token)
   return torch.tensor(indexes, dtype=torch.long, device=device).view(-1, 1)

def tensorsFromPair(input_lang, output_lang, pair):
   input_tensor = tensorFromSentence(input_lang, pair[0])
   target_tensor = tensorFromSentence(output_lang, pair[1])
   return (input_tensor, target_tensor)

Model Seq2Seq

Model Seq2seq
Seq2Seq

Model PyTorch Seq2seq adalah jenis model yang menggunakan decoder encoder PyTorch di atas model. Encoder akan mengkodekan kalimat kata demi kata ke dalam kosakata yang diindeks atau kata-kata yang dikenal dengan indeks, dan decoder akan memprediksi keluaran dari masukan yang dikodekan dengan mendekode masukan secara berurutan dan akan mencoba menggunakan masukan terakhir sebagai masukan berikutnya jika itu mungkin. Dengan metode ini, dimungkinkan juga untuk memprediksi masukan selanjutnya untuk membuat sebuah kalimat. Setiap kalimat akan diberi token untuk menandai akhir urutan. Di akhir prediksi juga akan ada token untuk menandai akhir keluaran. Jadi, dari encoder, ia akan meneruskan status ke decoder untuk memprediksi keluaran.

Model Seq2seq
Model Seq2Seq

Encoder akan mengkodekan kalimat masukan kita kata demi kata secara berurutan dan pada akhirnya akan ada token untuk menandai akhir kalimat. Encoder terdiri dari lapisan Embedding dan lapisan GRU. Lapisan Penyematan adalah tabel pencarian yang menyimpan penyematan masukan kita ke dalam kamus kata berukuran tetap. Ini akan diteruskan ke lapisan GRU. Lapisan GRU adalah Unit Berulang Berpagar yang terdiri dari beberapa jenis lapisan RNN yang akan menghitung input berurutan. Lapisan ini akan menghitung keadaan tersembunyi dari yang sebelumnya dan memperbarui reset, pembaruan, dan gerbang baru.

Model Seq2seq

Seq2Seq

Decoder akan memecahkan kode masukan dari keluaran encoder. Ia akan mencoba memprediksi keluaran berikutnya dan mencoba menggunakannya sebagai masukan berikutnya jika memungkinkan. Decoder terdiri dari lapisan Embedding, lapisan GRU, dan lapisan Linear. Lapisan penyematan akan membuat tabel pencarian untuk keluaran dan meneruskannya ke lapisan GRU untuk menghitung prediksi status keluaran. Setelah itu, lapisan Linear akan membantu menghitung fungsi aktivasi untuk menentukan nilai sebenarnya dari keluaran prediksi.

class Encoder(nn.Module):
   def __init__(self, input_dim, hidden_dim, embbed_dim, num_layers):
       super(Encoder, self).__init__()
      
       #set the encoder input dimesion , embbed dimesion, hidden dimesion, and number of layers 
       self.input_dim = input_dim
       self.embbed_dim = embbed_dim
       self.hidden_dim = hidden_dim
       self.num_layers = num_layers

       #initialize the embedding layer with input and embbed dimention
       self.embedding = nn.Embedding(input_dim, self.embbed_dim)
       #intialize the GRU to take the input dimetion of embbed, and output dimention of hidden and
       #set the number of gru layers
       self.gru = nn.GRU(self.embbed_dim, self.hidden_dim, num_layers=self.num_layers)
              
   def forward(self, src):
      
       embedded = self.embedding(src).view(1,1,-1)
       outputs, hidden = self.gru(embedded)
       return outputs, hidden

class Decoder(nn.Module):
   def __init__(self, output_dim, hidden_dim, embbed_dim, num_layers):
       super(Decoder, self).__init__()

#set the encoder output dimension, embed dimension, hidden dimension, and number of layers 
       self.embbed_dim = embbed_dim
       self.hidden_dim = hidden_dim
       self.output_dim = output_dim
       self.num_layers = num_layers

# initialize every layer with the appropriate dimension. For the decoder layer, it will consist of an embedding, GRU, a Linear layer and a Log softmax activation function.
       self.embedding = nn.Embedding(output_dim, self.embbed_dim)
       self.gru = nn.GRU(self.embbed_dim, self.hidden_dim, num_layers=self.num_layers)
       self.out = nn.Linear(self.hidden_dim, output_dim)
       self.softmax = nn.LogSoftmax(dim=1)
      
   def forward(self, input, hidden):

# reshape the input to (1, batch_size)
       input = input.view(1, -1)
       embedded = F.relu(self.embedding(input))
       output, hidden = self.gru(embedded, hidden)       
       prediction = self.softmax(self.out(output[0]))
      
       return prediction, hidden

class Seq2Seq(nn.Module):
   def __init__(self, encoder, decoder, device, MAX_LENGTH=MAX_LENGTH):
       super().__init__()
      
#initialize the encoder and decoder
       self.encoder = encoder
       self.decoder = decoder
       self.device = device
     
   def forward(self, source, target, teacher_forcing_ratio=0.5):

       input_length = source.size(0) #get the input length (number of words in sentence)
       batch_size = target.shape[1] 
       target_length = target.shape[0]
       vocab_size = self.decoder.output_dim
      
#initialize a variable to hold the predicted outputs
       outputs = torch.zeros(target_length, batch_size, vocab_size).to(self.device)

#encode every word in a sentence
       for i in range(input_length):
           encoder_output, encoder_hidden = self.encoder(source[i])

#use the encoder’s hidden layer as the decoder hidden
       decoder_hidden = encoder_hidden.to(device)
  
#add a token before the first predicted word
       decoder_input = torch.tensor([SOS_token], device=device)  # SOS

#topk is used to get the top K value over a list
#predict the output word from the current target word. If we enable the teaching force,  then the #next decoder input is the next word, else, use the decoder output highest value. 

       for t in range(target_length):   
           decoder_output, decoder_hidden = self.decoder(decoder_input, decoder_hidden)
           outputs[t] = decoder_output
           teacher_force = random.random() < teacher_forcing_ratio
           topv, topi = decoder_output.topk(1)
           input = (target[t] if teacher_force else topi)
           if(teacher_force == False and input.item() == EOS_token):
               break

       return outputs

Langkah 3) Melatih Model

Proses pelatihan pada model Seq2seq dimulai dengan mengubah setiap pasangan kalimat menjadi Tensor dari indeks Langnya. Model sequence to sequence kami akan menggunakan SGD sebagai pengoptimal dan fungsi NLLLoss untuk menghitung kerugian. Proses pelatihan dimulai dengan memasukkan pasangan kalimat ke model untuk memprediksi keluaran yang benar. Pada setiap langkah, keluaran dari model akan dihitung dengan kata sebenarnya untuk mencari kerugian dan memperbarui parameter. Jadi karena Anda akan menggunakan 75000 iterasi, model sequence to sequence kami akan menghasilkan 75000 pasangan acak dari kumpulan data kami.

teacher_forcing_ratio = 0.5

def clacModel(model, input_tensor, target_tensor, model_optimizer, criterion):
   model_optimizer.zero_grad()

   input_length = input_tensor.size(0)
   loss = 0
   epoch_loss = 0
   # print(input_tensor.shape)

   output = model(input_tensor, target_tensor)

   num_iter = output.size(0)
   print(num_iter)

#calculate the loss from a predicted sentence with the expected result
   for ot in range(num_iter):
       loss += criterion(output[ot], target_tensor[ot])

   loss.backward()
   model_optimizer.step()
   epoch_loss = loss.item() / num_iter

   return epoch_loss

def trainModel(model, source, target, pairs, num_iteration=20000):
   model.train()

   optimizer = optim.SGD(model.parameters(), lr=0.01)
   criterion = nn.NLLLoss()
   total_loss_iterations = 0

   training_pairs = [tensorsFromPair(source, target, random.choice(pairs))
                     for i in range(num_iteration)]
  
   for iter in range(1, num_iteration+1):
       training_pair = training_pairs[iter - 1]
       input_tensor = training_pair[0]
       target_tensor = training_pair[1]

       loss = clacModel(model, input_tensor, target_tensor, optimizer, criterion)

       total_loss_iterations += loss

       if iter % 5000 == 0:
           avarage_loss= total_loss_iterations / 5000
           total_loss_iterations = 0
           print('%d %.4f' % (iter, avarage_loss))
          
   torch.save(model.state_dict(), 'mytraining.pt')
   return model

Langkah 4) Uji Modelnya

Proses evaluasi Seq2seq PyTorch adalah memeriksa keluaran model. Setiap pasangan model Urutan ke urutan akan dimasukkan ke dalam model dan menghasilkan kata-kata yang diprediksi. Setelah itu Anda akan melihat nilai tertinggi di setiap output untuk menemukan indeks yang benar. Dan pada akhirnya, Anda akan membandingkan untuk melihat prediksi model kami dengan kalimat sebenarnya

def evaluate(model, input_lang, output_lang, sentences, max_length=MAX_LENGTH):
   with torch.no_grad():
       input_tensor = tensorFromSentence(input_lang, sentences[0])
       output_tensor = tensorFromSentence(output_lang, sentences[1])
  
       decoded_words = []
  
       output = model(input_tensor, output_tensor)
       # print(output_tensor)
  
       for ot in range(output.size(0)):
           topv, topi = output[ot].topk(1)
           # print(topi)

           if topi[0].item() == EOS_token:
               decoded_words.append('<EOS>')
               break
           else:
               decoded_words.append(output_lang.index2word[topi[0].item()])
   return decoded_words

def evaluateRandomly(model, source, target, pairs, n=10):
   for i in range(n):
       pair = random.choice(pairs)
       print(‘source {}’.format(pair[0]))
       print(‘target {}’.format(pair[1]))
       output_words = evaluate(model, source, target, pair)
       output_sentence = ' '.join(output_words)
       print(‘predicted {}’.format(output_sentence))

Sekarang, mari kita mulai pelatihan kita dengan Seq to Seq, dengan jumlah iterasi 75000 dan jumlah RNN layer 1 dengan ukuran tersembunyi 512.

lang1 = 'eng'
lang2 = 'ind'
source, target, pairs = process_data(lang1, lang2)

randomize = random.choice(pairs)
print('random sentence {}'.format(randomize))

#print number of words
input_size = source.n_words
output_size = target.n_words
print('Input : {} Output : {}'.format(input_size, output_size))

embed_size = 256
hidden_size = 512
num_layers = 1
num_iteration = 100000

#create encoder-decoder model
encoder = Encoder(input_size, hidden_size, embed_size, num_layers)
decoder = Decoder(output_size, hidden_size, embed_size, num_layers)

model = Seq2Seq(encoder, decoder, device).to(device)

#print model 
print(encoder)
print(decoder)

model = trainModel(model, source, target, pairs, num_iteration)
evaluateRandomly(model, source, target, pairs)

Seperti yang Anda lihat, kalimat prediksi kami tidak terlalu cocok, jadi untuk mendapatkan akurasi yang lebih tinggi, Anda perlu berlatih dengan lebih banyak data dan mencoba menambahkan lebih banyak iterasi dan jumlah lapisan menggunakan pembelajaran Sequence to sequence.

random sentence ['tom is finishing his work', 'tom sedang menyelesaikan pekerjaannya']
Input : 3551 Output : 4253
Encoder(
  (embedding): Embedding(3551, 256)
  (gru): GRU(256, 512)
)
Decoder(
  (embedding): Embedding(4253, 256)
  (gru): GRU(256, 512)
  (out): Linear(in_features=512, out_features=4253, bias=True)
  (softmax): LogSoftmax()
)
Seq2Seq(
  (encoder): Encoder(
    (embedding): Embedding(3551, 256)
    (gru): GRU(256, 512)
  )
  (decoder): Decoder(
    (embedding): Embedding(4253, 256)
    (gru): GRU(256, 512)
    (out): Linear(in_features=512, out_features=4253, bias=True)
    (softmax): LogSoftmax()
  )
)

5000 4.0906
10000 3.9129
15000 3.8171
20000 3.8369
25000 3.8199
30000 3.7957
35000 3.8037
40000 3.8098
45000 3.7530
50000 3.7119
55000 3.7263
60000 3.6933
65000 3.6840
70000 3.7058
75000 3.7044

> this is worth one million yen
= ini senilai satu juta yen
< tom sangat satu juta yen <EOS>

> she got good grades in english
= dia mendapatkan nilai bagus dalam bahasa inggris
< tom meminta nilai bagus dalam bahasa inggris <EOS>

> put in a little more sugar
= tambahkan sedikit gula
< tom tidak <EOS>

> are you a japanese student
= apakah kamu siswa dari jepang
< tom kamu memiliki yang jepang <EOS>

> i apologize for having to leave
= saya meminta maaf karena harus pergi
< tom tidak maaf karena harus pergi ke

> he isnt here is he
= dia tidak ada di sini kan
< tom tidak <EOS>

> speaking about trips have you ever been to kobe
= berbicara tentang wisata apa kau pernah ke kobe
< tom tidak <EOS>

> tom bought me roses
= tom membelikanku bunga mawar
< tom tidak bunga mawar <EOS>

> no one was more surprised than tom
= tidak ada seorangpun yang lebih terkejut dari tom
< tom ada orang yang lebih terkejut <EOS>

> i thought it was true
= aku kira itu benar adanya
< tom tidak <EOS>

Ringkaslah postingan ini dengan: