はじめに
言語処理100本ノック は東北大学が公開している自然言語処理の問題集です。
とても良質なコンテンツで企業の研修や勉強会で使われています。
そんな言語処理100本ノックが2020年に改定されてました。昨今の状況を鑑みて、深層ニューラルネットワークに関する問題が追加されました。(その他にも細かい変更があります)
この記事では、言語処理100本ノック2020にPythonで取り組んでいきます。
他にも色々な解法があると思うので、一つの解答例としてご活用ください!
全100問の解説 に戻る
第6章で取り組んだニュース記事のカテゴリ分類を題材として,ニューラルネットワークでカテゴリ分類モデルを実装する.なお,この章ではPyTorch, TensorFlow, Chainerなどの機械学習プラットフォームを活用せよ.
70. 単語ベクトルの和による特徴量 問題50で構築した学習データ,検証データ,評価データを行列・ベクトルに変換したい.例えば,学習データについて,すべての事例xiの特徴ベクトルxiを並べた行列Xと,正解ラベルを並べた行列(ベクトル)Yを作成したい. (以下略)
コード 第7章と同様にword2vec
にはgensim
を用います。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 import pandas as pdimport gensimimport numpy as nptrain = pd.read_csv('train.txt' ,sep='\t' ,header=None ) valid = pd.read_csv('valid.txt' ,sep='\t' ,header=None ) test = pd.read_csv('test.txt' ,sep='\t' ,header=None ) model = gensim.models.KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin' , binary=True ) d = {'b' :0 , 't' :1 , 'e' :2 , 'm' :3 } y_train = train.iloc[:,0 ].replace(d) y_train.to_csv('y_train.txt' ,header=False , index=False ) y_valid = valid.iloc[:,0 ].replace(d) y_valid.to_csv('y_valid.txt' ,header=False , index=False ) y_test = test.iloc[:,0 ].replace(d) y_test.to_csv('y_test.txt' ,header=False , index=False ) def write_X (file_name, df) : with open(file_name,'w' ) as f: for text in df.iloc[:,1 ]: vectors = [] for word in text.split(): if word in model.vocab: vectors.append(model[word]) if (len(vectors)==0 ): vector = np.zeros(300 ) else : vectors = np.array(vectors) vector = vectors.mean(axis=0 ) vector = vector.astype(np.str).tolist() output = ' ' .join(vector)+'\n' f.write(output) write_X('X_train.txt' , train) write_X('X_valid.txt' , valid) write_X('X_test.txt' , test)
71. 単層ニューラルネットワークによる予測 問題70で保存した行列を読み込み,学習データについて以下の計算を実行せよ. (以下略)
1 2 3 4 5 6 7 8 import torchimport numpy as npX_train = np.loadtxt(base+'X_train.txt' , delimiter=' ' ) X_train = torch.tensor(X_train, dtype=torch.float32) W = torch.randn(300 , 4 ) softmax = torch.nn.Softmax(dim=1 ) print (softmax(torch.matmul(X_train[:1 ], W)))print (softmax(torch.matmul(X_train[:4 ], W)))
72. 損失と勾配の計算 学習データの事例x1と事例集合x1,x2,x3,x4に対して,クロスエントロピー損失と,行列Wに対する勾配を計算せよ.なお,ある事例xiに対して損失は次式で計算される.
li=−log[事例xiがyiに分類される確率]
ただし,事例集合に対するクロスエントロピー損失は,その集合に含まれる各事例の損失の平均とする.
1 2 3 4 5 6 7 8 9 10 y_train = np.loadtxt(base+'y_train.txt' ) y_train = torch.tensor(y_train, dtype=torch.int64) loss = torch.nn.CrossEntropyLoss() print (loss(torch.matmul(X_train[:1 ], W),y_train[:1 ]))print (loss(torch.matmul(X_train[:4 ], W),y_train[:4 ]))ans = [] for s,i in zip(softmax(torch.matmul(X_train[:4 ], W)),y_train[:4 ]): ans.append(-np.log(s[i])) print (np.mean(ans))
クロスエントロピー損失の一部を実装し、確認をした。
73. 確率的勾配降下法による学習 確率的勾配降下法(SGD: Stochastic Gradient Descent)を用いて,行列Wを学習せよ.なお,学習は適当な基準で終了させればよい(例えば「100エポックで終了」など)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 from torch.utils.data import TensorDataset, DataLoaderclass LogisticRegression (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 4 ), ) def forward (self, X) : return self.net(X) model = LogisticRegression() ds = TensorDataset(X_train, y_train) loader = DataLoader(ds, batch_size=1 , shuffle=True ) loss_fn = torch.nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(10 ): for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step()
74. 正解率の計測 問題73で求めた行列を用いて学習データおよび評価データの事例を分類したとき,その正解率をそれぞれ求めよ.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 def accuracy (pred, label) : pred = np.argmax(pred.data.numpy(), axis=1 ) label = label.data.numpy() return (pred == label).mean() X_valid = np.loadtxt(base+'X_valid.txt' , delimiter=' ' ) X_valid = torch.tensor(X_valid, dtype=torch.float32) y_valid = np.loadtxt(base+'y_valid.txt' ) y_valid = torch.tensor(y_valid, dtype=torch.int64) pred = model(X_train) print (accuracy(pred, y_train))pred = model(X_valid) print (accuracy(pred, y_valid))
75. 損失と正解率のプロット 問題73のコードを改変し,各エポックのパラメータ更新が完了するたびに,訓練データでの損失,正解率,検証データでの損失,正解率をグラフにプロットし,学習の進捗状況を確認できるようにせよ.
コード tensorboard
を利用しました。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 %load_ext tensorboard !rm -rf ./runs %tensorboard --logdir ./runs from torch.utils.tensorboard import SummaryWriterwriter = SummaryWriter() from torch.utils.data import TensorDataset, DataLoaderclass LogisticRegression (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 4 ), ) def forward (self, X) : return self.net(X) model = LogisticRegression() ds = TensorDataset(X_train, y_train) loader = DataLoader(ds, batch_size=1 , shuffle=True ) loss_fn = torch.nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(10 ): for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step() with torch.no_grad(): y_pred = model(X_train) loss = loss_fn(y_pred, y_train) writer.add_scalar('Loss/train' , loss, epoch) writer.add_scalar('Accuracy/train' , accuracy(y_pred,y_train), epoch) y_pred = model(X_valid) loss = loss_fn(y_pred, y_valid) writer.add_scalar('Loss/valid' , loss, epoch) writer.add_scalar('Accuracy/valid' , accuracy(y_pred,y_valid), epoch)
76. チェックポイント 問題75のコードを改変し,各エポックのパラメータ更新が完了するたびに,チェックポイント(学習途中のパラメータ(重み行列など)の値や最適化アルゴリズムの内部状態)をファイルに書き出せ.
学習途中のパラメータ、最適化アルゴリズムの内部状態はそれぞれstate_dict()
で取得可能で、torch.save
でシリアライズして保存可能です。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 from torch.utils.data import TensorDataset, DataLoaderclass LogisticRegression (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 4 ), ) def forward (self, X) : return self.net(X) model = LogisticRegression() ds = TensorDataset(X_train, y_train) loader = DataLoader(ds, batch_size=1 , shuffle=True ) loss_fn = torch.nn.CrossEntropyLoss() optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(10 ): for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step() with torch.no_grad(): y_pred = model(X_train) loss = loss_fn(y_pred, y_train) writer.add_scalar('Loss/train' , loss, epoch) writer.add_scalar('Accuracy/train' , accuracy(y_pred,y_train), epoch) y_pred = model(X_valid) loss = loss_fn(y_pred, y_valid) writer.add_scalar('Loss/valid' , loss, epoch) writer.add_scalar('Accuracy/valid' , accuracy(y_pred,y_valid), epoch) torch.save(model.state_dict(), base+'output/' +str(epoch)+'.model' ) torch.save(optimizer.state_dict(), base+'output/' +str(epoch)+'.param' )
77. ミニバッチ化 問題76のコードを改変し,B事例ごとに損失・勾配を計算し,行列Wの値を更新せよ(ミニバッチ化).Bの値を1,2,4,8,…と変化させながら,1エポックの学習に要する時間を比較せよ.
すでに、batch_size
を指定できるように実装しているので、その値を変えるだけです。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 import timefrom torch.utils.data import TensorDataset, DataLoaderclass LogisticRegression (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 4 ), ) def forward (self, X) : return self.net(X) model = LogisticRegression() ds = TensorDataset(X_train, y_train) loss_fn = torch.nn.CrossEntropyLoss() ls_bs = [2 **i for i in range(15 )] ls_time = [] for bs in ls_bs: loader = DataLoader(ds, batch_size=bs, shuffle=True ) optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(1 ): start = time.time() for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step() ls_time.append(time.time()-start) print (ls_time)
1 [5.749649286270142, 2.9937779903411865, 1.630518913269043, 0.833240270614624,...]
batch_size
が大きくなるほど高速になります。
78. GPU上での学習 問題77のコードを改変し,GPU上で学習を実行せよ.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 import timefrom torch.utils.data import TensorDataset, DataLoaderclass LogisticRegression (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 4 ), ) def forward (self, X) : return self.net(X) model = LogisticRegression() device = torch.device("cuda" if torch.cuda.is_available() else "cpu" ) model = model.to(device) ds = TensorDataset(X_train.to(device), y_train.to(device)) loss_fn = torch.nn.CrossEntropyLoss() ls_bs = [2 **i for i in range(15 )] ls_time = [] for bs in ls_bs: loader = DataLoader(ds, batch_size=bs, shuffle=True ) optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(1 ): start = time.time() for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step() ls_time.append(time.time()-start) print (ls_time)
[9.553595066070557, 5.196623802185059, 2.7027416229248047, 1.3737561702728271,…]
バッチサイズが小さいうちは、CPU
の方が高速です。バッチサイズが大きくなるとその差は縮まりますが逆転することはありませんでした。ネットワークの構造を複雑にすると、GPU
の長所が生きてくるはずです。
79. 多層ニューラルネットワーク 問題78のコードを改変し,バイアス項の導入や多層化など,ニューラルネットワークの形状を変更しながら,高性能なカテゴリ分類器を構築せよ.
バイアス項はtorch.nn.Linear
ではbias
で指定できるがデフォルトでTrue
である。多層化をすることで正解率が向上した。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 import timefrom torch.utils.data import TensorDataset, DataLoaderclass MLP (torch.nn.Module) : def __init__ (self) : super().__init__() self.net = torch.nn.Sequential( torch.nn.Linear(300 , 32 ), torch.nn.ReLU(), torch.nn.Linear(32 , 4 ), ) def forward (self, X) : return self.net(X) model = MLP() device = torch.device("cuda" if torch.cuda.is_available() else "cpu" ) model = model.to(device) ds = TensorDataset(X_train.to(device), y_train.to(device)) loss_fn = torch.nn.CrossEntropyLoss() loader = DataLoader(ds, batch_size=1024 , shuffle=True ) optimizer = torch.optim.SGD(model.net.parameters(), lr=1e-1 ) for epoch in range(100 ): start = time.time() for xx, yy in loader: y_pred = model(xx) loss = loss_fn(y_pred, yy) optimizer.zero_grad() loss.backward() optimizer.step() with torch.no_grad(): y_pred = model(X_train.to(device)) loss = loss_fn(y_pred, y_train.to(device)) writer.add_scalar('Loss/train' , loss, epoch) train_acc = accuracy(y_pred.cpu(),y_train.cpu()) writer.add_scalar('Accuracy/train' , acc, epoch) y_pred = model(X_valid.to(device)) loss = loss_fn(y_pred, y_valid.to(device)) writer.add_scalar('Loss/valid' , loss, epoch) valid_acc = accuracy(y_pred.cpu(),y_valid.cpu()) writer.add_scalar('Accuracy/valid' , acc, epoch) print (train_acc, valid_acc)
最後に 全100問の解説 に戻る
記事情報
投稿日:2020年5月9日
最終更新日:2020年5月13日