これは、「記憶による一般化:最近傍言語モデル」という論文をPyTorchで実装したものです。自己回帰変換モデルの複雑さを改善するために、k-最近傍を使用します
。自己回帰言語モデルでは、ステップ中のトークンがどこで、がコンテキストなのかを推定します。
この論文では、検索キー付きのキーと値のペアでの k 最近傍検索の使用方法を改良しました。これがコンテキストの埋め込みです。この論文(およびこの実装)では、変圧器の最終層のフィードフォワード層への入力を次のように使用しています
。したがって、 NN-LM を実行するには、以下を行う必要があります。
この実験では小さなデータセットを使用しているため、インデックス用に数百ギガバイトのディスク容量を消費せずに実行できます。