这是论文《通过记忆推广:最近邻语言模型》的 PyTorch 实现。它使用 k 最近邻来改善自回归变压器模型的困惑度。
自回归语言模型估计,步骤中的标记在哪里,是上下文,。
本文改进了使用带搜索键的键值对使用 k 最近邻搜索的功能。这是上下文的嵌入。本文(以及本实现)使用变压器最后一层前馈层的输入作为。
我们使用 FAISS 进行索引。
因此,要运行 NN-LM,我们需要:
这个实验使用了一个小数据集,这样我们就可以在不占用几百千兆字节的索引磁盘空间的情况下运行它。
NN-LM 的官方实现可以在这里找到。