好资源!近 20 万本 txt 书籍的语料库,可用于 GPT 模型训练和语义分析

由于缺少规范化的数据集,训练一个像OpenAI一样的GPT模型通常很难。现在有了,它就是BookCorpus的'books3'数据集,一个包含196,640本书的txt数据集。

下载链接:https://the-eye.eu/public/AI/pile_preliminary_components/books3.tar.gz

但在下载这个37Gb的大文件前,我们先了解了解这个数据集。

BookCorpus

https://github.com/soskek/bookcorpus

BookCorpus是一个流行的大型文本语料库,适合在无人监督下学习句子的编码/解码器。但是,BookCorpus 目前已不再更新。

此存储库的数据来源包括smashwords的数据,是 BookCorpus 的原始来源。后续收集添加的句子可能有部分不同,但数量会更大更丰富。

最简单的调用方式是:

from datasets import load_datasetdataset = load_dataset('bookcorpus')

虽然bookcorpus已不再更新,但后续仍有人为该数据集丰富内容,更新信息。其中最突出的就是Shawn在今年9月贡献的book3语料库,每本书都以文本文件的形式单独存储。

Book3数据集

数据集的质量非常高,作者为了构建数据集,花了一周时间修缮了epub2txt脚本。

新脚本保证了:

正确保留结构,与目录非常匹配;

正确呈现数据表(默认情况下 html2txt 主要为表生成垃圾查找结果),

正确保留代码结构,使源代码和类似内容在视觉上保持一致,

将编号列表从'1\'转换为'1'。

通过'ftfy.fix_text()运用在全文上 (这是 OpenAI 对 GPT 的用途)运行全文,将Unicode的撇号替换为ascii编码的撇号;

将 Unicode 椭圆扩展到'...'(三个单独的 ascii 字符)。

book3数据集:

包含196,640本书籍

全部txt格式

链接更稳定,可直接下载。链接:https://the-eye.eu/public/AI/pile_preliminary_components/books3.tar.gz

如果想要下载其他数据集,可以访问:

https://the-eye.eu/public/AI/pile_preliminary_components/

最后

附上一个书籍的网页版样例:《Do It Yourself》

https://battle.shawwn.com/sdb/books1/books1/epubtxt/do-it-yourself-lifetime-financial-planning.epub.txt

参考:

[1]https://www.reddit.com/r/MachineLearning/comments/ji7y06/p_dataset_of_196640_books_in_plain_text_for/?utm_medium=android_app&utm_source=share

[2]https://github.com/soskek/bookcorpus/issues/27

[3]https://twitter.com/theshawwn/status/1320282149329784833

[4]https://github.com/soskek/bookcorpus

[5]https://huggingface.co/datasets/bookcorpus

- EOF -

(0)

相关推荐