Select Language

AI社区

公开数据集

相关搜索
您是不是在找?
今日排行
本周排行
本月排行
纯文本维基百科,每个文件都包含维基百科文章的集合 Wikipedia dumps contain a tremendous amount of markup. WikiMedia Text is a hybrid of markdown and HTML, making it very d...NLP,Computer Science,Text Data,Text Mining Classification
23.71G 217
波斯维基百科数据集,波斯语(波斯语)维基百科语料库 Persian(Farsi) Wikipedia Dataset | دیتاست ویکی پدیا فارسی شامل تمامی مقالات فارسی...NLP,Deep Learning,Text Data,Data Analytics Classification
804.48M 234
来自维基百科的800万个德语句子 Internet,NLP,Text Data Classification
1099.53M 180
印地语英语TED演讲,维基百科文章等。 Earth and Nature,NLP,Languages Classification
137.73M 220
Word2vec在维基百科上训练数据(单字母+双字母),以捕捉unigram和bigram 这是一个单词嵌入模型,创建于维基百科+各种来源的评论。与从基于短语的方法(不考虑相邻词的短语/双词上下文)创建双词不同,这...NLP,Computer Science,Software,Programming,Neural Networks Classification
8.62G 243
231.77M 426
维基百科Word2Vec,Apache Spark word2vec由200K维基百科页面培训 I used Apache Spark to extract more than 6 million phrases from 200,000 English Wikipedia pages. Here is the process of...NLP,Business,Earth and Nature,Text Mining Classification
132.74M 264
维基百科的句子,英语维基百科转储中收集了780万个句子 The wikipedia dump is a giant XML file and contains loads of not-so-useful content. I needed some english text for some...NLP,Text Mining Classification
891.28M 296
维基百科的电影情节 Arts and Entertainment,Movies and TV Shows,NLP,Text Data,Recommender Systems Classification
77.43M 475