corpus相关内容
我一直在研究R中的许多{tm}包的在线示例,试图创建一个TermDocumentMatrix。创建和清理语料库非常简单,但当我尝试创建矩阵时,我总是遇到错误。错误为: UseMethod(“meta”,x)出错: 没有适用于“Character”类的对象的“meta”的方法 此外:警告消息: 在mclApply(unname(Content(X)),Term Freq,Control)中:
..
我只是通过文本教程使用DataSet模块之外的数据进行工作。我从DataFrame获得一些文本数据,并将其存储为字符串变量以供工作。 def mergeText(df): content = '' for i in df['textColumn']: content += (i + '. ' ) #print(content) return c
..
我知道这是一个很长的尝试,但是有谁知道一个包含音节重音信息的英语单词数据集?像下面这样简单的东西会很棒: AARD vark有能力的关于帐户酸加词法广告... 解决方案 我知道的最接近的事情是 CMU 发音词典.我不认为它明确标记了重读音节,但它应该是一个开始.
..
我正在寻找一个文本语料库来运行一些试验全文样式数据搜索.要么是我可以下载的东西,要么是生成它的系统.更随机的东西会更好,例如1,000,000 篇维基百科文章,格式易于插入 2 列数据库(id、文本). 有什么想法或建议吗? 解决方案 因为我熟悉它,所以我会把它扔出去 - Prosper.com 提供他们的会员贷款列表以供分析 通过 XML 导出.导出将包含大约 50,000 个带有
..
我的文件有超过 400 万行,我需要一种更有效的方法将我的数据转换为语料库和文档术语矩阵,以便我可以将其传递给贝叶斯分类器. 考虑以下代码: 库(tm)GetCorpus 输出: >检查(公司)>[[1]]>让大狗狩猎[[2]]
..
我的项目使用 NLTK.如何列出项目的语料库&模型要求,以便它们可以自动安装?我不想通过nltk.download() GUI,一一安装包. 另外,有什么方法可以冻结相同的需求列表(如 pip freeze)? 解决方案 NLTK 站点确实在此页面底部列出了用于下载包和集合的命令行界面: http://www.nltk.org/data 命令行用法因您使用的 Python
..
有没有人建议在哪里可以找到用于小型语料库的日常英语文本的档案或集合?我一直在使用古腾堡项目书籍作为工作原型,并希望融入更多现代语言.最近的答案这里间接指出了一个很棒的usenet 电影评论存档,我没有想到,而且非常好.对于这个特定的程序,技术使用网档案或编程邮件列表会使结果倾斜并且难以分析,但任何类型的一般博客文本、聊天记录或任何可能对其他人有用的东西都会非常有帮助.此外,非常感谢部分或可下载的研
..
我已经教了一些关于使用 Python 进行文本挖掘的入门课程,课程中使用提供的练习文本尝试了类似的方法.一些学生对 text1.similar() 的结果与其他学生不同. 所有版本等都是一样的. 有谁知道为什么会出现这些差异?谢谢. 在命令行中使用的代码. 蟒蛇>>>导入 nltk>>>nltk.download() #这里使用弹窗下载文本>>>从 nltk.book 导入 *
..
请参阅 OpenNLP - 命名实体识别的教程步骤:链接到教程我正在使用 此处 找到的“en-ner-person.bin"模型在教程中,有关于训练和创建新模型的说明.有没有办法用额外的训练数据“更新"现有的“en-ner-person.bin"? 假设我有一个包含 500 个其他人名的列表,否则这些人名不会被识别为人 - 如何生成新模型? 解决方案 抱歉,我花了一段时间才整理出一个
..
我希望按照 NLTK 第 6 章的思路进行一些分类.这本书似乎跳过了创建类别的步骤,我不确定我做错了什么.我的脚本在这里,响应如下.我的问题主要源于第一部分——基于目录名称的类别创建.这里的其他一些问题使用了文件名(即 pos_1.txt 和 neg_1.txt),但我更喜欢创建可以将文件转储到的目录. from nltk.corpus import movie_reviews评论 = Cate
..
我认为我的标题的答案通常是去阅读文档,但我浏览了NLTK书 但它没有给出答案.我对 Python 有点陌生. 我有一堆 .txt 文件,我希望能够使用 NLTK 为语料库 nltk_data 提供的语料库函数. 我已经尝试过 PlaintextCorpusReader 但我无法进一步: >>>import nltk>>>from nltk.corpus import Plaintex
..
所以我无法弄清楚我的正则表达式有什么问题.(原始对话,包括对这些 TAG 格式的解释,可以在这里找到:从 TAG 格式转换为 Corpus 的 Regex). 我以这样的字符串开头: Arms_NNS folded_VVN ,_, NNS 也可以是 NN,VVN 也可以是 VBG.我只想找到那个和其他具有相同标签的字符串(NNS 或 NN 后跟 b VVN 或 VBG 后跟逗号)
..
所以我无法弄清楚我的正则表达式有什么问题.(原始对话,包括对这些 TAG 格式的解释,可以在这里找到:从 TAG 格式转换为 Corpus 的 Regex). 我以这样的字符串开头: Arms_NNS folded_VVN ,_, NNS 也可以是 NN,VVN 也可以是 VBG.我只想找到那个和其他具有相同标签的字符串(NNS 或 NN 后跟 b VVN 或 VBG 后跟逗号)
..
我使用 python 连接到 mysql 数据库 con = _mysql.connect('localhost', 'dell-pc', '', 'test')我编写的程序完全执行需要很多时间,即大约 10 个小时.实际上,我正在尝试从语料库中读取不同的单词.读取完成后出现超时错误. 我检查了 Mysql 默认超时时间: +----------------------------+---
..
我创建了一个 PCorpus,据我所知它存储在 HDD 上,代码如下: pc = PCorpus(vs, readerControl = list(language = "pl"), dbControl = list(dbName = "pcorpus", dbType = "DB1")) 我以后如何重新连接到该数据库? 解决方案 据我所知,你不能.“数据库"实际上是一个文件哈希对象,
..
实际上,我正在尝试使用朴素贝叶斯算法基于 twitter 数据进行情感分析. 我查看了 2000 条推文. 将数据输入 R studio 后,我按如下方式拆分和预处理日期: train_size = floor(0.75 * nrow(Tweets_Model_Input))set.seed(123)train_sub = 样本(seq_len(nrow(Tweets_Model_I
..
我有一个庞大的语料库,我只对我预先知道的少数术语的外观感兴趣.有没有办法使用 tm 包从语料库创建术语文档矩阵,其中只使用和包含我预先指定的术语? 我知道我可以对语料库的结果 TermDocumentMatrix 进行子集化,但由于内存大小限制,我想避免构建完整的术语文档矩阵. 解决方案 您可以通过构建自定义转换函数来修改语料库以仅保留您想要的术语.请参阅 tm 包的插图 和 con
..
我是 R 和 tm 包的新手,所以请原谅我的愚蠢问题;-)如何在 R tm 包中显示纯文本语料库的文本? 我在一个语料库中加载了一个包含 323 个纯文本文件的语料库: src 但是当我调用语料库时: 语料库[[1]] 我总是得到一些这样的输出而不是语料库文本本身: >元数据:7内容:字符数:144内容:字符数:141内容:字符数:224内容:字符数:75内容:字符数:105
..
我正在使用 tm 包使用以下代码清理一些数据: mycorpus 然后我想将语料库转换回数据框,以便导出包含数据框原始格式数据的文本文件.我尝试了以下方法: dataframe corpus")
..
使用syuzhet包的get_nrc_sentiment时如何找到八种基本情绪(愤怒、恐惧、期待、信任、惊讶、悲伤、喜悦和厌恶)的关联词(NRC Word-Emotion Association Lexicon)? a
..