sentiment-analysis相关内容
我正在尝试使用stanford nlp来获取文本的情绪: 这是我的代码: import java.util.Properties; import edu.stanford.nlp.ling.CoreAnnotations; import edu.stanford.nlp.pipeline.Annotation; import edu.stanford.nlp.pipeline.Stanfo
..
我一直在与斯坦福大学的coreNLP合作,对我拥有的某些数据进行情感分析,并且正在创建一个训练模型.我知道我们可以使用以下命令创建训练模型: java -mx8g edu.stanford.nlp.sentiment.SentimentTraining -numHid 25 -trainPath train.txt -devPath dev.txt -train -model mod
..
我要做的就是找到任何给定字符串的情绪(正/负/中性).在研究过程中,我遇到了斯坦福大学NLP.但是可悲的是它在Java中.关于如何使它适用于python的任何想法? 解决方案 使用 py-corenlp 下载 Stanford CoreNLP 当前(2020-05-25)的最新版本是4.0.0: wget https://nlp.stanford.edu/software
..
我有一些tweet和其他变量,我想将其转换为稀疏矩阵. 这基本上就是我的数据.现在,它被保存在data.table中,其中一列包含推文,一列包含乐谱. Tweet Score Sample Tweet :) 1 Different Tweet 0 我想将其转换为如下所示的矩阵: Score Sample Tweet Di
..
我已经使用官方网站上提供的命令指定了注释者. java -cp "*" -Xmx3g edu.stanford.nlp.pipeline.StanfordCoreNLP -annotators tokenize,ssplit,pos,lemma,ner,parse,dcoref, sentiment 另外,当我尝试仅获取情感时,在提供我完全没有给出任何输出之后,首先要求其他注释者.
..
我目前正在使用Google Cloud Natural Language API,需要了解如何计算整个文档(由几个句子组成)的大小值吗? 对于文档情感分数,取每个句子的分数平均值.对于文档幅度,我会假设它是通过取每个句子的各个幅度值的绝对和来计算的.但是在测试了某些段落之后,很显然这不是计算它的正确方法.谁能向我解释一下? 非常感谢您的帮助! 解决方案 它被计算为所有句子的大小
..
我正在从Twitter进行情感分析,但我的推文使用西班牙语,因此我无法使用tidytext对单词进行分类.有人知道西班牙有没有类似的包裹? 不幸的是, 解决方案 对于非英语语言的情感词典,目前没有很多好的开源选项.您可以向作者索取其他语言的 NRC词典;它由Google Translate翻译(当然会增加不确定性,但总体看来还不错),作者说,他们出于研究目的而将其赠予,但会收取商业使用费用.
..
我有一个电影评论数据集.它有两列:'class'和'reviews'.我已经完成了大多数常规的预处理工作,例如:降低字符,删除停用词,删除标点符号.在预处理结束时,每个原始评论看起来像是用空格分隔符分隔的单词. 我想使用CountVectorizer,然后使用TF-IDF来创建我的数据集的特征,以便我可以使用Random Forest进行分类/文本识别.我调查了网站,然后尝试做网站.这是我的
..
我想计算我拥有的一些头条新闻的极性和主观性. 我的代码工作正常,它没有给出任何错误,但是对于某些行,其极性和主观性给出的结果为0.00000.你知道为什么吗? 您可以在此处下载数据表格: https://www.sendspace.com/file/e8w4tw 我做错什么了吗? 这是代码: import pandas as pd from textblob import
..
我正在对金融文章进行情绪分析.为了提高我的朴素贝叶斯分类器的准确性,我想实施求反处理. 具体来说,我想在"not"或"n't"之后的单词上添加前缀"not _" 所以如果我的语料库中有这样的内容: x
..
我正在使用tm软件包清理Twitter语料库.但是,该程序包无法清除表情符号. 这是重复的代码: July4th_clean
..
我正在尝试实施朴素的贝叶斯分类器进行情感分析.我计划使用TF-IDF加权度量.我现在有点卡住了. NB通常使用单词(特征)频率来找到最大似然.那么如何在朴素贝叶斯中引入TF-IDF加权度量? 解决方案 您将TF-IDF权重用作统计模型中的特征/预测变量.我建议使用gensim [1]或scikit-learn [2]来计算权重,然后将其传递给您的朴素贝叶斯拟合过程. 可能还会对sci
..
我正在使用AlchemyAPI进行文本分析。我想知道是否存在影响API结果或根据要求对其进行微调的方法。 我试图分析互联网上可用的不同呼叫中心对话。要了解情绪,即客户是否不满意/生气,因此谈话是否定性。 在10个谈话中,有9个定性为积极,1个定性为负。这次谈话是关于应急系统(美国的911号)。看来,开枪,恐惧,恐慌,警察,警笛这些词可能会导致这种结果。 但实际上整个对话都富有成果
..
我非常讨厌发布有关整个代码块的问题,但是过去3个小时我一直在研究这个问题,我无法全神贯注于正在发生的事情.我从一个CSV文件中检索了大约600条推文,其分数值在-2到2之间变化,反映了对总统候选人的看法. 但是,当我对任何其他数据运行此训练样本时,仅返回一个值(正值).我检查了分数是否正确添加,是否正确.对我来说,从600多种培训中将85,000条推文全部定为“阳性",这对我来说是没有意义的
..
我正在尝试对社交网络中的大量数据进行情感分析.代码的一部分非常适合数据量较小的情况. 小于20mb的输入大小在计算时没有问题.但是,如果大小超过20mb,则会出现内存错误. 环境:Windows 10,带有更新版本软件包的anaconda3.x. 代码: def captionsenti(F_name): print ("reading from csv file
..
我知道您可以通过将自己的单词手动添加到vader_lexicon.txt文件中来添加自己的单词.我想知道是否还有另一种方法可以在python代码中执行此操作,因为我不希望使用我的代码的人需要再修改其他.txt文件. from nltk.sentiment.vader import SentimentIntensityAnalyzer as SIA sia = SIA() sia.lexic
..
我正在尝试训练NLTK分类器进行情感分析,然后使用pickle保存分类器. 新近训练的分类器工作正常.但是,如果我加载保存的分类器,则所有示例的分类器将输出“正"或“负". 我正在使用保存分类器 classifier = nltk.NaiveBayesClassifier.train(training_set) classifier.classify(words_in_tweet) f
..
我确实有一些正面和负面的句子.我想非常简单地使用Python NLTK来训练NaiveBayesClassifier来调查其他句子的情绪. 我尝试使用此代码,但是我的结果始终是肯定的. http://www.sjwhitworth.com/sentiment-analysis-in- python-using-nltk/ 我是python的新手,所以复制代码时我的代码有误. im
..
我在这里需要一点帮助,我需要确定负面词,例如“不好",“不错",然后确定情绪的极性(负向或正向).除了处理否定之外,我已做了所有事情.我只想知道如何将否定词包括进去.我该怎么办? 解决方案 否定处理是一个广阔的领域,具有许多不同的潜在实现方式.在这里,我可以提供示例代码,该代码可否定文本序列并以not_形式存储否定的uni/bi/trigram.请注意,此处未使用nltk来支持简单的文本处
..
我希望使用NLTK来获得单个单词和句子中每个单词之间的相似性. NLTK可以得到两个特定单词之间的相似性,如下所示.此方法要求给出对该单词的特定引用,在本例中为'dog.n.01',其中dog是名词,我们要使用第一个(01)NLTK定义. dog = wordnet.synset('dog.n.01') cat = wordnet.synset('cat.n.01') print d
..