当前位置: 首页 > news >正文

湘潭网站制作公司想建个图片网站

湘潭网站制作公司,想建个图片网站,你知道的在线视频观看的,跨境电商平台开发第1关#xff1a;情感分析的基本方法 情感分析简介 情感分析#xff0c;又称意见挖掘、倾向性分析等。简单而言#xff0c;是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程。在日常生活中#xff0c;情感分析的应用非常普遍#xff0c;下面列举几种常见的…第1关情感分析的基本方法 情感分析简介 情感分析又称意见挖掘、倾向性分析等。简单而言是对带有情感色彩的主观性文本进行分析、处理、归纳和推理的过程。在日常生活中情感分析的应用非常普遍下面列举几种常见的应用场景。 图 1 1、电子商务 情感分析最常应用到的领域就是电子商务。例如淘宝和京东用户在购买一件商品以后可以发表他们关于该商品的体验。通过分配等级或者分数这些网站能够为产品和产品的不同功能提供简要的描述。客户可以很容易产生关于整个产品的一些建议和反馈。通过分析用户的评价可以帮助这些网站提高用户满意度完善不到位的地方。 2、舆情分析 无论是政府还是公司都需要不断监控社会对于自身的舆论态度及时感知舆情进行情感分析有助于及时公关正确维护好公司的品牌以及产品和服务评价。 3、市场呼声 市场呼声是指消费者使用竞争对手提供的产品与服务的感受。及时准确的市场呼声有助于取得竞争优势并促进新产品的开发。尽早检测这类信息有助于进行直接、关键的营销活动。情感分析能够为企业实时获取消费者的意见。这种实时的信息有助于企业制定新的营销策略改进产品功能并预测产品故障的可能。 根据分析载体的不同情感分析会涉及很多主题包括针对电影评论、商品评论以及新闻和博客等的情感分析。对情感分析的研究到目前为止主要集中在两个方面识别给定的文本实体是主观的还是客观的以及识别主观的文本的极性。大多数情感分析研究都使用机器学习方法。 在情感分析领域文本可以划分为积极和消极两类或者积极、消极和中性或不相关的多类。分析方法主要分为:词法分析、基于机器学习的分析以及混合分析。 词法分析 词法分析运用了由预标记词汇组成的字典使用词法分析器将输入文本转换为单词序列将每一个新的单词与字典中的词汇进行匹配。如果有一个积极的匹配分数加到输入文本的分数总池中相反如果有一个消极的匹配输入文本的总分会减少。具体流程如图2所示。 图 2 词法分析的流程 文本的分类取决于文本的总得分。目前有大量的工作致力于度量词法信息的有效性。对单个短语通过手动标记词汇仅包含形容词的方式大概能达到85%准确率这是由评价文本的主观性所决定的。词法分析也存在一个不足其性能时间复杂度和准确率会随着字典大小词汇的数量的增加而迅速下降。 机器学习方法 机器学习技术由于其具有高的适应性和准确性受到了越来越多的关注。在情感分析中主要使用的是监督学习方法。它可以分为三个阶段数据收集、预处理、训练分类。在训练过程中需要提供一个标记语料库作为训练数据。分类器使用一系列特征向量对目标数据进行分类。 在机器学习技术中决定分类器准确率的关键是合适的特征选择通常来说单个短语、 两个连续的短语以及三个连续的短语都可以被选为特征向量当然还有其他的一些特征如积极词汇的数量等。 机器学习技术面临很多挑战如分类器的设计、训练数据的获取、对一些未见过的短语的正确解释等等。 混合分析 情感分析研究的进步吸引大量研究者开始探讨将两种方法进行组合的可能性既可以利用机器学习方法的高准确性又可以利用词法分析快速的特点。有研究者利用由两个词组成的词汇和一个未标记的数据将这些由两个词组成的词汇划分为积极的类和消极的类。利用被选择的词汇集合中的所有单词产生一些伪文件。然后计算伪文件与未标记文件之间的余弦相似度。根据相似度将该文件划分为积极的或消极的情感。之后这些训练数据集被送入朴素贝叶斯分类器进行训练。 第2关基于情感词典的情感分析实战 情感极性分析简介 情感极性分析是对带有感情色彩的主观性文本进行分析、处理、归纳和推理的过程。按照处理文本的类别不同可分为基于新闻评论的情感分析和基于产品评论的情感分析。其中前者多用于舆情监控和信息预测后者可帮助用户了解某一产品在大众心目中的口碑目前常见的情感极性分析方法主要是两种基于情感词典的方法和基于机器学习的方法。本实训主要接下来将主要介绍基于情感词典的情感分析关于基于机器学习的情感分析将在后续实训中介绍。 图 1 基于情感词典的情感分析 基于情感词典的情感分析应该是最简单的情感分析方法了它的思路大概为对文档分词找出文档中的情感词、否定词以及程度副词然后判断每个情感词之前是否有否定词及程度副词将它之前的否定词和程度副词划分为一个组如果有否定词将情感词的情感权值乘以−1如果有程度副词就乘以程度副词的程度值最后所有组的得分加起来大于0的归于正向小于0的归于负向。 基于情感词典的情感分析算法流程如下 将一个中文文本转换为一个有短句子字符串组成列表 对每一个短句子字符串进行如下操作 使用 jieba 分词系统将一个短句子转换成词语、词性对的列表使用词语的词性筛选出潜在的情感词语在已有的情感词典中查找这些潜在的情感词语所查找的情感词语的情感词语分类 以及它的情感值组合成一个词典并记录到一个列表中使用相应的算法处理这个列表得出这个小句子的情感极值。 将一个中文文本中的所有短句子的情感极值记录在一个列表中 使用相应的算法处理这个列表, 得出整个中文文本的情感极值。 采用情感词典的情感分析算法准确度主要取决于分词的准确率以及情感词典的准确率对句式简单的句子的识别准确率高但对复杂句子的分析依赖于复杂的文本处理算法。 算法实现 在进行基于情感词典的情感分析之前首先我们需要准备好基础数据包括有情感词典、否定词词典、程度副词词典、停用词词。然后开始进行以下步骤 1、分词 对我们需要进行情感分析的句子进行分词将分词结果转为字典key 为单词value 为单词在分词结果中的索引。 def list_to_dict(word_list):data {}for x in range(0, len(word_list)): # 将分词结果转为字典data[word_list[x]] x # key 为单词value 为索引return data 2、分词结果的处理 在构建好字典以后我们需要对分词结果进行分类找出句子中的情感词、否定词和程度副词等等便于后续计算情感极性分值。 for word in word_dict.keys():if word in sen_dict.keys() and word not in not_word_list and word not in degree_dic.keys():# 找出分词结果中在情感字典中的词sen_word[word_dict[word]] sen_dict[word]elif word in not_word_list and word not in degree_dic.keys():# 分词结果中在否定词列表中的词not_word[word_dict[word]] -1elif word in degree_dic.keys():# 分词结果中在程度副词中的词degree_word[word_dict[word]] degree_dic[word] 3、计算得分 首先设置初始权重 W 为1从第一个情感词开始用权重 W*该情感词的情感值作为得分用 score 记录然后判断与下一个情感词之间是否有程度副词及否定词如果有否定词将W*-1如果有程度副词W*程度副词的程度值此时的 W 作为遍历下一个情感词的权重值循环直到遍历完所有的情感词每次遍历过程中的得分 score 加起来的总和就是这篇文档的情感得分。  def socre_sentiment(sen_word, not_word, degree_word, seg_result):计算得分# 权重初始化为1W 1score 0# 情感词下标初始化sentiment_index -1# 情感词的位置下标集合sentiment_index_list list(sen_word.keys())# 遍历分词结果(遍历分词结果是为了定位两个情感词之间的程度副词和否定词)for i in range(0, len(seg_result)):# 如果是情感词根据下标是否在情感词分类结果中判断if i in sen_word.keys():# 权重*情感词得分score W * float(sen_word[i])# 情感词下标加1获取下一个情感词的位置sentiment_index 1if sentiment_index len(sentiment_index_list) - 1:# 判断当前的情感词与下一个情感词之间是否有程度副词或否定词for j in range(sentiment_index_list[sentiment_index], sentiment_index_list[sentiment_index 1]):# 更新权重如果有否定词取反if j in not_word.keys():W * -1elif j in degree_word.keys():# 更新权重如果有程度副词分值乘以程度副词的程度分值W * float(degree_word[j])# 定位到下一个情感词if sentiment_index len(sentiment_index_list) - 1:i sentiment_index_list[sentiment_index 1]return score 编程要求 在右侧编辑器中的 Begin-End 之间补充 Python 代码完成基于情感词典对所输入文本进行情感分析并输出情感分析结果。其中文本内容通过 input 从后台获取。 测试说明 平台将使用测试集运行你编写的程序代码若全部的运行结果正确则通关。 测试输入 我喜欢和你一起玩 预期输出 Building prefix dict from the default dictionary ... Dumping model to file cache /tmp/jieba.cache Loading model cost 1.083 seconds. Prefix dict has been built successfully. # 分词过程的附件信息 情感分析值为0.00919122712083 from collections import defaultdict import jieba import codecs def seg_word(sentence): # 使用jieba对文档分词seg_list jieba.cut(sentence)seg_result []for w in seg_list:seg_result.append(w)# 读取停用词文件stopwords set()fr codecs.open(./stopword.txt, r, utf-8)for word in fr:stopwords.add(word.strip())fr.close()# 去除停用词return list(filter(lambda x: x not in stopwords, seg_result)) def classify_words(word_dict): # 词语分类,找出情感词、否定词、程度副词# 读取情感字典文件sen_file open(./sentiment_score.txt, r, encodingutf-8)# 获取字典文件内容sen_list sen_file.readlines()# 创建情感字典sen_dict defaultdict()# 读取字典文件每一行内容将其转换为字典对象key为情感词value为对应的分值for s in sen_list:# 每一行内容根据空格分割索引0是情感词索引1是情感分值sen_dict[s.split( )[0]] s.split( )[1]# 读取否定词文件not_word_file open(./notDic.txt, r, encodingutf-8)# 由于否定词只有词没有分值使用list即可not_word_list not_word_file.readlines()# 读取程度副词文件degree_file open(./degree.txt, r, encodingutf-8)degree_list degree_file.readlines()degree_dic defaultdict()# 程度副词与情感词处理方式一样转为程度副词字典对象key为程度副词value为对应的程度值for d in degree_list:degree_dic[d.split(,)[0]] d.split(,)[1]# 分类结果词语的index作为key,词语的分值作为value否定词分值设为-1sen_word dict()not_word dict()degree_word dict()# 分类for word in word_dict.keys():if word in sen_dict.keys() and word not in not_word_list and word not in degree_dic.keys():# 找出分词结果中在情感字典中的词sen_word[word_dict[word]] sen_dict[word]elif word in not_word_list and word not in degree_dic.keys():# 分词结果中在否定词列表中的词not_word[word_dict[word]] -1elif word in degree_dic.keys():# 分词结果中在程度副词中的词degree_word[word_dict[word]] degree_dic[word]sen_file.close()degree_file.close()not_word_file.close()# 将分类结果返回return sen_word, not_word, degree_word def list_to_dict(word_list):data {}for x in range(0, len(word_list)):data[word_list[x]] xreturn data def get_init_weight(sen_word, not_word, degree_word):# 权重初始化为1W 1# 将情感字典的key转为listsen_word_index_list list(sen_word.keys())if len(sen_word_index_list) 0:return W# 获取第一个情感词的下标遍历从0到此位置之间的所有词找出程度词和否定词for i in range(0, sen_word_index_list[0]):if i in not_word.keys():W * -1elif i in degree_word.keys():# 更新权重如果有程度副词分值乘以程度副词的程度分值W * float(degree_word[i])return W def socre_sentiment(sen_word, not_word, degree_word, seg_result): # 计算得分# 权重初始化为1W 1score 0# 情感词下标初始化sentiment_index -1# 情感词的位置下标集合sentiment_index_list list(sen_word.keys())# 任务完成基于情感词典对情感得分的计算# ********** Begin *********#for i in range(0, len(seg_result)):# 如果是情感词根据下标是否在情感词分类结果中判断if i in sen_word.keys():# 权重*情感词得分score W * float(sen_word[i])# 情感词下标加1获取下一个情感词的位置sentiment_index 1if sentiment_index len(sentiment_index_list) - 1:# 判断当前的情感词与下一个情感词之间是否有程度副词或否定词for j in range(sentiment_index_list[sentiment_index], sentiment_index_list[sentiment_index 1]):# 更新权重如果有否定词取反if j in not_word.keys():W * -1elif j in degree_word.keys():# 更新权重如果有程度副词分值乘以程度副词的程度分值W * float(degree_word[j])# 定位到下一个情感词if sentiment_index len(sentiment_index_list) - 1:i sentiment_index_list[sentiment_index 1]# ********** End **********#return score def setiment_score(sententce):# 1.对文档分词seg_list seg_word(sententce)# 2.将分词结果列表转为dic然后找出情感词、否定词、程度副词sen_word, not_word, degree_word classify_words(list_to_dict(seg_list))# 3.计算得分score socre_sentiment(sen_word, not_word, degree_word, seg_list)return score 第3关基于 SnowNLP 的情感分析实战 情感分析方法 情感分析即对带有主观色彩的文本进行正向、负向、中性等感情色彩进行确定的方法。情感分析的一般步骤为输入大量真实的评论文本通过情感分析对每条评论进行正向负向中性判断再进行统计分析从而得出作品的好评度。 目前主流的情感分析方法有基于情感词典的情感分析、基于机器学习的情感分析。 图 1 1、基于情感词典的情感分析 情感词典法即基于情感词否定词、副词等大量词库利用相关计算公式对每条评论进行打分最后基于得分判断评论的褒贬性。得分为正即为正向评论如果是负分则是负向评论0是中性评论。其中情感词、程度词、否定词来自于情感词库其权重的确定由具体所使用的的模型来确定。算法步骤如图2所示。 图 2 基于情感词典的情感分析 需要注意的是根据算法对计算出的得分进行的判断不一定是真实的结果。为了使得判断结果更可信常常可以通过人工标注对大量评论进行真实准确地判断再对比算法判断和人工标注的判断来检验算法的准确性。词典匹配的情感分析语料适用范围更广但受限于语义表达的丰富性。 2、基于机器学习的情感分析 情感分析本质上是一个二分类的问题通过采用机器学习的方法识别选取文本中的情感词作为特征词将文本矩阵化利用逻辑回归朴素贝叶斯支持向量机等方法进行分类。最终分类效果取决于训练文本的选择以及正确的情感标注。算法逻辑如图3所示。 图 3 基于机器学习的情感分析 认识 SnowNLP SnowNLP 是一个基于 python 的自然语言处理库可以方便地处理中文文本内容处理英文内容的包主要有 TextBlob SnowNLP 则是受 TextBlob 的影响而开发的和 TextBlob 不同的是它并没有使用用 NLTK 所有的算法都是自己实现的并且自带了一些训练好的字典。 在我们进行自然语言处理的实际开发中SnowNLP 是一个很好的工具。SnowNLP 的功能有很多如中文分词、词性标注、文本分类、情感分析等等。SnowNLP 在实际应用的过程中我们需要先根据文本创建一个 SnowNLP 对象再使用对应的方法进行想要的操作。 示例对文本进行分词 from snownlp import SnowNLPs SnowNLP(u这个东西真心很赞) # 对文本进行分词print(s.words) 输出结果 [这个, 东西, 真心, 很, 赞] 基于 SnowNLP 进行情感分析 SnowNLP 库中的已经训练好的情感分析模型是基于商品的评论数据而得出的因此在实际使用的过程中需要根据自己的情况重新训练模型。在使用 SnowNLP 进行情感分析时会得到一个返回值返回值代表的是文本为正面情绪的概率越接近1表示正面情绪越接近0表示负面情绪。 示例文本情感分析 from snownlp import SnowNLPs SnowNLP(u今天我很快乐。你怎么样呀); # 对文本进行情感分析print([sentiments],s.sentiments); 输出结果 [sentiments] 0.971889316039116 在实际的项目中可以根据需要对实际的数据重新训练情感分析的模型训练步骤大致分为如下的几个步骤 准备正负样本并分别保存 利用 SnowNLP 训练新的模型 保存好新的模型以供情感分析。 编程要求 在右侧编辑器中的 Begin-End 之间补充 Python 代码完成基于 SnowNLP 对所输入文本进行情感分析并输出情感分析结果。其中文本内容通过 input 从后台获取。 测试说明 平台将使用测试集运行你编写的程序代码若全部的运行结果正确则通关。 测试输入 今天很欢乐 预期输出 积极情绪 from snownlp import SnowNLP def Analysis():text input()result0 # 任务使用 SnowNLP 模块对 text文本进行情感分析将分析结果保存到result变量中 # ********** Begin *********#sSnowNLP(text)results.sentiments # ********** End **********#return result
http://www.w-s-a.com/news/184955/

相关文章:

  • 收益网站制作移动互联网应用的使用情况表格
  • 专业的手机网站建设公司哪家好同城信息网站建设
  • 参与做网站的收获国外网站服务器建设
  • 西宁网站建设报价cu君博规范网站kv如何做
  • 毕业室内设计代做网站广东建设监理协会网站个人账号
  • 百度推广点击收费标准自己如何做网站优化
  • 安徽省建设监理网站广州澄网站建设公司
  • 做简历用什么网站俄罗斯搜索引擎浏览器官网入口
  • dw里响应式网站怎么做制作网站需要多少时间
  • 网站如何做双链路示范学校建设专题网站
  • 网站开发北京影视网站seo描述
  • 高端网站定制建设公司哪家好企业网络推广技巧
  • 建设公司网站的内容建筑设计图片
  • 用ps怎么做网站的效果图互联网营销师报名入口官网
  • 网站的后端怎么开发网站 白名单
  • 济宁中小企业网站建设wordpress爆破工具
  • 零基础网站建设视频商城系统平台有哪些
  • 那个网站做百科好过wordpress删除
  • 优化网站排名怎么制作网站建设数据库模板
  • 哪个建站软件比较好带论坛都有什么公司需要网站建设
  • 同城便民网站开发自己免费怎么制作网站吗
  • 数据库网站开发教程网站内部优化是什么意思
  • 哈尔滨建站怎么做广西seo快速排名
  • 公司网站建设的不足企业文档管理wordpress
  • .net做的网站代码网站怎么加二级域名
  • 网站建设方案对比分析报告成都短视频代运营
  • 企业所得税税率知多少重庆seo什么意思
  • ftp如何修改网站备案号百度云建站
  • 免费做网站空间dede二手车网站源码
  • 网站服务器需要多大设计网站公司开发