互联网舆情分析系统:基于Nanbeige 4.1-3B的情感与主题挖掘

news2026/3/31 14:54:38
互联网舆情分析系统基于Nanbeige 4.1-3B的情感与主题挖掘最近几年大家有没有感觉网上的声音越来越复杂一个热点出来瞬间就是成千上万条评论有支持的有反对的有理性分析的也有情绪宣泄的。对于企业品牌、公共机构甚至是个人创作者来说想要从这片信息的海洋里快速、准确地把握大众的真实情绪和关注焦点简直像大海捞针。传统的人工监测方法不仅效率低下成本高昂还容易因为主观判断产生偏差。这时候一个能自动“读懂”网络言论并提炼出核心观点的工具就显得尤为重要了。今天我们就来聊聊如何利用一个轻量级的开源大模型——Nanbeige 4.1-3B快速搭建一个属于自己的互联网舆情分析原型系统。这个系统能做什么呢简单来说它能像一位不知疲倦的分析师实时抓取或接入社交媒体上的文本信息然后自动完成三件事情感判断识别每条内容是正面、负面还是中性。主题提炼从海量文本中自动归纳出大家正在讨论的几个核心话题。热点摘要针对某个热点事件生成一段简洁明了的摘要让你快速了解来龙去脉。最后所有这些分析结果都会在一个简洁直观的网页仪表盘上实时展示出来。整个过程从数据到洞察完全自动化。下面我们就一步步来看看怎么实现它。1. 为什么选择Nanbeige 4.1-3B在开始动手之前你可能会问大模型那么多为什么选这个这主要基于几个很实际的考虑。首先它足够“轻巧”。Nanbeige 4.1-3B是一个30亿参数的中文模型。相比动辄百亿、千亿参数的“巨无霸”它对硬件的要求友好得多。在消费级的显卡比如一张RTX 3090或4090上就能流畅运行甚至通过一些优化手段在显存更小的卡上也能部署。这意味着个人开发者和小团队完全有能力本地化部署无需依赖昂贵的云端API数据隐私和安全也更有保障。其次它在中文场景下表现不错。这个模型是针对中文进行了深度优化的在中文理解、生成、对话等任务上都有较好的基础能力。对于我们做中文互联网的舆情分析来说这是首要前提。它能够较好地理解网络用语、缩略语甚至一些特定的情绪表达。最后它是开源的。开源意味着我们可以完全掌控模型的部署、微调和应用方式可以根据舆情分析的特殊需求比如特定行业的术语、新兴的网络梗对模型进行针对性的调整构建更贴合业务场景的分析能力。当然它也不是万能的。对于一些极其复杂、需要深度逻辑推理的文本或者涉及非常专业领域的分析它的能力可能就有边界了。但对于主流的社交媒体文本的情感倾向判断和主题归纳它已经是一个性价比非常高的起点。2. 系统核心功能与设计思路我们的目标是构建一个原型系统它不追求大而全而是快速验证核心流程。整个系统的设计可以概括为“三步走”获取数据、分析数据、展示结果。2.1 数据从哪里来舆情分析的第一步是拿到数据。对于原型系统我们可以从两种主要途径入手公开API接入许多社交媒体平台和新闻聚合网站提供公开的API接口可以按关键词、话题或时间段获取相关的帖子、评论或文章。这是最规范、最稳定的方式。定向爬取针对没有开放API或需要更灵活抓取规则的场景可以使用Python的requests、BeautifulSoup或Scrapy等库进行定向网页爬取。这里必须强调任何爬取行为都必须严格遵守网站的robots.txt协议尊重版权和个人隐私控制请求频率避免对目标服务器造成压力。在原型阶段为了快速演示我们甚至可以准备一个本地的文本文件里面包含一些模拟的社交媒体评论数据绕过数据获取的复杂性先聚焦于核心的分析与展示功能。2.2 Nanbeige模型如何进行分析这是系统的“大脑”。我们需要让Nanbeige 4.1-3B模型完成三项核心任务。情感分析这本质是一个文本分类任务。我们可以设计一个提示词Prompt让模型根据文本内容判断情感倾向。例如请判断以下文本的情感倾向是正面、负面还是中性。 文本“这个产品的新功能太棒了彻底解决了我的痛点” 情感倾向通过大量类似的示例我们可以引导模型输出“正面”、“负面”或“中性”。更进阶的做法可以对输出进行“置信度”评分或者细分为更丰富的情感类别如喜悦、愤怒、失望等。主题提取从一批相关的文本中自动找出共性话题。我们可以采用“聚类”的思想。先用模型为每段文本生成一个向量表示Embedding这些向量就像文本的“数字指纹”语义相近的文本其向量在空间中的距离也近。然后使用聚类算法如K-Means对这些向量进行分组每一组就代表一个潜在的主题。最后可以从每个组里挑选出最具代表性的关键词或让模型生成一句简短的主题描述。热点摘要针对一个具体事件相关的多条文本生成一段连贯的摘要。我们可以将所有相关文本拼接或选取关键部分后给模型一个总结性的指令例如请根据以下关于“某品牌发布会”的若干条网友评论生成一段简要的事件摘要概括主要观点和情绪。 评论1... 评论2... ... 摘要2.3 结果如何直观展示分析出来的数据是冰冷的我们需要一个友好的界面让它“活”起来。这里我们选择Streamlit。它是一个专门为机器学习和数据科学打造的超轻量级Web应用框架用Python脚本就能快速创建交互式仪表盘。我们可以设计一个包含以下几个核心组件的面板实时数据流滚动显示最新抓取并分析后的文本以及其情感标签。情感分布饼图/柱状图直观展示正面、负面、中性评论的比例。主题词云将提取出的主题关键词以词云形式展示字号越大表示热度越高。热点事件列表与摘要列出识别出的热点事件点击可查看由模型生成的详细摘要。时间趋势图展示某个主题或关键词的情感趋势随时间的变化。3. 动手搭建从环境到仪表盘理论讲完了我们来看看具体怎么实现。假设我们已经准备好了Python环境3.8以上。3.1 环境准备与模型部署首先安装必要的Python库。pip install transformers torch streamlit pandas plotly scikit-learn wordcloud接下来是加载Nanbeige 4.1-3B模型。我们可以使用Hugging Face的transformers库。由于模型较大确保你的机器有足够的GPU显存约6GB以上为佳。# model_loader.py from transformers import AutoTokenizer, AutoModelForCausalLM import torch # 指定模型路径可以是Hugging Face模型ID如 ‘nanbeige/nanbeige-4.1-3B’或本地路径 model_name “nanbeige/nanbeige-4.1-3B” print(“正在加载分词器...”) tokenizer AutoTokenizer.from_pretrained(model_name, trust_remote_codeTrue) print(“正在加载模型...这可能需要几分钟取决于你的网络和磁盘速度。”) model AutoModelForCausalLM.from_pretrained(model_name, torch_dtypetorch.float16, # 使用半精度减少显存占用 device_map“auto”, # 自动分配设备GPU/CPU trust_remote_codeTrue) model.eval() # 设置为评估模式 print(“模型加载完毕”) # 一个简单的生成函数示例 def generate_text(prompt, max_length100): inputs tokenizer(prompt, return_tensors“pt”).to(model.device) with torch.no_grad(): outputs model.generate(**inputs, max_lengthmax_length, do_sampleTrue, temperature0.7) return tokenizer.decode(outputs[0], skip_special_tokensTrue) # 测试一下 test_prompt “中国的首都是” result generate_text(test_prompt) print(f“测试输出{result}”)运行这段代码如果成功输出“测试输出中国的首都是北京”说明模型加载成功。第一次运行会从网上下载模型权重请保持网络通畅。3.2 实现核心分析功能我们创建几个函数分别对应情感分析、主题提取和摘要生成。这里给出简化的示例实际应用中需要设计更精细的提示词和结果处理逻辑。# analyzer.py import numpy as np from sklearn.cluster import KMeans from sklearn.feature_extraction.text import TfidfVectorizer class SentimentAnalyzer: def __init__(self, model, tokenizer): self.model model self.tokenizer tokenizer def analyze(self, text): 情感分析简化版实际需要更复杂的提示工程和输出解析 prompt f“” 请判断以下文本的情感倾向只输出‘正面’、‘负面’或‘中性’。 文本{text} 情感倾向 “” response self._generate(prompt, max_new_tokens10) # 简单清理响应提取关键词 response response.strip().lower() if “正面” in response: return “正面” elif “负面” in response: return “负面” else: return “中性” def _generate(self, prompt, max_new_tokens50): inputs self.tokenizer(prompt, return_tensors“pt”).to(self.model.device) with torch.no_grad(): outputs self.model.generate(**inputs, max_new_tokensmax_new_tokens, do_sampleTrue, temperature0.3) return self.tokenizer.decode(outputs[0][len(inputs[‘input_ids’][0]):], skip_special_tokensTrue) class TopicExtractor: def __init__(self): # 这里为了简化使用TF-IDF提取关键词实际可用模型生成嵌入向量再聚类 self.vectorizer TfidfVectorizer(max_features100, stop_words[‘的’ ‘了’ ‘在’ ‘是’ ‘我’]) # 添加中文停用词 def extract(self, texts, n_topics3): 提取主题使用TF-IDF和K-Means进行简单聚类 if len(texts) n_topics: return [“文本数量不足无法聚类”] * n_topics tfidf_matrix self.vectorizer.fit_transform(texts) terms self.vectorizer.get_feature_names_out() # 使用K-Means聚类 kmeans KMeans(n_clustersn_topics, random_state42).fit(tfidf_matrix) order_centroids kmeans.cluster_centers_.argsort()[:, ::-1] topics [] for i in range(n_topics): top_terms [terms[ind] for ind in order_centroids[i, :5]] # 取每个簇前5个关键词 topics.append(“, “.join(top_terms)) return topics3.3 构建Streamlit可视化仪表盘最后我们用Streamlit把一切串起来创建一个Web界面。# app.py import streamlit as st import pandas as pd import plotly.express as px from wordcloud import WordCloud import matplotlib.pyplot as plt from model_loader import model, tokenizer # 导入之前加载的模型和分词器 from analyzer import SentimentAnalyzer, TopicExtractor import time # 初始化分析器 sentiment_analyzer SentimentAnalyzer(model, tokenizer) topic_extractor TopicExtractor() # 模拟数据源 - 实际应替换为真实的API或爬虫数据 def fetch_sample_data(): return [ {“id”: 1, “text”: “这款手机拍照效果真是一流夜景模式绝了”, “source”: “微博” “time”: “2023-10-27 10:00”}, {“id”: 2, “text”: “等了半天发布会就这价格也太贵了毫无诚意。”, “source”: “知乎” “time”: “2023-10-27 10:05”}, {“id”: 3, “text”: “系统流畅度提升很明显日常使用很舒服。”, “source”: “B站评论” “time”: “2023-10-27 10:10”}, # ... 更多模拟数据 ] # 设置页面 st.set_page_config(page_title“舆情分析看板” layout“wide”) st.title(“ 互联网舆情实时分析系统原型”) st.caption(“基于 Nanbeige 4.1-3B 大模型驱动 | 数据为模拟演示”) # 侧边栏 - 控制面板 with st.sidebar: st.header(“控制面板”) analysis_btn st.button(“开始一轮分析” type“primary”) keyword st.text_input(“监控关键词” “科技创新”) num_topics st.slider(“主题数量” 2, 5, 3) # 主显示区 col1, col2 st.columns([2, 1]) with col1: st.subheader(“1. 实时舆情流”) if analysis_btn: with st.spinner(“正在获取数据并进行分析...”): sample_data fetch_sample_data() results [] for item in sample_data: # 情感分析 sentiment sentiment_analyzer.analyze(item[‘text’]) item[‘sentiment’] sentiment results.append(item) time.sleep(0.1) # 模拟处理时间 df pd.DataFrame(results) st.dataframe(df[[‘time’ ‘source’ ‘text’ ‘sentiment’]], use_container_widthTrue) # 情感分布 st.subheader(“2. 情感分布”) sentiment_count df[‘sentiment’].value_counts() fig_pie px.pie(valuessentiment_count.values, namessentiment_count.index, title“情感比例”) st.plotly_chart(fig_pie, use_container_widthTrue) # 主题提取 st.subheader(f“3. 核心主题提取 (Top {num_topics})”) topics topic_extractor.extract(df[‘text’].tolist(), n_topicsnum_topics) for i, topic in enumerate(topics, 1): st.write(f“**主题{i}**{topic}”) with col2: st.subheader(“4. 主题词云”) if analysis_btn and ‘df’ in locals(): all_text ‘ ‘.join(df[‘text’].tolist()) wordcloud WordCloud(font_path‘SimHei.ttf’, width400, height300, background_color‘white’).generate(all_text) # 需中文字体 fig, ax plt.subplots() ax.imshow(wordcloud, interpolation‘bilinear’) ax.axis(‘off’) st.pyplot(fig) st.subheader(“5. 热点事件摘要”) st.info(“点击下方模拟事件查看AI生成的摘要。”) # 这里可以放置一个交互组件例如下拉选择框选择某个热点后调用摘要生成函数 event_option st.selectbox(“选择热点事件” [“A品牌新品发布会” “B科技峰会” “C社会事件”]) if st.button(“生成摘要”): with st.spinner(“正在生成摘要...”): # 模拟调用摘要生成函数 summary “根据近期讨论A品牌新品在影像功能和性能上获得较多正面评价但定价策略引发部分消费者争议。整体市场期待值较高。” st.write(summary) st.markdown(“---”) st.caption(“*注此为原型演示系统所有数据均为模拟分析结果仅供参考。*”)保存为app.py后在终端运行streamlit run app.py浏览器就会自动打开一个本地网页这就是你的舆情分析仪表盘了。点击“开始一轮分析”就能看到模拟数据的处理结果。4. 总结与展望通过上面的步骤我们完成了一个互联网舆情分析系统的原型搭建。它虽然简单但完整地跑通了从数据模拟、模型分析到可视化展示的全流程。你可以看到利用像Nanbeige 4.1-3B这样的轻量级开源模型结合Streamlit这样的快速开发工具个人或小团队完全有能力在短时间内构建出有价值的AI应用原型。这个原型系统还有很大的优化和扩展空间。例如接入真实的社交媒体API数据流设计更鲁棒的情感分析和主题提取提示词对模型进行特定领域数据的微调以提升准确率或者增加更复杂的时间序列分析和预警功能。最重要的是这个实践过程展示了如何将前沿的大模型能力与具体的业务场景舆情分析相结合解决真实世界的问题。技术本身不是目的用它来创造价值才是关键。希望这个例子能给你带来一些启发动手试试打造一个更能满足你个性化需求的舆情分析工具吧。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464459.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…