墨语灵犀结合LSTM进行时间序列预测:原理与代码实现

news2026/3/17 16:54:50
墨语灵犀结合LSTM进行时间序列预测原理与代码实现最近在做一个金融数据分析的项目客户提了个挺有意思的需求能不能把新闻、社交媒体上的文字情绪也加到股价预测模型里毕竟一条突发利空消息可能比一堆历史K线数据更能影响明天的开盘价。传统的LSTM模型处理时间序列预测很在行但它主要“吃”的是数字比如历史价格、成交量。而那些海量的、非结构化的文本信息——新闻标题是乐观还是悲观、财报电话会议纪要里透露了什么信号——这些“语义”层面的东西它处理不了。这就引出了我们今天的主题把擅长理解文字的“墨语灵犀”大模型和擅长分析时间序列的LSTM网络结合起来。简单说就是让墨语灵犀当“翻译官”把文本变成数字情绪分再让LSTM当“分析师”结合历史股价和这个情绪分一起预测未来走势。下面我就以一个金融舆情分析预测股价的场景为例带你看看这套思路怎么落地并附上可运行的代码框架。1. 整体思路当语义理解遇见时间序列在开始敲代码之前我们先花几分钟把整个流程的逻辑理清楚。这就像做菜前先看一遍食谱知道每一步要干嘛后面才不会手忙脚乱。核心想法其实不复杂分两步走文本转数字墨语灵犀的活儿我们把每天相关的财经新闻、社交媒体帖子收集起来扔给墨语灵犀。它的任务不是生成文章而是理解这些文字背后的情绪并输出一个量化的“情感分数”。比如0.9表示极度乐观-0.8表示非常悲观0表示中性。融合预测LSTM的活儿我们原本预测股价用的特征是历史股价、成交量等。现在我们把第一步得到的情感分数作为一个新的、非常重要的特征和那些传统特征拼在一起输入到LSTM模型里。LSTM会学习历史股价走势和市场情绪之间的复杂关系从而做出更准确的预测。为什么要这么结合想象一下即使过去一周股价都在温和上涨历史序列特征但今天盘后突然爆出公司重大财务丑闻文本情绪特征。如果模型只看了股价序列它可能预测明天继续涨但结合了负面情绪特征后它就更有可能预测出下跌。这就是引入语义信息带来的“信息增量”。整个方案的流程可以用下面这张图来概括[文本数据源] - (墨语灵犀情感分析) - [情感时间序列] [股价历史数据] - (特征工程) - [传统特征序列] ↓ [特征融合] ↓ (LSTM模型训练与预测) ↓ [未来股价预测值]接下来我们就沿着这个流程一步步实现它。2. 第一步用墨语灵犀构建情感时间序列首先我们需要把每天的文本数据变成情感分数。这里假设你已经收集好了按日期排列的文本数据比如一个CSV文件里面有date和text两列。2.1 调用墨语灵犀进行情感分析我们通过其API来调用墨语灵犀的情感分析能力。你需要准备自己的API密钥和端点地址。import requests import pandas as pd import numpy as np from datetime import datetime import time # 配置你的墨语灵犀API信息此处为示例请替换为实际值 API_KEY your_moyu_lingxi_api_key_here API_ENDPOINT https://api.example.com/v1/chat/completions # 示例端点 def analyze_sentiment_with_moyu(text): 调用墨语灵犀API分析单条文本的情感倾向。 返回一个介于[-1, 1]之间的情感分数。 if not text or str(text).strip() : return 0.0 # 空文本返回中性 # 构建符合墨语灵犀格式的请求 headers { Authorization: fBearer {API_KEY}, Content-Type: application/json } # 精心设计的提示词引导模型输出情感分数 prompt f 请分析以下财经文本的情感倾向并严格输出一个介于-1到1之间的浮点数。 - -1表示极度负面/悲观 - 0表示中性 - 1表示极度正面/乐观 请只输出这个数字不要有任何其他文字、标点或解释。 文本内容{text} payload { model: moyu-lingxi-latest, # 根据实际模型名调整 messages: [{role: user, content: prompt}], temperature: 0.1, # 低温度保证输出稳定主要是数字 max_tokens: 10 } try: response requests.post(API_ENDPOINT, jsonpayload, headersheaders, timeout30) response.raise_for_status() result response.json() # 解析返回内容提取数字 content result[choices][0][message][content].strip() # 安全地提取数字防止模型返回非数字内容 try: sentiment_score float(content) # 确保分数在合理范围内 sentiment_score max(-1.0, min(1.0, sentiment_score)) return sentiment_score except ValueError: # 如果解析失败可以记录日志这里返回中性值 print(f解析情感分数失败返回内容{content}文本前50字{text[:50]}...) return 0.0 except requests.exceptions.RequestException as e: print(fAPI请求失败: {e}文本{text[:50]}...) return 0.0 except KeyError as e: print(fAPI响应格式异常: {e} 响应{result}) return 0.0 # 示例处理一批文本 def batch_sentiment_analysis(df): 为DataFrame中的每一行文本计算情感分数 print(开始批量情感分析...) sentiment_scores [] for idx, row in df.iterrows(): score analyze_sentiment_with_moyu(row[text]) sentiment_scores.append(score) # 避免请求过快添加短暂延迟根据API限制调整 time.sleep(0.1) if idx % 10 0: print(f已处理 {idx1}/{len(df)} 条) df[sentiment_score] sentiment_scores print(情感分析完成) return df # 假设你的文本数据是这样的 # df_text pd.read_csv(financial_news_daily.csv) # df_text[date] pd.to_datetime(df_text[date]) # df_with_sentiment batch_sentiment_analysis(df_text)这段代码的核心是analyze_sentiment_with_moyu函数。关键在于我们设计了一个非常明确的提示词Prompt要求模型只输出一个浮点数。这比让模型输出“正面”、“负面”等文字更容易后续处理。同时代码里加入了异常处理和限流延迟适合处理真实数据。2.2 聚合每日情感分数一天可能有多条新闻我们需要把它们聚合成一个代表当日市场整体情绪的分数。def aggregate_daily_sentiment(df_with_sentiment): 将情感分析后的数据按天聚合。 可以取平均值也可以根据新闻来源权重加权平均。 # 按日期分组计算平均情感分 daily_sentiment df_with_sentiment.groupby(date)[sentiment_score].mean().reset_index() daily_sentiment.rename(columns{sentiment_score: daily_sentiment}, inplaceTrue) # 确保日期是连续的对于没有新闻的日期用前向填充或置0 all_dates pd.date_range(startdaily_sentiment[date].min(), enddaily_sentiment[date].max(), freqD) daily_sentiment_full pd.DataFrame({date: all_dates}) daily_sentiment_full daily_sentiment_full.merge(daily_sentiment, ondate, howleft) daily_sentiment_full[daily_sentiment].fillna(methodffill, inplaceTrue) # 用前一天的填充 daily_sentiment_full[daily_sentiment].fillna(0, inplaceTrue) # 如果最开始几天没有填0 return daily_sentiment_full # 使用示例 # daily_sentiment_df aggregate_daily_sentiment(df_with_sentiment)现在我们得到了一个干净的情感分数时间序列daily_sentiment_df它和股价数据一样按日排列。3. 第二步准备LSTM模型的特征与数据现在我们有了两部分数据传统的股价序列和新鲜出炉的情感序列。下一步就是把它们“揉”在一起做成LSTM模型爱吃的样子。3.1 获取与处理股价数据假设我们从某数据源获取了股价数据。# 假设的股价数据应有日期、收盘价、成交量等 # stock_df pd.read_csv(stock_price.csv) # stock_df[date] pd.to_datetime(stock_df[date]) # 这里我们模拟生成一些数据用于演示 def generate_sample_stock_data(start_date2023-01-01, periods200): 生成模拟股价数据 dates pd.date_range(startstart_date, periodsperiods, freqD) np.random.seed(42) # 模拟一个带有趋势和波动的股价序列 base_price 100 trend np.linspace(0, 20, periods) noise np.random.randn(periods) * 5 close_prices base_price trend noise volumes np.random.randint(1000000, 5000000, sizeperiods) stock_df pd.DataFrame({ date: dates, close: close_prices, volume: volumes }) # 计算简单收益率作为预测目标 stock_df[return] stock_df[close].pct_change() return stock_df stock_df generate_sample_stock_data() print(stock_df.head())3.2 特征工程与融合这是关键一步将股价特征和情感特征对齐、合并并构造出LSTM需要的“滑动窗口”样本。def prepare_lstm_features(stock_df, sentiment_df, target_colreturn, seq_length10): 准备LSTM的输入特征和标签。 stock_df: 股价DataFrame含日期、收盘价、成交量、收益率等 sentiment_df: 情感分数DataFrame含日期和daily_sentiment seq_length: 用过去多少天的数据预测未来时间窗口长度 # 1. 按日期合并股价和情感数据 merged_df pd.merge(stock_df, sentiment_df, ondate, howinner) # 2. 选择特征列 # 传统技术指标特征这里简单举例实际可加入更多 feature_cols [close, volume, return] # 股价相关特征 # 加入情感特征 feature_cols.append(daily_sentiment) # 确保数据按日期排序 merged_df merged_df.sort_values(date).reset_index(dropTrue) feature_data merged_df[feature_cols].values # 3. 标准化/归一化 (非常重要) from sklearn.preprocessing import StandardScaler scaler StandardScaler() feature_data_scaled scaler.fit_transform(feature_data) # 4. 构造滑动窗口样本 (X) 和 对应的标签 (y) # 我们用过去seq_length天的所有特征来预测下一天的target_col例如收益率 X, y, dates [], [], [] for i in range(seq_length, len(feature_data_scaled)): X.append(feature_data_scaled[i-seq_length:i]) # 窗口特征 y.append(feature_data_scaled[i, feature_cols.index(target_col)]) # 下一天的收益率 dates.append(merged_df.iloc[i][date]) # 对应日期 X np.array(X) y np.array(y) # 5. 划分训练集和测试集 (按时间顺序不能随机打乱) split_ratio 0.8 split_idx int(len(X) * split_ratio) X_train, X_test X[:split_idx], X[split_idx:] y_train, y_test y[:split_idx], y[split_idx:] dates_train, dates_test dates[:split_idx], dates[split_idx:] print(f样本总数: {len(X)}) print(f训练集形状: X_train {X_train.shape}, y_train {y_train.shape}) print(f测试集形状: X_test {X_test.shape}, y_test {y_test.shape}) return X_train, X_test, y_train, y_test, scaler, feature_cols, dates_test # 生成模拟情感数据并与股价合并 sentiment_dates pd.date_range(start2023-01-01, periods200, freqD) np.random.seed(123) # 模拟情感分数与股价有一定相关性但非完全一致 simulated_sentiment np.random.randn(200) * 0.3 stock_df[return].shift(1).fillna(0).values * 0.5 sentiment_df pd.DataFrame({date: sentiment_dates, daily_sentiment: simulated_sentiment}) # 准备LSTM数据 seq_len 15 X_train, X_test, y_train, y_test, scaler, feature_cols, dates_test prepare_lstm_features( stock_df, sentiment_df, target_colreturn, seq_lengthseq_len )代码里的prepare_lstm_features函数完成了所有脏活累活合并数据、特征缩放、创建滑动窗口样本、并按时间顺序划分数据集。注意seq_length15意味着模型会看过去15天的所有信息包括股价和情感来预测第16天的收益率。4. 第三步构建与训练结合情感的LSTM模型数据准备好了我们来搭建模型。这里会构建两个LSTM模型进行对比一个只用传统股价特征另一个加入情感特征。这样我们能直观看到情感特征带来的提升。import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import LSTM, Dense, Dropout, Input from tensorflow.keras.callbacks import EarlyStopping import matplotlib.pyplot as plt def build_lstm_model(input_shape, with_sentimentTrue): 构建LSTM模型。 input_shape: (序列长度, 特征数量) model Sequential() model.add(Input(shapeinput_shape)) model.add(LSTM(units50, return_sequencesTrue)) # 第一层LSTM model.add(Dropout(0.2)) model.add(LSTM(units30, return_sequencesFalse)) # 第二层LSTM model.add(Dropout(0.2)) model.add(Dense(units1)) # 输出层预测一个值收益率 model.compile(optimizeradam, lossmean_squared_error, metrics[mae]) model_name LSTM_with_Sentiment if with_sentiment else LSTM_Baseline print(f{model_name} 模型结构概要:) model.summary() return model # 为了公平对比我们需要准备一份不含情感特征的基线数据 # 从特征列表中移除情感特征 baseline_feature_idx [i for i, col in enumerate(feature_cols) if col ! daily_sentiment] X_train_baseline X_train[:, :, baseline_feature_idx] X_test_baseline X_test[:, :, baseline_feature_idx] print(全特征数据形状含情感:, X_train.shape) print(基线数据形状不含情感:, X_train_baseline.shape) # 构建并训练两个模型 print(\n--- 训练结合情感的LSTM模型 ---) model_with_sentiment build_lstm_model((seq_len, X_train.shape[2]), with_sentimentTrue) early_stop EarlyStopping(monitorval_loss, patience10, restore_best_weightsTrue) history_with model_with_sentiment.fit( X_train, y_train, validation_split0.2, epochs50, batch_size32, callbacks[early_stop], verbose1 ) print(\n--- 训练基线LSTM模型仅股价特征 ---) model_baseline build_lstm_model((seq_len, X_train_baseline.shape[2]), with_sentimentFalse) history_baseline model_baseline.fit( X_train_baseline, y_train, validation_split0.2, epochs50, batch_size32, callbacks[early_stop], verbose1 )4.1 模型预测与效果对比训练完成后我们在测试集上看看两个模型的表现。# 在测试集上进行预测 y_pred_with_sentiment model_with_sentiment.predict(X_test).flatten() y_pred_baseline model_baseline.predict(X_test_baseline).flatten() # 计算评估指标 from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score def evaluate_predictions(y_true, y_pred, model_name): mse mean_squared_error(y_true, y_pred) mae mean_absolute_error(y_true, y_pred) r2 r2_score(y_true, y_pred) print(f{model_name} 评估结果:) print(f 均方误差 (MSE): {mse:.6f}) print(f 平均绝对误差 (MAE): {mae:.6f}) print(f 决定系数 (R²): {r2:.4f}) return mse, mae, r2 print(\n *50) mse_with, mae_with, r2_with evaluate_predictions(y_test, y_pred_with_sentiment, 结合情感的LSTM) mse_base, mae_base, r2_base evaluate_predictions(y_test, y_pred_baseline, 基线LSTM) # 可视化对比 plt.figure(figsize(14, 6)) # 绘制预测值与真实值对比 plt.subplot(1, 2, 1) plt.plot(dates_test, y_test, label真实值, alpha0.7, linewidth2) plt.plot(dates_test, y_pred_baseline, label基线LSTM预测, linestyle--) plt.plot(dates_test, y_pred_with_sentiment, label结合情感LSTM预测, linestyle--) plt.xlabel(日期) plt.ylabel(标准化收益率) plt.title(股价收益率预测对比) plt.legend() plt.grid(True, alpha0.3) plt.xticks(rotation45) # 绘制误差对比柱状图 plt.subplot(1, 2, 2) metrics [MSE, MAE, R²] values_with [mse_with, mae_with, r2_with] values_base [mse_base, mae_base, r2_base] x np.arange(len(metrics)) width 0.35 plt.bar(x - width/2, values_base, width, label基线LSTM, alpha0.8) plt.bar(x width/2, values_with, width, label结合情感LSTM, alpha0.8) plt.xlabel(评估指标) plt.ylabel(值) plt.title(模型性能指标对比) plt.xticks(x, metrics) plt.legend() plt.grid(True, axisy, alpha0.3) plt.tight_layout() plt.show()运行这段代码你会得到两张图。第一张是预测走势与真实值的对比可以直观看到哪个模型的预测线更贴近真实线。第二张是三个关键指标MSE、MAE、R²的柱状图对比通常你会发现结合了情感特征的模型在误差指标上更小R²更高说明其预测能力更强。5. 实际应用中的要点与扩展建议走通了整个流程你可能已经跃跃欲试想应用到自己的数据上了。别急在实际操作前有几个坑点和优化方向值得你关注。1. 文本数据质量与时效性是根本模型效果的上限很大程度上取决于你喂给墨语灵犀的文本质量。爬取的新闻要干净避免无关噪音。更重要的是情感数据的日期必须和股价数据严格对齐。用今天收盘后的新闻预测明天的股价是合理的但如果用今天早上的新闻预测今天收盘价就存在“未来信息泄露”的问题模型会虚假地表现很好。2. 情感分析的提示词需要调优我们示例中的提示词比较简单直接。在实际应用中你可能需要针对金融文本进行优化。比如可以要求模型区分“对公司本身的情绪”和“对宏观经济的情绪”甚至可以尝试让模型输出多个维度的分数如情绪强度、确定性等作为更丰富的特征。3. 特征工程可以更精细除了简单的情感均值还可以构造更复杂的文本衍生特征。例如情感波动率计算一段时间内情感分数的标准差市场情绪不稳定时可能预示波动加大。情感动量当前情感分数与N天前分数的差值。主题关键词计数结合简单的关键词匹配统计特定主题如“加息”、“财报”、“并购”出现的频率作为特征。4. 模型层面的改进多任务学习可以让模型同时预测股价方向和情感分数共享底层特征表示可能互相促进。注意力机制在LSTM基础上加入注意力层让模型学会在预测时更关注历史中那些情绪波动剧烈的日子。更复杂的架构对于非常高频的数据如分钟级可以考虑用CNN先提取文本的局部特征再用LSTM处理时间序列。5. 谨慎评估与回测金融预测充满挑战。一定要在足够长的历史数据上进行严格的回测并考虑交易成本。模型在测试集表现好不代表实盘就能赚钱。建议先用小资金模拟运行一段时间。6. 写在最后把墨语灵犀的语义理解能力和LSTM的时间序列建模能力结合起来确实为预测问题打开了一扇新窗。它不再是单纯地看数字曲线而是尝试去“理解”市场正在讨论什么、情绪如何。从我们的对比实验来看引入情感特征在多数情况下能带来可观的预测精度提升。当然这套方案不是银弹。文本数据的获取、清洗、情感分析的准确性都是需要持续投入和优化的环节。而且市场是复杂的情绪只是众多影响因素之一。如果你正在研究股价预测、商品需求预测、甚至网络流量预测而你的领域恰好有丰富的相关文本数据如社交媒体讨论、新闻报告、用户评论那么尝试引入类似墨语灵犀这样的语义分析工具很可能是一个值得探索的方向。不妨从我们提供的这个代码框架开始替换上你自己的数据看看效果如何。或许下一个预测精度的突破点就藏在你尚未利用的文本信息里。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2414908.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…