从GitHub热门项目到实战:手把手教你复现一篇ICLR‘24时间序列预测论文(附完整代码)

news2026/4/7 2:19:21
从GitHub热门项目到实战手把手教你复现一篇ICLR24时间序列预测论文附完整代码在人工智能领域前沿论文与开源代码的结合正成为推动技术进步的重要动力。GitHub上涌现出大量包含顶会论文和配套实现的仓库如AI4TS这样的专业资源库为研究者提供了宝贵的学习材料。然而面对海量的论文和代码许多工程师和研究生常常感到无从下手——如何从论文阅读者转变为代码实践者将理论转化为可运行的解决方案本文将聚焦ICLR 2024最新时间序列预测论文iTransformer带你完成从环境配置到结果复现的全流程实战。1. 论文选择与环境准备选择适合复现的论文是成功的第一步。ICLR 2024的iTransformer《Inverted Transformers Are Effective for Time Series Forecasting》因其创新的架构设计和出色的性能表现成为理想选择。该论文提出了倒置Transformer的概念通过调整传统Transformer的注意力机制和位置编码方式显著提升了长序列预测的准确性。复现环境配置步骤硬件要求GPUNVIDIA RTX 3090或更高至少24GB显存内存32GB以上存储100GB可用空间用于数据集和模型缓存软件依赖# 创建conda环境 conda create -n itransformer python3.9 conda activate itransformer # 安装PyTorch pip install torch1.13.1cu116 torchvision0.14.1cu116 torchaudio0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116 # 安装其他依赖 pip install numpy pandas scikit-learn matplotlib tqdm tensorboard关键版本控制库名称版本重要性说明PyTorch1.13.1必须匹配CUDA 11.6CUDA Toolkit11.6与PyTorch版本强关联cuDNN8.4.0影响GPU计算效率注意环境配置是复现过程中最容易出错的环节。建议先在小规模数据上验证环境是否正确再开展完整实验。2. 数据准备与预处理iTransformer论文使用了多个标准时间序列数据集进行验证包括ETTElectricity Transformer Temperature、Weather和Traffic等。我们将以ETTh1电力变压器温度每小时数据为例展示完整的数据处理流程。数据获取与清洗import pandas as pd from sklearn.preprocessing import StandardScaler # 加载原始数据 data pd.read_csv(ETTh1.csv) # 处理缺失值 data.fillna(methodffill, inplaceTrue) # 前向填充 data.dropna(inplaceTrue) # 删除剩余缺失值 # 标准化处理 scaler StandardScaler() scaled_data scaler.fit_transform(data[[HUFL,HULL,MUFL,MULL,LUFL,LULL,OT]])数据集划分策略训练集2016年7月-2021年6月60个月验证集2021年7月-2021年12月6个月测试集2022年1月-2022年7月7个月滑动窗口生成import torch from torch.utils.data import Dataset class TimeSeriesDataset(Dataset): def __init__(self, data, seq_len, pred_len): self.data data self.seq_len seq_len self.pred_len pred_len def __getitem__(self, index): x self.data[index:indexself.seq_len] y self.data[indexself.seq_len:indexself.seq_lenself.pred_len] return torch.FloatTensor(x), torch.FloatTensor(y) def __len__(self): return len(self.data) - self.seq_len - self.pred_len 1 # 参数设置与论文一致 seq_len 96 # 输入序列长度 pred_len 336 # 预测长度 batch_size 32 # 创建数据加载器 train_dataset TimeSeriesDataset(train_data, seq_len, pred_len) train_loader torch.utils.data.DataLoader(train_dataset, batch_sizebatch_size, shuffleTrue)3. 模型实现详解iTransformer的核心创新在于其倒置设计——与传统Transformer处理序列的方式不同它将时间点视为token将变量维度视为序列。这种结构特别适合多元时间序列预测任务。关键组件实现倒置注意力层class InvertedAttention(nn.Module): def __init__(self, d_model, n_heads, dropout0.1): super().__init__() self.d_model d_model self.n_heads n_heads self.head_dim d_model // n_heads self.qkv nn.Linear(d_model, d_model * 3) self.dropout nn.Dropout(dropout) self.proj nn.Linear(d_model, d_model) def forward(self, x): B, L, D x.shape # Batch, SeqLen, Dim # 倒置处理将维度作为序列 x x.transpose(1, 2) # [B, D, L] qkv self.qkv(x).reshape(B, D, 3, self.n_heads, self.head_dim) q, k, v qkv.unbind(2) # [B, D, n_heads, head_dim] attn (q k.transpose(-2, -1)) / math.sqrt(self.head_dim) attn attn.softmax(dim-1) attn self.dropout(attn) out (attn v).transpose(1, 2).reshape(B, D, L) out self.proj(out) return out.transpose(1, 2) # 恢复原始维度完整模型架构class iTransformer(nn.Module): def __init__(self, enc_in7, dec_in7, c_out7, seq_len96, pred_len336, d_model512, n_heads8, e_layers3, d_ff2048, dropout0.05): super().__init__() self.pred_len pred_len # 编码器 self.enc_embedding DataEmbedding(enc_in, d_model, dropout) self.encoder Encoder( [ EncoderLayer( InvertedAttention(d_model, n_heads, dropoutdropout), d_model, d_ff, dropoutdropout ) for _ in range(e_layers) ] ) # 解码器 self.dec_embedding DataEmbedding(dec_in, d_model, dropout) self.projection nn.Linear(d_model, c_out, biasTrue) def forward(self, x_enc, x_dec): enc_out self.enc_embedding(x_enc) enc_out self.encoder(enc_out) dec_out self.dec_embedding(x_dec) dec_out self.projection(dec_out) return dec_out[:, -self.pred_len:, :]自定义数据嵌入层class DataEmbedding(nn.Module): def __init__(self, c_in, d_model, dropout0.1): super().__init__() self.value_embedding nn.Linear(c_in, d_model) self.position_embedding PositionalEncoding(d_model) self.dropout nn.Dropout(dropout) def forward(self, x): x self.value_embedding(x) self.position_embedding(x) return self.dropout(x)4. 训练技巧与调优策略成功复现顶会论文不仅需要正确实现模型还需要掌握关键的训练技巧。以下是经过验证的有效方法分阶段训练策略预热阶段前10%训练步数使用较低学习率1e-4只更新嵌入层和最后一层参数目标建立稳定的特征表示主体训练阶段学习率5e-4使用余弦退火调度批量大小32根据显存调整梯度裁剪max_norm3.0微调阶段最后5%训练步数学习率降至1e-5冻结部分层如底层编码器只更新高层网络参数关键训练代码from torch.optim.lr_scheduler import CosineAnnealingLR model iTransformer().cuda() criterion nn.MSELoss() optimizer torch.optim.AdamW(model.parameters(), lr5e-4) scheduler CosineAnnealingLR(optimizer, T_max100, eta_min1e-5) for epoch in range(100): model.train() for x, y in train_loader: x, y x.cuda(), y.cuda() # 前向传播 outputs model(x, x[:, -96:, :]) loss criterion(outputs, y) # 反向传播 optimizer.zero_grad() loss.backward() torch.nn.utils.clip_grad_norm_(model.parameters(), 3.0) optimizer.step() scheduler.step() # 验证集评估 model.eval() with torch.no_grad(): val_loss evaluate(model, val_loader, criterion) print(fEpoch {epoch}: Train Loss {loss.item():.4f}, Val Loss {val_loss:.4f})常见问题解决方案问题现象可能原因解决方案验证损失震荡大学习率过高降低学习率增加warmup阶段训练损失不下降梯度消失/爆炸检查初始化添加LayerNormGPU内存不足批量过大/序列过长减小batch_size或使用梯度累积预测结果全为均值损失函数设计问题尝试MAE损失或分位数损失过拟合严重模型容量过大增加Dropout添加L2正则提示使用TensorBoard或Weights Biases记录训练过程可视化损失曲线和注意力权重分布这对调试模型非常有用。5. 结果复现与性能对比完成模型训练后我们需要在测试集上评估性能并与论文报告的结果进行对比。iTransformer论文中报告的主要指标包括MSE均方误差和MAE平均绝对误差。评估代码实现def evaluate(model, data_loader, metrics[mse, mae]): model.eval() total_loss {m: 0 for m in metrics} count 0 with torch.no_grad(): for x, y in data_loader: x, y x.cuda(), y.cuda() outputs model(x, x[:, -96:, :]) if mse in metrics: total_loss[mse] F.mse_loss(outputs, y).item() * x.size(0) if mae in metrics: total_loss[mae] F.l1_loss(outputs, y).item() * x.size(0) count x.size(0) return {k: v/count for k,v in total_loss.items()} # 测试集评估 test_metrics evaluate(model, test_loader) print(fTest MSE: {test_metrics[mse]:.4f}, MAE: {test_metrics[mae]:.4f})ETTh1数据集上的预期结果预测长度论文报告MSE复现MSE (预期)允许误差范围960.3840.39-0.42±10%1920.4360.44-0.48±10%3360.4970.50-0.55±10%7200.5630.57-0.62±10%如果复现结果与论文差异超过15%建议检查以下方面数据预处理是否完全一致特别是归一化方法模型超参数层数、注意力头数等是否正确训练策略学习率调度、正则化等是否匹配随机种子是否固定影响初始化可视化预测结果import matplotlib.pyplot as plt def plot_predictions(model, dataset, num_samples3): fig, axes plt.subplots(num_samples, 1, figsize(15, 5*num_samples)) for i in range(num_samples): idx torch.randint(0, len(dataset), (1,)).item() x, y dataset[idx] with torch.no_grad(): pred model(x.unsqueeze(0).cuda(), x[-96:].unsqueeze(0).cuda()) pred pred.cpu().squeeze() axes[i].plot(y[:, -1], labelGround Truth) axes[i].plot(pred[:, -1], labelPrediction) axes[i].set_title(fSample {i1}) axes[i].legend() plt.tight_layout() plt.show() plot_predictions(model, test_dataset)6. 进阶优化与迁移实践成功复现基础模型后可以考虑以下方向进行优化和改进性能优化技巧混合精度训练from torch.cuda.amp import autocast, GradScaler scaler GradScaler() for x, y in train_loader: optimizer.zero_grad() with autocast(): outputs model(x.cuda(), x[:, -96:, :].cuda()) loss criterion(outputs, y.cuda()) scaler.scale(loss).backward() scaler.step(optimizer) scaler.update()模型量化部署优化quantized_model torch.quantization.quantize_dynamic( model, {torch.nn.Linear}, dtypetorch.qint8 ) torch.save(quantized_model.state_dict(), quantized_itransformer.pth)自定义注意力机制class EfficientInvertedAttention(nn.Module): def __init__(self, d_model, n_heads, dropout0.1): super().__init__() # 实现更高效的低秩注意力变体 pass迁移到新数据集 当将iTransformer应用于其他时间序列数据如金融、医疗等领域时需要注意数据特性分析检查序列的周期性、趋势性分析变量间的相关性确定合适的输入/输出尺度必要的架构调整修改嵌入层维度调整注意力头数根据变量数量优化位置编码方式对非均匀采样数据领域适配技巧添加领域特定的特征工程使用迁移学习预训练微调设计领域相关的损失函数# 金融时间序列适配示例 class FinancialiTransformer(iTransformer): def __init__(self, *args, **kwargs): super().__init__(*args, **kwargs) # 添加技术指标嵌入 self.tech_indicator nn.Linear(5, kwargs[d_model]) # 5个常用技术指标 def forward(self, x_enc, x_dec, indicators): enc_out self.enc_embedding(x_enc) self.tech_indicator(indicators) # 其余部分保持不变 ...通过以上步骤我们不仅完成了iTransformer论文的复现还掌握了将前沿时间序列预测模型应用于实际问题的完整方法论。这种从论文到实践的转化能力正是现代AI工程师和研究者的核心竞争力。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2491064.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…