2026.04.07随记
1、PyTorch1、dir模块查看任意模块的方法2、X.sum(0, keepdimTrue)keepdimTrue保留维度X torch.tensor([[1.0, 2.0, 3.0], [4.0, 5.0, 6.0]]) # 2,3 X.sum(0, keepdimTrue), X.sum(1, keepdimTrue) # (tensor([[5., 7., 9.]]), # tensor([[ 6.], # [15.]])) 如果keepdimFalse就变成了长度为3和长度为2的向量3、dtype()数据的精度类型float64、float32、int32、int64、uint8type () 看这东西 “是什么类型的变量”list、tensor、array常见用法torch.tensor(x, dtypetorch.float32)4、W1 nn.Parameter(torch.randn(num_inputs, num_hiddens, requires_gradTrue) * 0.01) # nn.Parameter(...)把张量包装成模型参数 trainer torch.optim.SGD(net.parameters(), lr0.1) # net.parameters()告诉优化器模型里所有需要学习的参数 X, y next(iter(data.DataLoader(mnist_train, batch_size18))) # iter()把Dataloadeer变成一个迭代器这样就可以next()一批一批地取数据 with torch.enable_grad() # 是 PyTorch 里专门用来临时开启梯度计算的上下文管理器用法非常固定。 loss nn.CrossEntropyLoss(reductionnone) # 交叉熵损失 # reductionnone是保留每个样本自己的损失不求和不求平均 net.apply(init_weights) # .apply()作用自动把模型里每一层都拿出来挨个处理2、python方面1、assert关键字断言assert 条件如果条件为 True啥事没有程序继续跑如果条件为 False直接抛出AssertionError程序崩溃2、lambda用法lambda 参数: 表达式 例如 f lambda x: x 1 f(5) # 6 add lambda x, y: x y add(2,3) # 53、with语句用法最常用自动关闭文件 with open(test.txt, r, encodingutf-8) as f: content f.read() # 离开 with 块后文件自动关闭 # test.txt是文件路径, r是只读模式, encodingutf-8是可以显示中文避免报错4、函数调用函数必须加括号()不加括号不是调用是把 “函数本身” 当成一个对象传过去
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2500336.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!