人工智能-现代方法(一)
2026.05.12这几天开始看《人工智能-现代方法》做一些知识记录。1、学习的概念归纳和演绎。19章演绎靠逻辑推理归纳靠经验总结。所以在前提正确的情况下演绎的结论必然正确。归纳的结论则有可能出现错误。进一步思考AI学习的底层有两条路线一条是通过教会AI逻辑让AI通过逻辑和现有信息推理这种方式可以创造出原来没有的知识。第7章-第9章一条是通过大量的样本训练AI给它更多经验更接近归纳。现在机器学习发展最快的主要领域是深度学习神经网络更接近归纳的原理。现代AI是概率的产物深度学习为什么有效也没有一个严格的逻辑理论可以解释。概率之外也有逻辑不违反公理。12章-15章2、公理一条语句是直接给出的而不是从其他语句推导而来的称为公理。第7章3、三种类型的学习根据训练过程能否得到反馈feedback来分19章监督学习supervised learning: 训练数据包含输入和输出标准答案从中学习输入到输出的函数映射。再细分输出是一个有限集合中的某个值称为分类输出是一个数值时数值的取值范围无限称为回归。监督学习中的输出也叫标签label.无监督学习unsupervised learning从没有任何显式反馈的输入中学习模式训练样例没有标准输出没有反馈。最常见的是聚类。强化学习(reinforcement learning RL)智能体从一系列的强化奖励与惩罚中学习。4、监督学习中输入输出的函数映射关系 h 称为关于世界的假设hypothesis也可以说是一个模型或者函数。目标是找到一个一致性假设或者最佳拟合函数。19章h对于训练集之外的数据能准确预测输出称h具有良好的泛化generalize能力。一个好的假设兼顾一致性和泛化能力。5、对应好的假设的两个能力有两个概念偏差bias和方差variance。偏差好理解预测的值偏离期望值的偏差情况。方差则是指有训练数据波动导致假设的变化量。训练数据稍微变化或增加假设即函数映射的变化极大这种情况方差大对未知数据的预测情况差泛化能力差称为过拟合overfitting存在偏差-方差权衡tradeoff在更复杂、低偏差的能较好拟合训练集的假设与更简单、低方差的可能泛化得更好的假设中做出选择。爱因斯坦说过任何理论的终极目标都是尽可能让不可削减的基本元素变得更加简单且更少。奥卡姆剃刀原则Ockham’s razor如无必要勿增实体。19章6、表示状态和状态转移的三种方法第2章原子表示 每一个状态都是不可分割的没有内部结构。搜索和博弈的基本算法、隐马尔可夫模型、马尔可夫决策过程都基于原子表示。因子化表示将每个状态拆分为一组固定的变量或属性。约束满足算法、命题逻辑、规划、贝叶斯网络还有各种机器学习算法都基于因子化表示。结构化表示包括对象及其各种不同的关系。可以有自己的属性还有与其他对象的关系。三种方法的表达性expressiveness逐步增强表达性更强的语言更简洁可以通过简洁的描述捕捉到更具表达性的表示。一两页结构化表示语言需要数千页因子化表示语言来描述。HTML比普通文本能够表达的信息量更大7、人工智能的定义是使机器智能体在不需要显式编程的情况下能够自主学习。按照这个定义显式编程的逻辑就不成立了。通过概率论和逻辑推理是两个合理的方向。概率论就像人有大量经验信息之后的总结对未来的判断。逻辑推理就像灵感创造已有信息之外的东西。今天就先记录到这里。记录得太过详细可以只记录主要信息还有一点自己的理解。按自己感兴趣的篇章阅读比如感兴趣的深度学习然后读到什么关联概念再跳到对应章节补充知识。首次尝试这种阅读方法读起来会积极一点跟着自己的思路带着思考走比较有效。真的翻开一本书去阅读和用豆包学习还是不同的。豆包根据你问的问题找最相关的内容能根据你的提问逐步深入到一个概念。但是它没法自己扩散到整个体系框架。你原来不知道的概念也还是不会了解到。而书籍则是做到一整个领域全面地介绍会有很多你原来不知道的东西然后参考文献之类的或者具体概念再找AI深入了解一下。正好是互补的。小红书的长文只能转为图片无法记录文字长文所以只能再把文字贴到其他地方贴到CSDN。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2609375.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!