从“教小孩”到“AI成精”:一文聊透AI中的机器学习(下)
上篇我们说到机器学习的本质是让机器从数据里自己找规律而不是靠人写规则。这一篇我们来看看机器学习具体分成哪几类每一类又是怎么解决实际问题的。你可以把机器学习想象成三种不同的教学方式。每一种都有自己的脾气和适用场景。第一种监督学习——手把手地教这是最常见、最基础的一种。“监督”的意思是你给机器的每一条数据都带着标准答案。机器要做的事就是学会“从输入到输出”的映射关系。举个例子你给机器一堆邮件每封都贴好标签“垃圾”或“非垃圾”。机器从中学习垃圾邮件的特征包含“免费”“中奖”这些词发件人是个乱码地址等等。学完之后来了一封新邮件机器就能判断“这封大概率是垃圾。”监督学习擅长解决两类问题1. 分类问题——输出是一个类别。这是猫还是狗这封邮件是垃圾还是正常这个病人得的是A病还是B病2. 回归问题——输出是一个数值。预测明天的房价是多少。预测下个月的销量是多少。生活中你接触到的绝大多数AI应用背后都是监督学习人脸识别、语音识别、信用评分、推荐系统的一部分……都属于这一类。第二种无监督学习——自己摸索着学这种就更“野”一点了——只给数据不给答案。让机器自己去发现数据里隐藏的结构、规律或者模式。还是举例子你给机器一千个顾客的数据包括年龄、消费记录、浏览习惯但不说这些顾客属于哪一类。机器自己分析发现有些顾客购物时间集中、买的都是母婴用品另一些顾客深夜下单、买的都是电子产品。机器自己把这些顾客分成了几个群组——虽然它不知道这些群组叫什么名字但它发现了“这些人是一类”。无监督学习最常见的用途是1. 聚类——把相似的东西自动归到一起。电商用它来给用户分群做精细化运营。新闻网站用它把相似的文章自动聚合到一起不需要人工分类。2. 降维——把复杂的数据简化但保留最重要的信息。几百个维度的数据压缩成两三个维度方便可视化和理解。这种学习方式的厉害之处在于它能看到人没告诉它的事甚至能看到人没意识到的事。第三种强化学习——在试错中成长这种方式最像“驯狗”——做对了给奖励做错了没奖励让它自己摸索出怎样才能拿到最多奖励。强化学习里有一个“智能体”Agent和一个“环境”Environment。智能体在环境里做动作环境根据动作的好坏给它一个“奖励分数”。智能体的目标只有一个想尽办法让总奖励最大化。最经典的例子是AlphaGo。它一开始啥也不会就在棋盘上乱下。赢了或者模拟的评估认为这一步好就得到一个正反馈。输了得到负反馈。它自己和自己下了无数盘棋每一步都在调整策略最终学会了人类从来没想过的下法。强化学习的典型应用场景1游戏AI从Atari到围棋到星际争霸2机器人控制让机器人学会走路、抓取物体3自动驾驶在模拟环境里不断试错4资源调度比如数据中心节能通过调整空调和服务器负载来最小化能耗。它和监督学习的最大区别是监督学习是一次性给齐所有“标准答案”强化学习没有标准答案只有“这个动作好不好”需要自己在探索中找最优解。说了这么多它到底有什么用机器学习不是实验室里关着门玩的东西。它已经渗透到你能想到的几乎所有领域了。在互联网领域推荐系统——抖音、淘宝、Netflix都是靠机器学习猜你喜欢什么。搜索引擎——你打几个字它能“理解”你想找什么把最相关的结果排在最前面。在医疗领域影像识别——AI看CT片子识别早期肺癌准确率已经可以和资深放射科医生持平甚至更高。药物研发——用机器学习筛选可能的分子结构把新药研发周期从几年缩短到几个月。在金融领域风控——判断一笔交易是不是盗刷几毫秒内给出结果。量化交易——从海量市场数据中发现交易信号自动执行买卖。在制造和物流预测性维护——通过设备传感器数据提前预测“这台机器两周后可能会坏”避免突然停机。智能仓储——机器人自动分拣、规划最优路径。甚至在你想象不到的地方农业——用无人机拍摄农田机器学习判断哪块地缺水、哪块地有病虫害。天文——从海量望远镜数据中自动发现新的天体。为什么会出现机器学习因为世界太复杂了复杂到人写不出所有规则数据太多了多到人看不过来变化太快了快到人追不上。机器学习不是要取代人的智慧它做的是另一件事——把人从“写规则”这种繁琐的、反人性的劳动中解放出来让人去做那些真正需要创造力、判断力和同理心的事。一个医生不用再花大量时间看片子而是把更多精力放在和病人沟通、制定治疗方案上一个程序员不用再写死板的规则来处理各种边界情况而是让模型自己去适应变化一个普通人每天打开手机看到的都是自己真正感兴趣的内容而不是被一堆垃圾信息淹没。这才是机器学习真正想做的事。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2432903.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!