AI 术语通俗词典:曼哈顿距离
曼哈顿距离是数学、数据分析、机器学习和人工智能中非常常见的一个术语。它用来描述两个点之间沿着各个坐标轴方向分别移动时总共需要走多远。换句话说曼哈顿距离是在回答如果不能走斜线只能沿着横向和纵向一段一段地走从一个点到另一个点总共要走多少路。如果说欧氏距离回答的是“两个点之间直线有多长”那么曼哈顿距离回答的就是“沿坐标轴拐弯前进时总共走了多长”。因此曼哈顿距离常用于距离计算、聚类分析、K 近邻算法、特征空间度量和机器学习建模在人工智能与数据分析中具有重要基础意义。一、基本概念什么是曼哈顿距离曼哈顿距离Manhattan Distance是指两个点在各个坐标维度上的差值绝对值之和。若在二维平面中有两个点那么它们之间的曼哈顿距离可写为其中• |x₁ - x₂| 表示两个点在 x 方向上的距离差• |y₁ - y₂| 表示两个点在 y 方向上的距离差• 两者相加后得到总的曼哈顿距离如果推广到 n 维空间设两个点分别为则曼哈顿距离可写为这个公式的意思是先看每一维上相差多少再把这些差值的绝对值加起来得到总距离。从通俗角度看曼哈顿距离可以理解为两个点在每一个方向上分别差多少把这些“横着差多少、竖着差多少、再加上其他维度差多少”全部累加起来。二、为什么叫“曼哈顿距离”“曼哈顿距离”这个名字来自美国纽约曼哈顿地区那种典型的棋盘式街区结构。在那里街道通常是横平竖直分布的。如果你要从一个街区走到另一个街区往往不能直接穿过楼房走直线而只能先沿一条街道向东或向西走再沿另一条街道向北或向南走。这时你真正走过的路程并不是两点之间的直线距离而是沿街道拐弯前进的总路程。这正是曼哈顿距离的直观来源。例如在二维平面中• 从点 (1, 2) 到点 (4, 6)• 在 x 方向上相差 |1 - 4| 3• 在 y 方向上相差 |2 - 6| 4所以曼哈顿距离为从通俗角度看曼哈顿距离像是在问如果只能走“横的”和“竖的”而不能直接走斜线那么总共要走多少步。这也是它和欧氏距离最根本的区别之一。三、曼哈顿距离的直观理解曼哈顿距离最核心的直觉是“分方向分别计算再全部相加”。例如在二维空间中从点 A 到点 B 时• 先看水平方向差多少• 再看垂直方向差多少• 最后把两部分加起来如果在三维空间中还会多一个方向• x 方向差多少• y 方向差多少• z 方向差多少• 最后全部加起来因此曼哈顿距离不关心“最短直线”有多长而关心沿每个维度分别移动时累积位移总共有多少。从通俗角度看曼哈顿距离就像是在做“总步数统计”• 横着走几步• 竖着走几步• 其他维度再走几步• 全部加起来就是总路程这使它特别适合那些“移动方式天然分方向进行”的场景。四、曼哈顿距离的重要性与常见应用场景1、曼哈顿距离的重要性曼哈顿距离之所以重要是因为并不是所有问题中的“距离”都应该用直线长度来衡量。首先很多问题中的变化本来就是按维度分别发生的。例如在特征空间里两个样本在每个特征上分别差多少有时比“整体直线差多少”更有解释性。曼哈顿距离正好把每一维差异直接累加起来。其次曼哈顿距离对单个大差异的处理方式与欧氏距离不同。它只做绝对值后求和不做平方因此不会像欧氏距离那样对较大的单维偏差进行明显放大。这使它在某些任务中更稳定也更有可解释性。再次曼哈顿距离是很多机器学习方法中的经典距离度量之一。在 K 近邻、聚类分析、相似性比较等任务中曼哈顿距离经常作为欧氏距离之外的重要选择。可以概括地说• 欧氏距离强调“直线最短”• 曼哈顿距离强调“分方向累积总差异”2、常见应用场景1在 K 近邻算法中曼哈顿距离常作为邻近度量方式之一不同的距离定义会影响“谁是最近邻”因此曼哈顿距离在 KNN 中很常见。2在聚类分析中曼哈顿距离常用于衡量样本间差异尤其是在某些高维数据或稀疏数据中它可能比欧氏距离更合适。3在城市路网、网格路径问题中曼哈顿距离具有天然直观意义因为路径本来就常常受限于横纵方向移动。4在高维特征空间中曼哈顿距离常用于衡量逐维差异总量它能直接表达“每一维分别差多少再全部加总”的思想。5在某些鲁棒建模问题中曼哈顿距离相关思想也很常见因为它与绝对值误差、L1 范数等概念有密切联系。五、曼哈顿距离的数学本质L1 距离从更规范的数学角度看曼哈顿距离本质上就是 L1 距离L1 Distance也和 L1 范数L1 Norm 密切相关。若两个向量之差为那么它们之间的曼哈顿距离可以写成其中L1 范数定义为也就是说曼哈顿距离本质上就是先求两个点在各维上的差再对这些差值取绝对值并求和。因此曼哈顿距离并不是一个完全独立的新概念而是 L1 范数在“两个点差异度量”中的具体体现。从通俗角度看• L1 范数是在量一个向量“各分量绝对值总和有多大”• 曼哈顿距离是在量两个点“各维差值绝对值总和有多大”六、曼哈顿距离与欧氏距离的区别曼哈顿距离最容易与欧氏距离混淆因此必须单独区分。1、欧氏距离看的是直线长度欧氏距离的公式为它强调的是两点之间的“直线最短距离”。2、曼哈顿距离看的是各维差值绝对值之和曼哈顿距离的公式为它强调的是“沿各维分别移动后的总距离”。3、二者的直观区别以二维点 (0,0) 和 (3,4) 为例欧氏距离是曼哈顿距离是可以看到• 欧氏距离更短因为它允许走直线• 曼哈顿距离更长因为它只能分方向移动从通俗角度看• 欧氏距离像“空中直飞”• 曼哈顿距离像“沿街道拐弯行走”七、曼哈顿距离的特点曼哈顿距离有几个非常鲜明的特点。1、逐维差异可直接解释它把每一维上的偏差直接累加起来因此很容易看出• 某一维差多少• 总共差多少2、不对大偏差做平方放大这意味着若某一维差得特别大曼哈顿距离虽然会增大但不会像欧氏距离那样因为平方而放大得更明显。3、在高维空间中有时更稳定在一些高维数据问题中欧氏距离可能受到某些大分量强烈影响而曼哈顿距离则相对更强调“整体逐维差异总量”。4、与绝对值误差思想一致曼哈顿距离和平均绝对误差MAE、L1 范数、L1 正则化等概念在思想上是相通的都强调“绝对值总和”。从通俗角度看曼哈顿距离更像是一种把每个方向上的偏差都公平记账再做总和统计的距离。八、使用曼哈顿距离时需要注意的问题1、它不是所有场景下都优于欧氏距离到底选哪种距离取决于任务背景、特征含义和数据结构而不是“谁绝对更好”。2、特征尺度会影响曼哈顿距离如果某一维数值范围远大于其他维那么这一维会明显主导距离结果。因此在实际应用中通常仍需要标准化或归一化。3、曼哈顿距离强调逐维累积差异如果任务更符合“直线接近”的几何直觉欧氏距离可能更自然如果任务更符合“分维差异累积”的思路曼哈顿距离可能更合适。4、在高维问题中距离选择尤其重要不同距离度量在高维空间中的表现差异会更加明显因此需要结合实际实验判断。5、它与 L1 范数密切相关理解了 L1 范数就更容易理解曼哈顿距离的数学本质。九、Python 示例下面给出两个简单示例用来说明曼哈顿距离的基本计算方式。示例 1手动计算二维点的曼哈顿距离# 两个二维点x1, y1 1, 2x2, y2 4, 6 # 计算曼哈顿距离distance abs(x1 - x2) abs(y1 - y2) print(点 A , (x1, y1))print(点 B , (x2, y2))print(曼哈顿距离 , distance)这个例子中x 方向相差 3y 方向相差 4总距离为 7。它直接体现了“横着走几步加上竖着走几步”的思想。示例 2使用 NumPy 计算高维向量的曼哈顿距离import numpy as np # 两个向量x np.array([1, 3, 5, 2])y np.array([4, 1, 7, 6]) # 计算曼哈顿距离distance np.sum(np.abs(x - y)) print(向量 x , x)print(向量 y , y)print(曼哈顿距离 , distance)这个例子展示了高维情形下的曼哈顿距离计算先求各维差值再取绝对值最后全部相加。 小结曼哈顿距离是一种通过“各维差值绝对值求和”来衡量两个点之间差异的距离度量。它强调的不是两点之间的直线最短距离而是沿各个坐标方向分别移动时的总路程。在 K 近邻、聚类分析、特征空间度量和高维数据处理中曼哈顿距离都非常常见。对初学者而言可以把它理解为欧氏距离像两点之间直线飞过去而曼哈顿距离像沿街道一段一段拐弯走过去。“点赞有美意赞赏是鼓励”
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2556035.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!