pandas API on Spark 与 pandas / PySpark 互转指南
1. 为什么会有互转需求pandas API on Spark的定位很特殊它既想保留 pandas 的使用体验又建立在 Spark 的分布式执行之上。因此开发时常见的场景有三种已经有 pandas 代码想迁移到分布式环境已经在用 PySpark DataFrame但希望用更接近 pandas 的写法开发过程中需要在 pandas、Spark DataFrame 和 pandas API on Spark 之间切换使用也正因为它不是对 pandas 和 PySpark 的完全复制所以理解互转方式非常重要。2. 从 pandas API on Spark 转成 pandas如果你原本是 pandas 用户需要访问完整的 pandas API可以把pandas-on-Spark DataFrame转成 pandas DataFrameimportpyspark.pandasasps psdfps.range(10)pdfpsdf.to_pandas()print(pdf.values)输出结果类似array([[0], [1], [2], [3], [4], [5], [6], [7], [8], [9]])这说明to_pandas()之后你拿到的就是标准 pandas DataFrame可以继续调用 pandas 专属 API比如valuesplotilocapply其他本地 DataFrame 处理逻辑注意事项把pandas API on Spark转成 pandas意味着要把分布式数据全部收集到单机客户端内存中。因此小数据可以这样做大数据不建议这样做能继续用 pandas API on Spark 或 PySpark 的场景尽量不要转回 pandas这一点非常关键。3. 从 pandas 转成 pandas API on Spark如果你已经有一个 pandas DataFrame也可以很容易转成pandas API on Spark的 DataFrameimportpyspark.pandasasps psdfps.from_pandas(pdf)print(psdf)输出结果类似id 0 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8 8 9 9这一步适合本地 pandas 原型验证后迁移到 Spark中小规模 pandas 数据接入分布式环境把 pandas 风格代码逐步迁移到 pandas API on Spark4. 从 pandas API on Spark 转成 Spark DataFrame如果你更熟悉 PySpark或者需要直接调用 Spark DataFrame API可以把pandas API on SparkDataFrame 转成 Spark DataFrameimportpyspark.pandasasps psdfps.range(10)sdfpsdf.to_spark().filter(id 5)sdf.show()输出结果类似--- | id| --- | 6| | 7| | 8| | 9| ---这说明一旦调用to_spark()就可以直接使用完整的 PySpark DataFrame API例如filterselectgroupByjoinwithColumn对于原本就是 PySpark 用户的人来说这通常是最自然的方式。5. 从 Spark DataFrame 转成 pandas API on Spark反过来Spark DataFrame 也可以轻松转成pandas API on SparkDataFramepsdf2sdf.pandas_api()print(psdf2)输出结果类似id 0 6 1 7 2 8 3 9这一步很适合想把 Spark DataFrame 改写成更接近 pandas 的风格希望让 pandas 用户更容易上手 Spark 数据处理在部分流程中临时切换到 pandas API on Spark 风格开发6. 最大的坑默认索引会被重新创建从 Spark DataFrame 转成pandas API on SparkDataFrame 时最容易忽略的一个问题就是系统会创建一个新的默认索引。这意味着什么意味着你在 Spark DataFrame 里原本没有显式索引概念而转成pandas API on Spark后系统需要补一个索引出来。这会带来两个问题有额外开销如果你本来就有合适的业务列可以做索引那重新生成默认索引其实是浪费因此官方建议是如果可能尽量显式指定某一列作为索引避免额外生成默认索引。7. 如何显式保留索引避免额外开销下面是一个更推荐的写法importpyspark.pandasasps# 创建带显式索引的 pandas API on Spark DataFramepsdfps.DataFrame({id:range(10)},indexrange(10))# 转成 Spark DataFrame 时保留索引列sdfpsdf.to_spark(index_colindex)# 调用 Spark APIsdfsdf.filter(id 5)# 再转回 pandas API on Spark并继续使用显式索引resultsdf.pandas_api(index_colindex)print(result)输出结果类似id index 6 6 7 7 8 8 9 9这段代码的价值在于避免重新生成默认索引保持索引语义一致减少额外计算开销如果你的数据本来就有主键、序号、业务唯一列尽量利用它们做索引列。8. 怎么理解这三类 DataFrame 的差异为了避免互转时混乱可以把三者简单理解成这样pandas DataFrame运行在单机内存中适合小到中等规模数据API 最完整、最灵活转成它时要把数据拉回本地PySpark DataFrame完全分布式更偏 Spark 原生计算模型适合大规模数据处理没有 pandas 那种强索引语义pandas API on Spark DataFrame写法接近 pandas底层执行依赖 Spark适合 pandas 用户向分布式迁移在 pandas 风格与 Spark 执行之间做平衡9. 什么时候该转什么时候不该转适合转成 pandas 的场景数据量很小需要 pandas 特有 API做本地分析、画图、调试适合转成 Spark DataFrame 的场景需要 Spark 原生 API要做复杂 join、聚合、窗口计算希望更明确控制执行逻辑适合保留在 pandas API on Spark 的场景已经习惯 pandas 写法数据量大于本地内存承载能力希望尽量少改代码迁移到 Spark10. 实战建议在日常开发里可以记住下面几个原则第一不要把大数据量 DataFrame 轻易转成 pandas。第二如果需要 Spark 原生能力就用to_spark()。第三如果从 Spark DataFrame 转回 pandas API on Spark优先指定索引列。第四pandas API on Spark 更适合作为 pandas 用户进入 Spark 世界的过渡层而不是所有场景下都要优先使用的唯一接口。11. 总结pandas API on Spark的价值在于它搭起了 pandas 和 Spark 之间的一座桥。你既可以把它当作“分布式版 pandas”也可以把它当作“更友好的 Spark DataFrame 入口”。但在真正使用时最重要的不是记住几个转换函数而是明确下面三件事转成 pandas 会把数据收集到本地转成 Spark DataFrame 可以直接使用完整 PySpark API从 Spark DataFrame 转回 pandas API on Spark 时默认索引会带来额外开销把这三点想清楚to_pandas()、from_pandas()、to_spark()、pandas_api()这些互转接口就不会再让你混乱。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2468548.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!