004、TinyML技术栈全景图:从模型到部署
004 TinyML技术栈全景图:从模型到部署去年冬天调试一个智能门磁项目,板子是STM32L4,Flash只有256KB。模型在PC上跑F1值0.97,烧进去直接死机——不是推理结果不对,是内存分配直接溢出。我盯着map文件看了三个小时,最后发现是TensorFlow Lite Micro的arena大小设错了,多算了两个中间张量的尺寸。这种问题在TinyML里太典型了:你以为是算法问题,其实是工具链没吃透。今天这篇笔记,我把TinyML的完整技术栈拆成五层,从模型训练一直讲到硬件部署。每一层都有我踩过的坑,代码注释里直接写“别这样写”的地方,都是真金白银换来的教训。第一层:模型训练与压缩(PC端)这一层还在你的笔记本上跑,但思维方式必须提前切换。别再用全精度FP32了,除非你的目标芯片是树莓派4B以上级别。量化感知训练(QAT)是TinyML的起点。Keras里加一行tf.quantization.quantize_model是不够的,你得在训练过程中模拟量化误差。# 这里踩过坑:直接后训练量化,精度掉了15个点importtensorflow_model_optimizationastfmot
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2605200.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!