CANN/ge ACL内存加载模型API
aclmdlLoadFromMemWithQ【免费下载链接】geGEGraph Engine是面向昇腾的图编译器和执行器提供了计算图优化、多流并行、内存复用和模型下沉等技术手段加速模型执行效率减少模型内存占用。 GE 提供对 PyTorch、TensorFlow 前端的友好接入能力并同时支持 onnx、pb 等主流模型格式的解析与编译。项目地址: https://gitcode.com/cann/ge产品支持情况产品是否支持Atlas A3 训练系列产品 / Atlas A3 推理系列产品√Atlas A2 训练系列产品 / Atlas A2 推理系列产品√功能说明从内存加载离线模型数据适配昇腾AI处理器的离线模型模型的输入、输出数据都存放在队列中。本接口只支持加载固定Shape输入的模型。函数原型aclError aclmdlLoadFromMemWithQ(const void *model, size_t modelSize, uint32_t *modelId, const uint32_t *inputQ, size_t inputQNum, const uint32_t *outputQ, size_t outputQNum)参数说明参数名输入/输出说明model输入存放模型数据的内存地址指针。modelSize输入内存中的模型数据长度单位Byte。modelId输出模型ID的指针。系统成功加载模型后返回模型ID作为后续操作时识别模型的标志。inputQ输入队列ID的指针一个模型的输入对应一个队列ID。inputQNum输入输入队列大小。outputQ输入队列ID的指针一个模型的输出对应一个队列ID。outputQNum输入输出队列大小。返回值说明返回0表示成功返回其他值表示失败请参见aclError。约束说明模型加载、模型执行、模型卸载的操作必须在同一个Context下关于Context的创建请参见aclrtSetDevice或aclrtCreateContext。在加载前请先根据模型文件的大小评估内存空间是否足够内存空间不足会导致应用程序异常。参考资源当前还提供了aclmdlSetConfigOpt接口、aclmdlLoadWithConfig接口来实现模型加载通过配置对象中的属性来区分在加载模型时是从文件加载还是从内存加载以及内存是由系统内部管理还是由用户管理。【免费下载链接】geGEGraph Engine是面向昇腾的图编译器和执行器提供了计算图优化、多流并行、内存复用和模型下沉等技术手段加速模型执行效率减少模型内存占用。 GE 提供对 PyTorch、TensorFlow 前端的友好接入能力并同时支持 onnx、pb 等主流模型格式的解析与编译。项目地址: https://gitcode.com/cann/ge创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2602346.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!