NVIDIA GPU学习复盘2-半精度、单精度与双精度运算
理解数据类型和大小就像在工具箱中选择合适的工具一样。1、整数integer使用8 16 32 64位位数越多存储的数值就越大。例如8位整数在无符号情况下可以存储0-255之间的值有符号变量则存储-127-128之间的值例如64伟整数可以存储18亿亿个值int32int642、小数float)16位半精度。FP16提供的数值精度较低所需计算资源更少。适用于机器学习和图形处理等特定应用通常不需要高精度32位单精度。FP32在速度和精度之间取了折中因此单精度在各类计算中应用广泛。计算仅需2个周期64位双精度。FP64科学计算和复杂仿真依赖FP64对气候仿真或分子类型更接近仿真。计算需要4个周期。3、表格总结类型位数精度名称C/C声明CUDA声明典型用途半精度16位FP16无原生支持half或 __halfAI训练/推理需__fp16或库图形处理单精度32位FP32floatfloat通用计算深度学习图形渲染双精度64位FP64doubledouble科学计算金融仿真高精度物理仿真整数32位32位INT32int(通常)int通用整数运算整数64位64位INT64long longlong long大数计算或int64_t时间戳
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2536960.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!