一、问题描述
技术面的时候被问到一个python问题,即当我们输入0.1+0.2时,打印出来的却不是0.3,而是0.30000000000000004,为什么?

其实不仅是Python,很多编程语言例如C、Java、JavaScript等等都有这种特性。原理很简单,所有数的运算在计算机中都是进行二进制计算的,十进制小数也是一样,十进制小数在进行运算时首先将十进制数转换成二进制数之后再进行运算,运算结果又转换成十进制并显示出来。
二、原理解析
2.1 IEEE 754规范
所有浮点数在进行运算时都需要遵循
IEEE 754规范,IEEE 754浮点数表示方法规定浮点数的两种转化方式:
- 单精度浮点数(
float):1位符号位+8位指数位+23位尾数位 --> 32位- 双精度浮点数(
double):


![[Bugku] web-CTF-POST](https://i-blog.csdnimg.cn/direct/ba58cbb43aeb482e81cfede6bae8aba9.png)
![[240802] 有关 Homebrew 的安全审核 | Running C++ anywhere like a script](https://i-blog.csdnimg.cn/direct/a162c7aaf4b4496eac63056de50c5857.png#pic_center)














