博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python进行毫秒级计时时遇到的一个精度问题
阅读量:7168 次
发布时间:2019-06-29

本文共 347 字,大约阅读时间需要 1 分钟。

在用python进行计时时,遇到了一个精度问题。

环境为win10+python3,使用的计时函数是time.time()函数,经测试发现这种方法的精度在15毫秒左右。
例如如下代码:

l = []for i in range(100):    t1 = time.time()    for j in range(1000*100):        a = 1 + 2    t2 = time.time()    l.append(t2-t1)

执行之后的时间如下图:

运行时间

可以看到,用这种方法计时的精度大概是15毫秒。

查阅资料可知,这是由于windows系统函数的精度问题。
比如GetTickCount64函数,精度就与系统的timer精度有关,一般在10毫秒到16毫秒之间。

参考资料:

转载地址:http://catwm.baihongyu.com/

你可能感兴趣的文章
简单易操作的去水印工具有什么
查看>>
我的友情链接
查看>>
mysqldump: Couldn’t execute 错误
查看>>
给新手的Oracle学习路线
查看>>
超级全的H3C交换机配置命令
查看>>
Supesite 6.0 $_SGLOBAL[supe_username_show] 调用显示GUEST
查看>>
使用Powershell远程管理Windows Server(WinRM)
查看>>
学习日志---递归、非递归,迷宫问题
查看>>
c# 线程状态及转换
查看>>
windows批处理命令FOR的巧用
查看>>
Android Task 任务栈
查看>>
python实用程序-HTTP服务调用系统命令(带白名单)
查看>>
H3C S5500-28F-EI 清除配置
查看>>
load average
查看>>
浏览器标签栏logo添加
查看>>
setjmp()/longjmp()的使用方法
查看>>
SQL Server 2008R2的各种问题及解决方案
查看>>
为什么字符串正则里有好多的反斜杠
查看>>
A.Eugeny and Array
查看>>
rzchecktree实现单选以及隐藏选择框
查看>>