黑松山资源网 Design By www.paidiu.com
有一道Python面试题, 以下代码有什么局限性,要如何修改
def strTest(num): s = 'Hello' for i in range(num): s += 'x' return s
上面的代码其实可以看出:由于变量str是不变对象,每次遍历,Python都会生成新的str对象来存储新的字符串,所以num越大,创建的str对象就越多,内存消耗约大,速度越慢,性能越差。 如果要改变上面的问题,可以变字符串拼接为join联合的方式,代码如下:
def strTest2(num): s = 'Hello' l = list(s) for i in range(num): l.append('x') return ''.join(l)
下面两种不同处理方式,运行速度的比较:
> def strTest1(num): ... s = 'Hello' ... for i in range(num): ... s += 'x' ... return s > def strTest2(num): ... s = 'Hello' ... l = list(s) ... for i in range(num): ... l.append(s) ... return ''.join(l) > > from timeit import timeit # 运行10万级别数据,运行速度比对 > timeit("strTest1(100000)", setup="from __main__ import strTest1", number=1) 0.016680980406363233 > timeit("strTest2(100000)", setup="from __main__ import strTest2", number=1) 0.009688869110618725 # 运行100万级别数据,运行速度比对 > timeit("strTest1(1000000)", setup="from __main__ import strTest1", number=1) 0.14558920607187195 > timeit("strTest2(1000000)", setup="from __main__ import strTest2", number=1) 0.1335057276853462 # 运行1000万级别数据,运行速度比对 > timeit("strTest1(10000000)", setup="from __main__ import strTest1", number=1) 5.9497953107860475 > timeit("strTest2(10000000)", setup="from __main__ import strTest2", number=1) 1.3268972136649921 # 运行2000万级别数据,运行速度比对 > timeit("strTest1(20000000)", setup="from __main__ import strTest1", number=1) 21.661270140499056 > timeit("strTest2(20000000)", setup="from __main__ import strTest2", number=1) 2.6981786518920217 # 运行3000万级别数据,运行速度比对 > timeit("strTest1(30000000)", setup="from __main__ import strTest1", number=1) 49.858089123966295 > timeit("strTest2(30000000)", setup="from __main__ import strTest2", number=1) 4.285787770209481 # 运行4000万级别数据,运行速度比对 > timeit("strTest1(40000000)", setup="from __main__ import strTest1", number=1) 86.67876273457563 > timeit("strTest2(40000000)", setup="from __main__ import strTest2", number=1) 5.328653452047092 # 运行5000万级别数据,运行速度比对 > timeit("strTest1(50000000)", setup="from __main__ import strTest1", number=1) 130.59138063819023 > timeit("strTest2(50000000)", setup="from __main__ import strTest2", number=1) 6.8375931077291625 # 运行6000万级别数据,运行速度比对 > timeit("strTest1(60000000)", setup="from __main__ import strTest1", number=1) 188.28227241975003 > timeit("strTest2(60000000)", setup="from __main__ import strTest2", number=1) 8.080144489401846 # 运行7000万级别数据,运行速度比对 > timeit("strTest1(70000000)", setup="from __main__ import strTest1", number=1) 256.54383904350277 > timeit("strTest2(70000000)", setup="from __main__ import strTest2", number=1) 9.387400816458012 # 运行8000万级别数据,运行速度比对 > timeit("strTest1(80000000)", setup="from __main__ import strTest1", number=1) 333.7185806572388 > timeit("strTest2(80000000)", setup="from __main__ import strTest2", number=1) 10.946627677462857
从上面的比对数据可以看出,当数据比较小的时候,两者差别不大,当数据越大,两者性能差距就越大。从而可以看出,字符串拼接的方式一旦碰到大数据处理的时候,性能是非常慢的。
总结
以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作具有一定的参考学习价值,谢谢大家对的支持。如果你想了解更多相关内容请查看下面相关链接
黑松山资源网 Design By www.paidiu.com
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
黑松山资源网 Design By www.paidiu.com
暂无评论...
更新日志
2024年10月07日
2024年10月07日
- 班得瑞原装进口《第五张新世纪专辑:迷雾森林+EP》1CD[APE/CUE分轨][334.2MB]
- 田震.1997-顺其自然(日版)【红星生产社】【WAV+CUE】
- 小虫.1996-想得太美【滚石】【WAV+CUE】
- 谢采妘.2016-邓丽君名曲专辑【丰荣】【WAV+CUE】
- 张含韵.2007-一人一梦【天中文化】【WAV+CUE】
- 蟑螂乐队.1999-帮个忙【福茂】【WAV+CUE】
- 张宇.2001-替身【EMI百代】【WAV+CUE】
- 班得瑞原装进口《第六张新世纪专辑:日光海岸》1CD[APE/CUE分轨][339.5MB]
- 班得瑞原装进口《第七张新世纪专辑:梦花园》1CD[APE/CUE分轨][331.4MB]
- 班得瑞原装进口《第八张新世纪专辑:琉璃湖畔》1CD[APE/CUE分轨][286.4MB]
- 魏如萱.2011-在哪里(EP)【添翼创越】【WAV+CUE】
- 群星.1981-新金曲奖·青年创作园地12合辑(喜玛拉雅复刻版)【歌林】【WAV+CUE】
- 麦洁文.1989-新曲与精丫新艺宝】【WAV+CUE】
- SNH48《薄荷糖 (Mint Candy)》[320K/MP3][33.72MB]
- SNH48《薄荷糖 (Mint Candy)》[FLAC/分轨][78.59MB]