十步,教你把Python运行速度提升 30%

一直以来,诟病 Python语言的人经常说,他们不想使用的一个原因是 Python 的速度太慢了。不管使用哪一种编程语言,程序运行速度的快慢在很大程度上还是取决于编写程序的开发人员,以及他们编写高效程序的技巧和能力。

 

那这可以说是 Python 开发者们的问题吗?为了证实一些不正确的看法,我们接下来就带领大家一起看看想要提升 Python 程序的性能,加快运行速度 30%,有什么方法?

 

时序和性能优化

 

在开始优化任何一段 Python 程序之前,我们首先需要找出哪部分代码是拖慢整个程序运行速度的原因。有时候程序的瓶颈可能会很明显,但更多时候不那么容易被发现,为了快速地定位瓶颈来进行优化,下面提供了一些查找瓶颈的方法:

 

以下我们以一段实际的代码作为示例,它用于进行指数运算(来源于Python文档):

# slow_program.py

from decimal import *

 

def exp(x):

    getcontext().prec += 2

    i, lasts, s, fact, num = 0, 0, 1, 1, 1

    while s != lasts:

        lasts = s

        i += 1

        fact *= i

        num *= x

        s += num / fact

    getcontext().prec -= 2

    return +s

 

exp(Decimal(150))

exp(Decimal(400))

exp(Decimal(3000))

 

 

最简单的优化

 

首先,最简单的、最实用的性能优化的解决办法是利用 Unix 的 time 命令,time可以监控程序执行的时间:

~ $ time python3.8 slow_program.py

 

real  0m11,058s

user  0m11,050s

sys   0m0,008s

 

如果你只想给整个程序的运行计时,这是可行的,但通常来说还是远远不够的…

 

 

最详细的性能分析

 

另外一个可以利用的指令是 cProfile,但是它提供的信息又过于详细了:

~ $ python3.8 -m cProfile -s time slow_program.py

         1297 function calls (1272 primitive calls) in 11.081 seconds

 

   Ordered by: internal time

 

   ncalls  tottime  percall  cumtime  percall filename:lineno(function)

        3   11.079    3.693   11.079    3.693 slow_program.py:4(exp)

        1    0.000    0.000    0.002    0.002 {built-in method _imp.create_dynamic}

      4/1    0.000    0.000   11.081   11.081 {built-in method builtins.exec}

        6    0.000    0.000    0.000    0.000 {built-in method __new__ of type object at 0x9d12c0}

        6    0.000    0.000    0.000    0.000 abc.py:132(__new__)

       23    0.000    0.000    0.000    0.000 _weakrefset.py:36(__init__)

      245    0.000    0.000    0.000    0.000 {built-in method builtins.getattr}

        2    0.000    0.000    0.000    0.000 {built-in method marshal.loads}

       10    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:1233(find_spec)

      8/4    0.000    0.000    0.000    0.000 abc.py:196(__subclasscheck__)

       15    0.000    0.000    0.000    0.000 {built-in method posix.stat}

        6    0.000    0.000    0.000    0.000 {built-in method builtins.__build_class__}

        1    0.000    0.000    0.000    0.000 __init__.py:357(namedtuple)

       48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:57(_path_join)

       48    0.000    0.000    0.000    0.000 <frozen importlib._bootstrap_external>:59(<listcomp>)

        1    0.000    0.000   11.081   11.081 slow_program.py:1(<module>)

...

 

在这里,我们使用 cProfile 模块和 time 参数来运行测试脚本,以便按内部运行时间(cumtime)对行数据进行排序。这会提供给我们很多的信息,在上图中你可以看到显示的行数大约只是实际输出的十分之一。因此,我们可以看出exp函数是耗时的罪魁祸首,现在我们可以更进一步地了解时序和性能优化了。

 

 

时序特定功能

 

既然我们知道性能瓶颈所在,那么我们可能希望给运行起来比较耗时的函数进行计时,而不用关注其余部分的代码了。为此,我们可以使用一个简单的 decorator(装饰器):

def timeit_wrapper(func):

    @wraps(func)

    def wrapper(*args, **kwargs):

        start = time.perf_counter()  # Alternatively, you can use time.process_time()

        func_return_val = func(*args, **kwargs)

        end = time.perf_counter()

        print('{0:<10}.{1:<8} : {2:<8}'.format(func.__module__, func.__name__, end - start))

        return func_return_val

    return wrapper

 

这个decorator可以应用于后面的待测函数,如下图中的代码所示:

@timeit_wrapper

def exp(x):

    ...

    

print('{0:<10} {1:<8} {2:^8}'.format('module', 'function', 'time'))

exp(Decimal(150))

exp(Decimal(400))

exp(Decimal(3000))

 

我们会得到如下的输出结果:

~ $ python3.8 slow_program.py

module     function   time  

__main__  .exp      : 0.003267502994276583

__main__  .exp      : 0.038535295985639095

__main__  .exp      : 11.728486061969306

 

需要考虑的一件事,是我们实际想要测量的运行时间。时间包里提供了time.perf_counter和time.process_time。在这里的区别在于perf_counter返回的是绝对值,其中包括Python程序执行进程未运行的时间,因此它可能会受到计算机负载量的影响。另一方面,process_time只返回用户时间(不包括系统时间),这只是你的进程执行时间。

 

加速

 

现在,我们进入有趣的部分,让你的 Python 程序运行的更快。我基本上不会展示一些能够解决程序性能问题的技巧和代码,更多的是关于通常的思路和策略,在使用的时候,它们可能会对性能产生巨大的影响,在某些情况下,可以将程序运行速度提高30%。

 

 

使用内置数据类型

 

这一点很明显。内置的数据类型执行起来非常的快,特别是与我们自定义的数据类型相比,比如树或者链表。这主要是因为内置代码是由C语言实现的,因此,我们在使用 Python 编写代码时,在速度上实在是无法与其相比。

 

 

使用 lru_cache 缓存

 

我已经在上一篇文章中提及了这一技术,但我认为有必要用一个简单的例子再来说一下:

import functools

import time

 

# caching up to 12 different results

@functools.lru_cache(maxsize=12)

def slow_func(x):

    time.sleep(2)  # Simulate long computation

    return x

    

slow_func(1)  # ... waiting for 2 sec before getting result

slow_func(1)  # already cached - result returned instantaneously!

 

slow_func(3)  # ... waiting for 2 sec before getting result

 

上面代码中的函数使用了 time.sleep 模拟了密集型计算任务。当第一次使用参数 1 进行调用时,它等待了 2 秒,之后才返回结果。而当再次调用的时候,结果已被缓存了,因此它跳过函数体的执行并立即返回了结果。有关更多实际应用的例子,请参见以前的博客文章。

 

 

使用局部变量

 

 

这与在每个作用域里查找一些变量的速度有关系,每个作用域不仅仅是局部变量跟全局变量。实际上,即使是在函数的局部变量(最快)、类级属性(例如self.name,较慢)和全局变量(例如time.time,最慢)之间,查找速度也存在着明显的差异。

 

你可以通过使用一些看起来不必要的任务来提高性能,如下面的代码所示:

#  Example #1

class FastClass:

 

    def do_stuff(self):

        temp = self.value  # this speeds up lookup in loop

        for i in range(10000):

            ...  # Do something with `temp` here

 

#  Example #2

import random

 

def fast_function():

    r = random.random

    for i in range(10000):

        print(r())  # calling `r()` here, is faster than global random.random()

       

 

 

使用函数

 

这看起来似乎有悖于常理,因为调用函数会将更多的东西放入堆栈里,并从函数的返回过程中产生额外的性能开销,但这与前面说的一点有关系。如果只将整个代码打包在一个文件里,而不是将其放在函数中,那样就会由于全局变量而导致运行速度要慢得多。因此,只需将整个代码打包到main函数之中并只调用一次,就可以提高代码运行的速度,如下图所示:   

def main():

    ...  # All your previously global code

 

main()

 

 

不要访问属性

 

另一个可能会影响程序运行速度的是,点运算符访问对象属性的过程。点运算符使用__getattribute__触发数据字典查找的操作,这会在代码中产生额外的开销。那么,我们如何才能真正地避免或者是限制使用它呢?见下图中的代码:

#  Slow:

import re

 

def slow_func():

    for i in range(10000):

        re.findall(regex, line)  # Slow!

 

#  Fast:

from re import findall

 

def fast_func():

    for i in range(10000):

        findall(regex, line)  # Faster!

 

 

注意字符串

 

在循环中使用如module(%s)或者.format()的时候,对字符串的操作可能会非常的慢。那我们还有什么更好的选择呢?根据Raymond Hettinger最近的推特文章,我们应该使用的是f-string,它是最易读、最简洁并且最快速的方法。因此,根据今天的介绍方法,以下是大家可以使用的方法列表 — 由最快到最慢排列:

f'{s} {t}'  # Fast!

s + '  ' + t 

' '.join((s, t))

'%s %s' % (s, t) 

'{} {}'.format(s, t)

Template('$s $t').substitute(s=s, t=t)  # Slow!

 

生成器本身并不会更快,因为它们是为了进行延迟计算而设计的,这样可以节省内存而不是节省时间。但是,节省下的内存实际上可能会让程序运行的更快。这是怎么做到的呢?如果你有一个很大的数据集,并且没有使用生成器(迭代器),那么数据有可能会溢出CPUs L1缓存,这将大大地减慢了在内存中查找值的速度。

 

在性能方面,非常重要的一点是CPU可以将所有正在处理的数据尽可能地保存在缓存之中。

 

结论

 

优化的第一条规则是不要优化。但是,如果你确实需要的话,那么我希望以上的这几条建议可以帮到你。但是,在优化代码的时候一定要小心,因为它可能会让你的代码失去了可读性,导致程序难以维护,这可能就超过了优化的好处。

十步,教你把Python运行速度提升 30%

发布了15 篇原创文章 · 获赞 0 · 访问量 1221
發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章