python编码最好实行,代码品质优化本事
分类:编程应用

python编码最佳实践之总结,python编码最佳实践

相信用python的同学不少,本人也一直对python情有独钟,毫无疑问python作为一门解释性动态语言没有那些编译型语言高效,但是python简洁、易读以及可扩展性等特性使得它大受青睐。

 工作中很多同事都在用python,但往往很少有人关注它的性能和惯用法,一般都是现学现用,毕竟python不是我们的主要语言,我们一般只是使用它来做一些系统管理的工作。但是我们为什么不做的更好呢?python zen中有这样一句:There should be one-- and preferably only one --obvious way to do it. Although that way may not be obvious at first unless you're Dutch. 大意就是python鼓励使用一种最优的方法去完成一件事,这也是和ruby等的一个差异。所以一种好的python编写习惯个人认为很重要,本文就重点从性能角度出发对python的一些惯用法做一个简单总结,希望对大家有用~

    提到性能,最容易想到的是降低复杂度,一般可以通过测量代码回路复杂度(cyclomatic complexitly)和Landau符号(大O)来分析, 比如dict查找是O(1),而列表的查找却是O(n),显然数据的存储方式选择会直接影响算法的复杂度。

一、数据结构的选择

  1. 在列表中查找:

 对于已经排序的列表考虑用bisect模块来实现查找元素,该模块将使用二分查找实现

def find(seq, el) :
  pos = bisect(seq, el)
  if pos == 0 or ( pos == len(seq) and seq[-1] != el ) :
    return -1
  return pos - 1

而快速插入一个元素可以用:

 bisect.insort(list, element) 

这样就插入元素并且不需要再次调用 sort() 来保序,要知道对于长list代价很高.

  1. set代替列表:

 比如要对一个list进行去重,最容易想到的实现:

seq = ['a', 'a', 'b']
res = []
for i in seq:
  if i not in res:
    res.append(i)

显然上面的实现的复杂度是O(n2),若改成:

seq = ['a', 'a', 'b']
res = set(seq)

复杂度马上降为O(n),当然这里假定set可以满足后续使用。

另外,set的union,intersection,difference等操作要比列表的迭代快的多,因此如果涉及到求列表交集,并集或者差集等问题可以转换为set来进行,平时使用的时候多注意下,特别当列表比较大的时候,性能的影响就更大。

  1. 使用python的collections模块替代内建容器类型:

collections有三种类型:

deque:增强功能的类似list类型
defaultdict:类似dict类型
namedtuple:类似tuple类型

       列表是基于数组实现的,而deque是基于双链表的,所以后者在中间or前面插入元素,或者删除元素都会快很多。

       defaultdict为新的键值添加了一个默认的工厂,可以避免编写一个额外的测试来初始化映射条目,比dict.setdefault更高效,引用python文档的一个例子:

#使用profile stats工具进行性能分析

>>> from pbp.scripts.profiler import profile, stats
>>> s = [('yellow', 1), ('blue', 2), ('yellow', 3),
... ('blue', 4), ('red', 1)]
>>> @profile('defaultdict')
... def faster():
... d = defaultdict(list)
... for k, v in s:
... d[k].append(v)
...
>>> @profile('dict')
... def slower():
... d = {}
... for k, v in s:
... d.setdefault(k, []).append(v)
...
>>> slower(); faster()
Optimization: Solutions
[ 306 ]
>>> stats['dict']
{'stones': 16.587882671716077, 'memory': 396,
'time': 0.35166311264038086}
>>> stats['defaultdict']
{'stones': 6.5733464259021686, 'memory': 552,
'time': 0.13935494422912598}

可见性能提升了快3倍。defaultdict用一个list工厂作为参数,同样可用于内建类型,比如long等。

除了实现的算法、架构之外,python提倡简单、优雅。所以正确的语法实践又很有必要,这样才会写出优雅易于阅读的代码。

二、语法最佳实践 字符串操作:优于python字符串对象是不可改变的,因此对任何字符串的操作如拼接,修改等都将产生一个新的字符串对象,而不是基于原字符串,因此这种持续的 copy会在一定程度上影响Python的性能:
        (1)用join代替 '+' 操作符,后者有copy开销;

        (2)同时当对字符串可以使用正则表达式或者内置函数来处理的时候,选择内置函数。如str.isalpha(),str.isdigit(),str.startswith((‘x', ‘yz')),str.endswith((‘x', ‘yz'))

        (3)字符格式化操作优于直接串联读取:

     str = "%s%s%s%s" % (a, b, c, d)  # efficient
     str = "" + a + b + c + d + ""  # slow

  1. 善用list comprehension(列表解析)  & generator(生成器) & decorators(装饰器),熟悉itertools等模块:

(1) 列表解析,我觉得是python2中最让我印象深刻的特性,举例1:

   >>> # the following is not so Pythonic 
   >>> numbers = range(10)
   >>> i = 0 
   >>> evens = [] 
   >>> while i < len(numbers): 
   >>>  if i %2 == 0: evens.append(i) 
   >>>  i += 1 
   >>> [0, 2, 4, 6, 8] 

   >>> # the good way to iterate a range, elegant and efficient
   >>> evens = [ i for i in range(10) if i%2 == 0] 
   >>> [0, 2, 4, 6, 8]  

举例2:

def _treament(pos, element):
  return '%d: %s' % (pos, element)
f = open('test.txt', 'r')
if __name__ == '__main__':
  #list comps 1
  print sum(len(word) for line in f for word in line.split())
  #list comps 2
  print [(x + 1, y + 1) for x in range(3) for y in range(4)]
  #func
  print filter(lambda x: x % 2 == 0, range(10))
  #list comps3
  print [i for i in range(10) if i % 2 == 0]
  #list comps4 pythonic
  print [_treament(i, el) for i, el in enumerate(range(10))]

output:
24
[(1, 1), (1, 2), (1, 3), (1, 4), (2, 1), (2, 2), (2, 3), (2, 4), (3, 1), (3, 2), (3, 3), (3, 4)]
[0, 2, 4, 6, 8]
[0, 2, 4, 6, 8]
['0: 0', '1: 1', '2: 2', '3: 3', '4: 4', '5: 5', '6: 6', '7: 7', '8: 8', '9: 9']

没错,就是这么优雅简单。

   (2) 生成器表达式在python2.2引入,它使用'lazy evaluation'思想,因此在使用内存上更有效。引用python核心编程中计算文件中最长的行的例子:

f = open('/etc/motd, 'r')
longest = max(len(x.strip()) for x in f)
f.close()
return longest

这种实现简洁而且不需要把文件文件所有行读入内存。

 (3) python在2.4引入装饰器,又是一个让人兴奋的特性,简单来说它使得函数和方法封装(接收一个函数并返回增强版本的函数)更容易阅读、理解。'@'符号是装饰器语法,你可以装饰一个函数,记住调用结果供后续使用,这种技术被称为memoization的,下面是用装饰器完成一个cache功能:

import time
import hashlib
import pickle
from itertools import chain
cache = {}
def is_obsolete(entry, duration):
  return time.time() - entry['time'] > duration

def compute_key(function, args, kw):
  #序列化/反序列化一个对象,这里是用pickle模块对函数和参数对象进行序列化为一个hash值
  key = pickle.dumps((function.func_name, args, kw))
  #hashlib是一个提供MD5和sh1的一个库,该结果保存在一个全局字典中
  return hashlib.sha1(key).hexdigest()

def memoize(duration=10):
  def _memoize(function):
    def __memoize(*args, **kw):
      key = compute_key(function, args, kw)

      # do we have it already
      if (key in cache and
        not is_obsolete(cache[key], duration)):
        print 'we got a winner'
        return cache[key]['value']

      # computing
      result = function(*args, **kw)
      # storing the result
      cache[key] = {'value': result,-
              'time': time.time()}
      return result
    return __memoize
  return _memoize

@memoize()
def very_very_complex_stuff(a, b, c):
  return a + b + c

print very_very_complex_stuff(2, 2, 2)
print very_very_complex_stuff(2, 2, 2)


@memoize(1)
def very_very_complex_stuff(a, b):
  return a + b

print very_very_complex_stuff(2, 2)
time.sleep(2)
print very_very_complex_stuff(2, 2)

运行结果:

6

we got a winner

6

4

4

装饰器在很多场景用到,比如参数检查、锁同步、单元测试框架等,有兴趣的人可以自己进一步学习。

3.  善用python强大的自省能力(属性和描述符):自从使用了python,真的是惊讶原来自省可以做的这么强大简单,关于这个话题,限于内容比较多,这里就不赘述,后续有时间单独做一个总结,学习python必须对其自省好好理解。

三、 编码小技巧 1、在python3之前版本使用xrange代替range,因为range()直接返回完整的元素列表而xrange()在序列中每次调用只产生一个整数元素,开销小。(在python3中xrange不再存在,里面range提供一个可以 遍历任意长度的范围的iterator)
2、if done is not None比语句if done != None更快;
3、尽量使用"in"操作符,简洁而快速: for i in seq: print i
4、'x < y < z'代替'x < y and y < z';
5、while 1要比while True更快, 因为前者是单步运算,后者还需要计算;
6、尽量使用build-in的函数,因为这些函数往往很高效,比如add(a,b)要优于a+b;
7、在耗时较多的循环中,可以把函数的调用改为内联的方式,内循环应该保持简洁。
8、使用多重赋值来swap元素:

      x, y = y, x  # elegant and efficient

 而不是:

      temp = x
      x = y
      y = temp 

  1. 三元操作符(python2.5后):V1 if X else V2,避免使用(X and V1) or V2,因为后者当V1=""时,就会有问题。

  2. python之switch case实现:因为switch case语法完全可用if else代替,所以python就没  有switch case语法,但是我们可以用dictionary或lamda实现:

switch case结构:

switch (var)
{
  case v1: func1();
  case v2: func2();
  ...
  case vN: funcN();
  default: default_func();
}
dictionary实现:

values = {
      v1: func1,
      v2: func2,
      ...
      vN: funcN,
     }
values.get(var, default_func)()
lambda实现:

{
 '1': lambda: func1,
 '2': lambda: func2,
 '3': lambda: func3
}[value]()

用try…catch来实现带Default的情况,个人推荐使用dict的实现方法。

 这里只总结了一部分python的实践方法,希望这些建议可以帮助到每一位使用python的同学,优化性能不是重点,高效解决问题,让自己写的代码更加易于维护!

add by zhj:我根据本文总结了下面5点

您可能感兴趣的文章:

  • 学习python处理python编码问题
  • 使用python的chardet库获得文件编码并修改编码
  • python处理中文编码和判断编码示例
  • Python中文编码那些事
  • 跟老齐学Python之坑爹的字符编码
  • Python连接mssql数据库编码问题解决方法
  • python使用chardet判断字符串编码的方法
  • python将图片文件转换成base64编码的方法
  • python轻松实现代码编码格式转换
  • 详解Python2.x中对Unicode编码的使用

相信用python的同学不少,本人也一直对python情有独钟,毫无疑问python作为一门解释性动态语言...

1) 在能满足功能的前提下,使用时间复杂度更小的数据结构

    通常来说,dict/set的很多方法的时间复杂度要比list小

2)使用xrange()代替range()

    在Python3.x中,range()就是Python2.x中的xrange(),在Python2.x中,建议使用xrange()

3)字符串的优化

    当一个字符串后面要增加多个相同的子字符串时,不要用for循环,而是用ljust()方法一次完成,因为用for循环时,每次都要生成一个新的字符串,资源(内存和时间)消耗大。下文说到用.join()代替+操作符,其实两者会还是会创建一个新的字符串,不过.join()的效率比+要高

4) 交换两个变量的时直接用a,b = b,a

    其实还可以是更复杂的交换操作,如a, b = func_1(a,b), func_2(a,b),其中func_1()和func_2()中的a,b仍都是修改之前的a,b

def func_add(a,b):

    return a+b


def func_sub(a,b):

    return a-b


a = 10

b = 3

a,b = func_add(a,b), func_sub(a,b)

print a,b    #结果为13, 7

5)CPU密集型的写成C扩展

    可以用Cython写Python的C扩展,文件扩展名为.pyx,写成的模块编译后就可以在Python中import。Cython算是Python的超集,同时能够调用C语言的函数,所以你可以同时使用Python和C混合编程,当然,为了进一步提高代码效率,建议在Cython中少用Python库。。参见

 

 

原文:

代码优化能够让程序运行更快,它是在不改变程序运行结果的情况下使得程序的运行效率更高,根据 80/20 原则,实现程序的重构、优化、扩展以及文档相关的事情通常需要消耗 80% 的工作量。优化通常包含两方面的内容:减小代码的体积,提高代码的运行效率。

改进算法,选择合适的数据结构

一个良好的算法能够对性能起到关键作用,因此性能改进的首要点是对算法的改进。在算法的时间复杂度排序上依次是:

O(1) -> O(lg n) -> O(n lg n) -> O(n^2) -> O(n^3) -> O(n^k) -> O(k^n) -> O(n!)

因此如果能够在时间复杂度上对算法进行一定的改进,对性能的提高不言而喻。但对具体算法的改进不属于本文讨论的范围,读者可以自行参考这方面资料。下面的内容将集中讨论数据结构的选择。

●字典 (dictionary) 与列表 (list)

Python 字典中使用了 hash table,因此查找操作的复杂度为 O(1),而 list 实际是个数组,在 list 中,查找需要遍历整个 list,其复杂度为 O(n),因此对成员的查找访问等操作字典要比 list 更快。

清单 1. 代码 dict.py

1
2
3
4
5
6
7
8
9
10
11
12
13
from time import time
 t = time()
 list = ['a','b','is','python','jason','hello','hill','with','phone','test',
'dfdf','apple','pddf','ind','basic','none','baecr','var','bana','dd','wrd']
 #list = dict.fromkeys(list,True)
 print list
 filter = []
 for i in range (1000000):
     for find in ['is','hat','new','list','old','.']:
         if find not in list:
             filter.append(find)
 print "total run time:"
 print time()-t

上述代码运行大概需要 16.09seconds。如果去掉行 #list = dict.fromkeys(list,True) 的注释,将 list 转换为字典之后再运行,时间大约为 8.375 seconds,效率大概提高了一半。因此在需要多数据成员进行频繁的查找或者访问的时候,使用 dict 而不是 list 是一个较好的选择。

●集合 (set) 与列表 (list)

set 的 union, intersection,difference 操作要比 list 的迭代要快。因此如果涉及到求 list 交集,并集或者差的问题可以转换为 set 来操作。

清单 2. 求 list 的交集:

1
2
3
4
5
6
7
8
9
10
11
12
13
from time import time
t = time()
lista=[1,2,3,4,5,6,7,8,9,13,34,53,42,44]
listb=[2,4,6,9,23]
intersection=[]
for i in range (1000000):
    for a in lista:
        for b in listb:
            if a == b:
                intersection.append(a)
 
print "total run time:"
print time()-t

上述程序的运行时间大概为:

total run time:

38.4070000648

清单 3. 使用 set 求交集

1
2
3
4
5
6
7
8
9
from time import time
 t = time()
 lista=[1,2,3,4,5,6,7,8,9,13,34,53,42,44]
 listb=[2,4,6,9,23]
 intersection=[]
 for i in range (1000000):
     list(set(lista)&set(listb))
 print "total run time:"
 print time()-t

改为 set 后程序的运行时间缩减为 8.75,提高了 4 倍多,运行时间大大缩短。读者可以自行使用表 1 其他的操作进行测试。

表 1. set 常见用法

语法                                            操作                           说明

set(list1) | set(list2)             union                       包含 list1 和 list2 所有数据的新集合

set(list1) & set(list2)            intersection          包含 list1 和 list2 中共同元素的新集合

set(list1) – set(list2)             difference               在 list1 中出现但不在 list2 中出现的元素的集合

对循环的优化

对循环的优化所遵循的原则是尽量减少循环过程中的计算量,有多重循环的尽量将内层的计算提到上一层。 下面通过实例来对比循环优化后所带来的性能的提高。程序清单 4 中,如果不进行循环优化,其大概的运行时间约为 132.375。

清单 4. 为进行循环优化前

1
2
3
4
5
6
7
8
9
10
from time import time
 t = time()
 lista = [1,2,3,4,5,6,7,8,9,10]
 listb =[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.01]
 for i in range (1000000):
     for a in range(len(lista)):
         for b in range(len(listb)):
             x=lista[a]+listb[b]
 print "total run time:"
 print time()-t

现在进行如下优化,将长度计算提到循环外,range 用 xrange 代替,同时将第三层的计算 lista[a] 提到循环的第二层。

清单 5. 循环优化后

1
2
3
4
5
6
7
8
9
10
11
12
13
from time import time
t = time()
lista = [1,2,3,4,5,6,7,8,9,10]
listb =[0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9,0.01]
len1=len(lista)
len2=len(listb)
for i in xrange (1000000):
    for a in xrange(len1):
        temp=lista[a]
        for b in xrange(len2):
            x=temp+listb[b]
print "total run time:"
print time()-t

上述优化后的程序其运行时间缩短为 102.171999931。在清单 4 中 lista[a] 被计算的次数为 1000000*10*10,而在优化后的代码中被计算的次数为 1000000*10,计算次数大幅度缩短,因此性能有所提升。

充分利用 Lazy if-evaluation 的特性

python 中条件表达式是 lazy evaluation 的,也就是说如果存在条件表达式 if x and y,在 x 为 false 的情况下 y 表达式的值将不再计算。因此可以利用该特性在一定程度上提高程序效率。

清单 6. 利用 Lazy if-evaluation 的特性

1
2
3
4
5
6
7
8
9
10
from time import time
t = time()
abbreviations = ['cf.', 'e.g.', 'ex.', 'etc.', 'fig.', 'i.e.', 'Mr.', 'vs.']
for i in range (1000000):
    for w in ('Mr.', 'Hat', 'is', 'chasing', 'the', 'black', 'cat', '.'):
        if w in abbreviations:
        #if w[-1] == '.' and w in abbreviations:
            pass
print "total run time:"
print time()-t

在未进行优化之前程序的运行时间大概为 8.84,如果使用注释行代替第一个 if,运行的时间大概为 6.17。

字符串的优化

python 中的字符串对象是不可改变的,因此对任何字符串的操作如拼接,修改等都将产生一个新的字符串对象,而不是基于原字符串,因此这种持续的 copy 会在一定程度上影响 python 的性能。对字符串的优化也是改善性能的一个重要的方面,特别是在处理文本较多的情况下。字符串的优化主要集中在以下几个方面:

1、在字符串连接的使用尽量使用 join() 而不是 +:在代码清单 7 中使用 + 进行字符串连接大概需要 0.125 s,而使用 join 缩短为 0.016s。因此在字符的操作上 join 比 + 要快,因此要尽量使用 join 而不是 +。

清单 7. 使用 join 而不是 + 连接字符串

1
2
3
4
5
6
7
8
9
10
<span style="font-family: Monaco, Consolas, 'Andale Mono', 'DejaVu Sans Mono', monospace; font-style: normal;"> from time import time </span>
 
 t = time()
 s = ""
 list = ['a','b','b','d','e','f','g','h','i','j','k','l','m','n']
 for i in range (10000):
     for substr in list:
         s+= substr    
 print "total run time:"
 print time()-t

同时要避免:

s = ""
 for x in list: 
    s += func(x)

而是要使用:

slist = [func(elt) for elt in somelist] 
 s = "".join(slist)

2、当对字符串可以使用正则表达式或者内置函数来处理的时候,选择内置函数。如 str.isalpha(),str.isdigit(),str.startswith((‘x’, ‘yz’)),str.endswith((‘x’, ‘yz’))

3、对字符进行格式化比直接串联读取要快,因此要使用

1
out = "%s%s%s%s" % (head, prologue, query, tail)

而避免

1
out = "" + head + prologue + query + tail + ""

使用列表解析(list comprehension)和生成器表达式(generator expression)

列表解析要比在循环中重新构建一个新的 list 更为高效,因此我们可以利用这一特性来提高运行的效率。

1
2
3
4
5
6
7
8
9
10
from time import time
 t = time()
 list = ['a','b','is','python','jason','hello','hill','with','phone','test',
'dfdf','apple','pddf','ind','basic','none','baecr','var','bana','dd','wrd']
 total=[]
 for i in range (1000000):
     for w in list:
         total.append(w)
 print "total run time:"
 print time()-t

使用列表解析:

1
2
for i in range (1000000):
     a = [w for w in list]

上述代码直接运行大概需要 17s,而改为使用列表解析后 ,运行时间缩短为 9.29s。将近提高了一半。生成器表达式则是在 2.4 中引入的新内容,语法和列表解析类似,但是在大数据量处理时,生成器表达式的优势较为明显,它并不创建一个列表,只是返回一个生成器,因此效率较高。在上述例子上中代码 a = [w for w in list] 修改为 a = (w for w in list),运行时间进一步减少,缩短约为 2.98s。

其他优化技巧

1、如果需要交换两个变量的值使用 a,b=b,a 而不是借助中间变量 t=a;a=b;b=t;

1
2
3
4
5
6
>>> from timeit import Timer
 >>> Timer("t=a;a=b;b=t","a=1;b=2").timeit()
 0.25154118749729365
 >>> Timer("a,b=b,a","a=1;b=2").timeit()
 0.17156677734181258
 >>>

2、在循环的时候使用 xrange 而不是 range;使用 xrange 可以节省大量的系统内存,因为 xrange() 在序列中每次调用只产生一个整数元素。而 range() 將直接返回完整的元素列表,用于循环时会有不必要的开销。在 python3 中 xrange 不再存在,里面 range 提供一个可以遍历任意长度的范围的 iterator。

3、使用局部变量,避免”global” 关键字。python 访问局部变量会比全局变量要快得多,因 此可以利用这一特性提升性能。

4、if done is not None 比语句 if done != None 更快,读者可以自行验证;

5、在耗时较多的循环中,可以把函数的调用改为内联的方式;

6、使用级联比较 “x < y < z” 而不是 “x < y and y < z”;

7、while 1 要比 while True 更快(当然后者的可读性更好);

8、build in 函数通常较快,add(a,b) 要优于 a+b。

定位程序性能瓶颈

对代码优化的前提是需要了解性能瓶颈在什么地方,程序运行的主要时间是消耗在哪里,对于比较复杂的代码可以借助一些工具来定位,python 内置了丰富的性能分析工具,如 profile,cProfile 与 hotshot 等。其中 Profiler 是 python 自带的一组程序,能够描述程序运行时候的性能,并提供各种统计帮助用户定位程序的性能瓶颈。Python 标准模块提供三种 profilers:cProfile,profile 以及 hotshot。

profile 的使用非常简单,只需要在使用之前进行 import 即可。具体实例如下:

清单 8. 使用 profile 进行性能分析

1
2
3
4
5
6
7
8
9
import profile
def profileTest():
   Total =1;
   for i in range(10):
       Total=Total*(i+1)
       print Total
   return Total
if __name__ == "__main__":
   profile.run("profileTest()")

程序的运行结果如下:

图 1. 性能分析结果

图片 1

其中输出每列的具体解释如下:

●ncalls:表示函数调用的次数;

●tottime:表示指定函数的总的运行时间,除掉函数中调用子函数的运行时间;

●percall:(第一个 percall)等于 tottime/ncalls;

●cumtime:表示该函数及其所有子函数的调用运行的时间,即函数开始调用到返回的时间;

●percall:(第二个 percall)即函数运行一次的平均时间,等于 cumtime/ncalls;

●filename:lineno(function):每个函数调用的具体信息;

如果需要将输出以日志的形式保存,只需要在调用的时候加入另外一个参数。如 profile.run(“profileTest()”,”testprof”)。

对于 profile 的剖析数据,如果以二进制文件的时候保存结果的时候,可以通过 pstats 模块进行文本报表分析,它支持多种形式的报表输出,是文本界面下一个较为实用的工具。使用非常简单:

1
2
3
import pstats
p = pstats.Stats('testprof')
p.sort_stats("name").print_stats()

其中 sort_stats() 方法能够对剖分数据进行排序, 可以接受多个排序字段,如 sort_stats(‘name’, ‘file’) 将首先按照函数名称进行排序,然后再按照文件名进行排序。常见的排序字段有 calls( 被调用的次数 ),time(函数内部运行时间),cumulative(运行的总时间)等。此外 pstats 也提供了命令行交互工具,执行 python – m pstats 后可以通过 help 了解更多使用方式。

对于大型应用程序,如果能够将性能分析的结果以图形的方式呈现,将会非常实用和直观,常见的可视化工具有 Gprof2Dot,visualpytune,KCacheGrind 等,读者可以自行查阅相关官网,本文不做详细讨论。

Python 性能优化工具

Python 性能优化除了改进算法,选用合适的数据结构之外,还有几种关键的技术,比如将关键 python 代码部分重写成 C 扩展模块,或者选用在性能上更为优化的解释器等,这些在本文中统称为优化工具。python 有很多自带的优化工具,如 Psyco,Pypy,Cython,Pyrex 等,这些优化工具各有千秋,本节选择几种进行介绍。

Psyco

psyco 是一个 just-in-time 的编译器,它能够在不改变源代码的情况下提高一定的性能,Psyco 将操作编译成有点优化的机器码,其操作分成三个不同的级别,有”运行时”、”编译时”和”虚拟时”变量。并根据需要提高和降低变量的级别。运行时变量只是常规 Python 解释器处理的原始字节码和对象结构。一旦 Psyco 将操作编译成机器码,那么编译时变量就会在机器寄存器和可直接访问的内存位置中表示。同时 python 能高速缓存已编译的机器码以备今后重用,这样能节省一点时间。但 Psyco 也有其缺点,其本身运行所占内存较大。目前 psyco 已经不在 python2.7 中支持,而且不再提供维护和更新了,对其感兴趣的可以参考 

Pypy

PyPy 表示 “用 Python 实现的 Python”,但实际上它是使用一个称为 RPython 的 Python 子集实现的,能够将 Python 代码转成 C, .NET, Java 等语言和平台的代码。PyPy 集成了一种即时 (JIT) 编译器。和许多编译器,解释器不同,它不关心 Python 代码的词法分析和语法树。 因为它是用 Python 语言写的,所以它直接利用 Python 语言的 Code Object.。 Code Object 是 Python 字节码的表示,也就是说, PyPy 直接分析 Python 代码所对应的字节码 ,,这些字节码即不是以字符形式也不是以某种二进制格式保存在文件中, 而在 Python 运行环境中。目前版本是 1.8. 支持不同的平台安装,windows 上安装 Pypy 需要先下载,然后解压到相关的目录,并将解压后的路径添加到环境变量 path 中即可。在命令行运行 pypy,如果出现如下错误:”没有找到 MSVCR100.dll, 因此这个应用程序未能启动,重新安装应用程序可能会修复此问题”,则还需要在微软的官网上下载 VS 2010 runtime libraries 解决该问题。具体地址为

安装成功后在命令行里运行 pypy,输出结果如下:

1
2
3
4
5
6
7
C:Documents and SettingsAdministrator>pypy
 Python 2.7.2 (0e28b379d8b3, Feb 09 2012, 18:31:47)
 [PyPy 1.8.0 with MSC v.1500 32 bit] on win32
 Type "help", "copyright", "credits" or "license" for more information.
 And now for something completely different: ``PyPy is vast, and contains
 multitudes''
 >>>>

以清单 5 的循环为例子,使用 python 和 pypy 分别运行,得到的运行结果分别如下:

1
2
3
4
5
6
C:Documents and SettingsAdministrator 桌面 docpython>pypy loop.py
 total run time:
 8.42199993134
C:Documents and SettingsAdministrator 桌面 docpython>python loop.py
 total run time:
 106.391000032

 

可见使用 pypy 来编译和运行程序,其效率大大的提高。

Cython

Cython 是用 python 实现的一种语言,可以用来写 python 扩展,用它写出来的库都可以通过 import 来载入,性能上比 python 的快。cython 里可以载入 python 扩展 ( 比如 import math),也可以载入 c 的库的头文件 ( 比如 :cdef extern from “math.h”),另外也可以用它来写 python 代码。将关键部分重写成 C 扩展模块

Linux Cpython 的安装:

第一步:下载

1
2
3
4
5
6
7
8
9
[root@v5254085f259 cpython]# wget -N http://cython.org/release/Cython-0.15.1.zip
 --2012-04-16 22:08:35-- http://cython.org/release/Cython-0.15.1.zip
 Resolving cython.org... 128.208.160.197
 Connecting to cython.org|128.208.160.197|:80... connected.
 HTTP request sent, awaiting response... 200 OK
 Length: 2200299 (2.1M) [application/zip]
 Saving to: `Cython-0.15.1.zip'
100%[======================================>] 2,200,299 1.96M/s in 1.1s
2012-04-16 22:08:37 (1.96 MB/s) - `Cython-0.15.1.zip' saved [2200299/2200299]

 

第二步:解压

1
[root@v5254085f259 cpython]# unzip -o Cython-0.15.1.zip

第三步:安装

1
python setup.py install

安装完成后直接输入 cython,如果出现如下内容则表明安装成功。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
[root@v5254085f259 Cython-0.15.1]# cython
Cython (http://cython.org) is a compiler for code written in the
Cython language.  Cython is based on Pyrex by Greg Ewing.
 
Usage: cython [options] sourcefile.{pyx,py} ...
 
Options:
 -V, --version                  Display version number of cython compiler
 -l, --create-listing           Write error messages to a listing file
 -I, --include-dir <directory>  Search for include files in named directory
                                (multiple include directories are allowed).
 -o, --output-file <filename>   Specify name of generated C file
 -t, --timestamps               Only compile newer source files
 -f, --force                    Compile all source files (overrides implied -t)
 -q, --quiet                    Don't print module names in recursive mode
 -v, --verbose                  Be verbose, print file names on multiple compil ation
 -p, --embed-positions          If specified, the positions in Cython files of each
 function definition is embedded in its docstring.
 --cleanup <level>
 Release interned objects on python exit, for memory debugging.
   Level indicates aggressiveness, default 0 releases nothing.
 -w, --working <directory>
 Sets the working directory for Cython (the directory modules are searched from)
 --gdb Output debug information for cygdb
 -D, --no-docstrings
             Strip docstrings from the compiled module.
 -a, --annotate
             Produce a colorized HTML version of the source.
 --line-directives
             Produce #line directives pointing to the .pyx source
 --cplus
             Output a C++ rather than C file.
 --embed[=<method_name>]
             Generate a main() function that embeds the Python interpreter.
 -2          Compile based on Python-2 syntax and code seman tics.
 -3          Compile based on Python-3 syntax and code seman tics.
 --fast-fail     Abort the compilation on the first error
 --warning-error, -Werror       Make all warnings into errors
 --warning-extra, -Wextra       Enable extra warnings
 -X, --directive <name>=<value>
 [,<name=value,...] Overrides a compiler directive

其他平台上的安装可以参考文档:

Cython 代码与 python 不同,必须先编译,编译一般需要经过两个阶段,将 pyx 文件编译为 .c 文件,再将 .c 文件编译为 .so 文件。编译有多种方法:

●通过命令行编译:

假设有如下测试代码,使用命令行编译为 .c 文件。

1
2
3
4
5
6
7
8
9
10
11
def sum(int a,int b):
        print a+b
 
 [root@v5254085f259 test]# cython sum.pyx
 [root@v5254085f259 test]# ls
 total 76
 4 drwxr-xr-x 2 root root  4096 Apr 17 02:45 .
 4 drwxr-xr-x 4 root root  4096 Apr 16 22:20 ..
 4 -rw-r--r-- 1 root root    35 Apr 17 02:45 1
 60 -rw-r--r-- 1 root root 55169 Apr 17 02:45 sum.c
 4 -rw-r--r-- 1 root root    35 Apr 17 02:45 sum.pyx

在 linux 上利用 gcc 编译为 .so 文件:

1
2
3
4
5
6
7
8
9
10
[root@v5254085f259 test]# gcc -shared -pthread -fPIC -fwrapv -O2
-Wall -fno-strict-aliasing -I/usr/include/python2.4 -o sum.so sum.c
[root@v5254085f259 test]# ls
total 96
4 drwxr-xr-x 2 root root  4096 Apr 17 02:47 .
4 drwxr-xr-x 4 root root  4096 Apr 16 22:20 ..
4 -rw-r--r-- 1 root root    35 Apr 17 02:45 1
60 -rw-r--r-- 1 root root 55169 Apr 17 02:45 sum.c
4 -rw-r--r-- 1 root root    35 Apr 17 02:45 sum.pyx
20 -rwxr-xr-x 1 root root 20307 Apr 17 02:47 sum.so
1
●使用 distutils 编译

建立一个 setup.py 的脚本:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
from distutils.core import setup
 from distutils.extension import Extension
 from Cython.Distutils import build_ext
 
 ext_modules = [Extension("sum", ["sum.pyx"])]
 
 setup(
    name = 'sum app',
    cmdclass = {'build_ext': build_ext},
    ext_modules = ext_modules
 )
 
 [root@v5254085f259 test]#  python setup.py build_ext --inplace
 running build_ext
 cythoning sum.pyx to sum.c
 building 'sum' extension
 gcc -pthread -fno-strict-aliasing -fPIC -g -O2 -DNDEBUG -g -fwrapv -O3
 -Wall -Wstrict-prototypes -fPIC -I/opt/ActivePython-2.7/include/python2.7
  -c sum.c -o build/temp.linux-x86_64-2.7/sum.o
 gcc -pthread -shared build/temp.linux-x86_64-2.7/sum.o
 -o /root/cpython/test/sum.so

编译完成之后可以导入到 python 中使用:

1
2
3
4
5
6
7
8
[root@v5254085f259 test]# python
ActivePython 2.7.2.5 (ActiveState Software Inc.) based on
Python 2.7.2 (default, Jun 24 2011, 11:24:26)
[GCC 4.0.2 20051125 (Red Hat 4.0.2-8)] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import pyximport; pyximport.install()
>>> import sum
>>> sum.sum(1,3)

下面来进行一个简单的性能比较:

清单 9. Cython 测试代码

1
2
3
4
5
6
7
8
9
10
11
12
from time import time
 def test(int n):
        cdef int a =0
        cdef int i
        for i in xrange(n):
                a+= i
        return a
 
 t = time()
 test(10000000)
 print "total run time:"
 print time()-t

测试结果:

1
2
3
4
5
6
[GCC 4.0.2 20051125 (Red Hat 4.0.2-8)] on linux2
 Type "help", "copyright", "credits" or "license" for more information.
 >>> import pyximport; pyximport.install()
 >>> import ctest
 total run time:
 0.00714015960693

清单 10. Python 测试代码

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
from time import time
 def test(n):
        a =0;
        for i in xrange(n):
                a+= i
        return a
 
 t = time()
 test(10000000)
 print "total run time:"
 print time()-t
 
 [root@v5254085f259 test]# python test.py
 total run time:
 0.971596002579

 

从上述对比可以看到使用 Cython 的速度提高了将近 100 多倍。

 

总结

本文初步探讨了 python 常见的性能优化技巧以及如何借助工具来定位和分析程序的性能瓶颈,并提供了相关可以进行性能优化的工具或语言,希望能够更相关人员一些参考。

本文由正版必中一肖图发布于编程应用,转载请注明出处:python编码最好实行,代码品质优化本事

上一篇:python编码最好实行,代码品质优化本事 下一篇:python编码最好实行,代码品质优化本事
猜你喜欢
热门排行
精彩图文