Hi,大家好,我是编程小6,很荣幸遇见你,我把这些年在开发过程中遇到的问题或想法写出来,今天说一说
python转c++代码_python 字符串转list,希望能够帮助你!!!。
这个的学习主要是因为在运行目标检测的代码时总是会出现下面的错误:
fromCython.Build import cythonize
ModuleNotFoundError: No module named'Cython'
----------------------------------------ERROR: Command erroredout with exit status 1: python setup.py egg_info Check the logs for full command output.
安装:
pip install Cython
Collecting Cython
Downloading Cython-0.29.19-cp37-cp37m-macosx_10_9_x86_64.whl (1.9 MB)
所以打算学学这个模块是怎么用的,以及用在哪里的
https://github.com/Sean16SYSU/CPython-Tutorial-zh
Python有时候太慢,如果手动编译C或者是C++来写#include的文件也比较麻烦。 CPython无疑是一个比较好的选择。
改进的理由
每一行的计算量很少,因此python解释器的开销就会变的很重要。
数据的局部性原理:很可能是,当使用C的时候,更多的数据可以塞进CPU的cache中,因为Python的元素都是Object,而每个Object都是通过字典实现的,cache对这个数据不很友好。
项目
Hello World项目
第一个项目是Hello world。
创建一个文件helloworld.pyx,内容如下:
print("Hello world!")
保存后,创建setup.py文件,内容如下:
fromdistutils.core import setupfromCython.Build import cythonize
setup(
ext_modules= cythonize("helloworld.pyx")
)
保存后,命令行进入setup.py所在目录,并输入python setup.py build_ext --inplace,如下:
$python setup.py build_ext --inplace
Compiling helloworld.pyx because it changed.
[1/1] Cythonizing helloworld.pyx/anaconda3/envs/deeplearning/lib/python3.7/site-packages/Cython/Compiler/Main.py:369: FutureWarning: Cython directive 'language_level' not set, using 2 for now (Py2). This will change in a later release! File: /Users/user/pytorch/NLP学习/learning_2.0/helloworld.pyx
tree=Parsing.p_module(s, pxd, full_module_name)
running build_ext
building'helloworld'extension
creating build
creating build/temp.macosx-10.9-x86_64-3.7gcc-Wno-unused-result -Wsign-compare -Wunreachable-code -DNDEBUG -g -fwrapv -O3 -Wall -Wstrict-prototypes -I/anaconda3/envs/deeplearning/include -arch x86_64 -I/anaconda3/envs/deeplearning/include -arch x86_64 -I/anaconda3/envs/deeplearning/include/python3.7m -c helloworld.c -o build/temp.macosx-10.9-x86_64-3.7/helloworld.o
gcc-bundle -undefined dynamic_lookup -L/anaconda3/envs/deeplearning/lib -arch x86_64 -L/anaconda3/envs/deeplearning/lib -arch x86_64 -arch x86_64 build/temp.macosx-10.9-x86_64-3.7/helloworld.o -o /Users/user/pytorch/NLP学习/learning_2.0/helloworld.cpython-37m-darwin.so
运行完这个命令后,该目录下就会生成三个文件:
build helloworld.pyx
helloworld.c setup.py
helloworld.cpython-37m-darwin.so
然后创建一个调用文件test.py,内容为:
import helloworld
运行返回:
i$ python test.py
Hello world!
.pyx文件:
pyx文件是python的c扩展文件,代码要符合cython的规范,用什么编辑器写都行。我在eric4上写的,结果它默认用python解释器来进行解释,还提示有bug,“语法错误”。
上面的pyx文件还仅仅是源代码文件,要想被python调用、要想运行,仅仅写了源代码还是不够的(不像 Python 语言可直接解释使用的 .py 文件,.pyx 文件必须先被编译成 .c 文件,再编译成 .pyd (Windows 平台) 或 .so (Linux 平台) 文件,才可作为模块 import 导入使用)。具体来说,还要转成.c或者.c++的文件,并且再进一步转成.pyd文件。pyd文件才是可以直接使用的文件。为了达到上述目的,就要写一个setup.py脚本,如上面那种
上述两个步骤,相当于把某个python效率瓶颈模块(这之前需要用profile工具来定位)用效率更高的代码写成了python的c扩展形式,接下来,就是要在python代码中调用他们。test.py就是这个调用的脚本
Fibonacci Function项目
斐波那契数列:1, 1, 2, 3, 5,... 前两位为1,之后每个数等于前面两个数之和。
创建fib.pyx,内容如下:
from__future__ import print_function
def fib(n):
a, b= 0, 1
while b
print(b, end=' ')
a, b= b, a+b
print()
创建setup.py文件,内容如下:
fromdistutils.core import setupfromCython.Build import cythonize
setup(
ext_modules= cythonize("fib.pyx")
)
通过命令python setup.py build_ext --inplace,生成出来的文件:
python setup.py build_ext --inplace
Compiling fib.pyx because it changed.
[1/1] Cythonizing fib.pyx/anaconda3/envs/deeplearning/lib/python3.7/site-packages/Cython/Compiler/Main.py:369: FutureWarning: Cython directive 'language_level' not set, using 2 for now (Py2). This will change in a later release! File: /Users/user/pytorch/NLP学习/learning_2.0/fib.pyx
tree=Parsing.p_module(s, pxd, full_module_name)
running build_ext
building'fib'extension
gcc-Wno-unused-result -Wsign-compare -Wunreachable-code -DNDEBUG -g -fwrapv -O3 -Wall -Wstrict-prototypes -I/anaconda3/envs/deeplearning/include -arch x86_64 -I/anaconda3/envs/deeplearning/include -arch x86_64 -I/anaconda3/envs/deeplearning/include/python3.7m -c fib.c -o build/temp.macosx-10.9-x86_64-3.7/fib.o
gcc-bundle -undefined dynamic_lookup -L/anaconda3/envs/deeplearning/lib -arch x86_64 -L/anaconda3/envs/deeplearning/lib -arch x86_64 -arch x86_64 build/temp.macosx-10.9-x86_64-3.7/fib.o -o /Users/user/pytorch/NLP学习/learning_2.0/fib.cpython-37m-darwin.so
测试test.py:
import fib
fib.fib(100)
返回:
$ python test.py1 1 2 3 5 8 13 21 34 55 89
如果输出两者的时间:
(deeplearning) userdeMacBook-Pro:learning_2.0user$ python fib.pyx1 1 2 3 5 8 13 21 34 55 89
5.75e-05(deeplearning) userdeMacBook-Pro:learning_2.0user$ python test.py1 1 2 3 5 8 13 21 34 55 89
5.7969e-05
发现速度并没有很高的提升,很可能是操作本来就很简单,数值也很小,没什么优化的空间了。
Primes项目
给一个数值n,输出前n个质数(list)。
写到primes.pyx中:
def primes(intnb_primes):
cdefintn, i, len_p
cdefint p[1000]if nb_primes > 1000:
nb_primes= 1000len_p= 0n= 2
while len_p
else:
p[len_p]=n
len_p+= 1n+= 1result_as_list= [prime for prime inp[:len_p]]return result_as_list
setup.py:
fromdistutils.core import setupfromCython.Build import cythonize
setup(
ext_modules= cythonize("primes.pyx")
)
test.py:
import primes
import time
time0=time.time()
primes.primes(10000)
print(time.time()- time0)
返回使用时间:
0.00
View Code
prime.py原来:
def primes(nb_primes):
p=[]if nb_primes > 1000:
nb_primes= 1000n= 2
while len(p)
else:
p.append(n)
n+= 1result_as_list= [prime for prime inp]returnresult_as_listif __name__ == '__main__':
import time
time0=time.time()
primes(10000)
print(time.time()- time0)
使用时间:
0.0
可见的确快了不少!!!!!!
今天的分享到此就结束了,感谢您的阅读,如果确实帮到您,您可以动动手指转发给其他人。