在 python 的项目中,如何管理所用的全部依赖库呢?最主流的做法是维护一份“requirements.txt”,记录下依赖库的名字及其版本号。
那么,如何来生成这份文件呢?在上篇文章《由浅入深:python 中如何实现自动导入缺失的库?》中,我提到了一种常规的方法:
pip freeze > requirements.txt
这种方法用起来方便,但有几点不足:
• 它搜索依赖库的范围是全局环境,因此会把项目之外的库加入进来,造成冗余(一般是在虚拟环境中使用,但还是可能包含无关的依赖库)
• 它只会记录以“pip install”方式安装的库
• 它对依赖库之间的依赖关系不做区分
• 它无法判断版本差异及循环依赖等情况
…………
可用于项目依赖管理的工具有很多,本文主要围绕与 requirements.txt 文件相关的、比较相似却又各具特色的 4 个三方库,简要介绍它们的使用方法,罗列一些显著的功能点。至于哪个是最好的管理方案呢?卖个关子,请往下看……
pipreqs
这是个很受欢迎的用于管理项目中依赖库的工具,可以用“pip install pipreqs”命令来安装。它的主要特点有:
• 搜索依赖库的范围是基于目录的方式,很有针对性
• 搜索的依据是脚本中所 import 的内容
• 可以在未安装依赖库的环境上生成依赖文件
• 查找软件包信息时,可以指定查询方式(只在本地查询、在 pypi 查询、或者在自定义的 pypi 服务)
基本的命令选项如下:
usage:
pipreqs [options]
options:
--use-local use only local package info instead of querying pypi
--pypi-server use custom pypi server
--proxy use proxy, parameter will be passed to requests library. you can also just set the
environments parameter in your terminal:
$ export http_proxy=http://10.10.1.10:3128
$ export https_proxy=https://10.10.1.10:1080
--debug print debug information
--ignore ... ignore extra directories
--encoding use encoding parameter for file open
--savepath save the list of requirements in the given file
--print output the list of requirements in the standard output
--force overwrite existing requirements.txt
--diff compare modules in requirements.txt to project imports.
--clean clean up requirements.txt by removing modules that are not imported in project.
其中需注意,很可能遇到编码错误:unicodedecodeerror: 'gbk' codec can't decode byte 0xae in。需要指定编码格式“--encoding=utf8”。
在已生成依赖文件“requirements.txt”的情况下,它可以强行覆盖、比对差异以及清除不再使用的依赖项。
pigar
pigar 同样可以根据项目路径来生成依赖文件,而且会列出依赖库在文件中哪些位置使用到了。这个功能充分利用了 requirements.txt 文件中的注释,可以提供很丰富的信息。
pigar 对于查询真实的导入源很有帮助,例如bs4 模块来自beautifulsoup4 库,mysqldb 则来自于mysql_python 库。可以通过“-s”参数,查找真实的依赖库。
$ pigar -s bs4 mysqldb
它使用解析 ast 的方式,而非正则表达式的方式,可以很方便地从 exec/eval 的参数、文档字符串的文档测试中提取出依赖库。
另外,它对于不同 python 版本的差异可以很好地支持。例如,concurrent.futures 是 python 3.2+ 的标准库,而在之前早期版本中,需要安装三方库futures ,才能使用它。pigar 做到了有效地识别区分。(ps:pipreqs 也支持这个识别,详见这个合入:https://github.com/bndr/pipreqs/pull/80)
pip-tools
pip-tools 包含一组管理项目依赖的工具:pip-compile 与 pip-sync,可以使用命令“pip install pip-tools”统一安装。它最大的优势是可以精准地控制项目的依赖库。
两个工具的用途及关系图如下:
pip-compile 命令主要用于生成依赖文件和升级依赖库,另外它可以支持 pip 的“hash-checking mode ”,并支持在一个依赖文件中嵌套其它的依赖文件(例如,在 requirements.in 文件内,可以用“-c requirements.txt”方式,引入一个依赖文件)。
它可以根据 setup.py 文件来生成 requirements.txt,假如一个 flask 项目的 setup.py 文件中写了“install_requires=['flask']”,那么可以用命令来生成它的所有依赖:
$ pip-compile
#
# this file is autogenerated by pip-compile
# to update, run:
#
# pip-compile --output-file requirements.txt setup.py
#
click==6.7 # via flask
flask==0.12.2
itsdangerous==0.24 # via flask
jinja2==2.9.6 # via flask
markupsafe==1.0 # via jinja2
werkzeug==0.12.2 # via flask
在不使用 setup.py 文件的情况下,可以创建“requirements.in”,在里面写入“flask”,再执行“pip-compile requirements.in”,可以达到跟前面一样的效果。
pip-sync 命令可以根据 requirements.txt 文件,来对虚拟环境中进行安装、升级或卸载依赖库(注意:除了 setuptools、pip 和 pip-tools 之外)。这样可以有针对性且按需精简地管理虚拟环境中的依赖库。
另外,该命令可以将多个“*.txt”依赖文件归并成一个:
$ pip-sync dev-requirements.txt requirements.txt
pipdeptree
它的主要用途是展示 python 项目的依赖树,通过有层次的缩进格式,显示它们的依赖关系,不像前面那些工具只会生成扁平的并列关系。
除此之外,它还可以:
• 生成普遍适用的 requirements.txt 文件
• 逆向查找某个依赖库是怎么引入进来的
• 提示出相互冲突的依赖库
• 可以发现循环依赖,进行告警
• 生成多种格式的依赖树文件(json、graph、pdf、png等等)
它也有缺点,比如无法穿透虚拟环境。如果要在虚拟环境中工作,必须在该虚拟环境中安装 pipdeptree。因为跨虚拟环境会出现重复或冲突等情况,因此需要限定虚拟环境。但是每个虚拟环境都安装一个 pipdeptree,还是挺让人难受的。
好啦,4 种库介绍完毕,它们的核心功能都是分析依赖库,生成 requirements.txt 文件,同时,它们又具有一些差异,补齐了传统的 pip 的某些不足。
本文不对它们作全面的测评,只是选取了一些主要特性进行介绍,好在它们安装方便(pip install xxx),使用也简单,感兴趣的同学不妨一试。
九联科技物联网蜂窝模组及系统解决方案介绍
基于混音器的场效应管电路图
日本研发出像纸一样的高反射率型和高色度型两种液晶显示屏
无线智能控制技术在智能家居中的应用
中国移动5G技术发明专利申请已提交近1000件实力位居全球第一
Python如何管理所用的全部依赖库
温湿度变送器概述和技术参数
OPPO和小米哪个好?OPPO胜利的四大原因揭秘 小米mix在赶超
浅谈集成运放的基本运算电路
华为Mate 10正式进入美国市场,新品路由现身CES
AI正在深刻地改变我们的工作和生活方式
采用PoE为您的嵌入式系统供电
工业4.0内区块链的用途 将带来5大变革
两款多协议交换方案有效解决多协议工业物联网
如何克服升压转换器本身的限制?
除了iOS 11,苹果WWDC 2017还有什么可以期待?
浅谈IPC和微架构 IPC数值越高CPU实际性能就越强吗
大疆回应美国警告:所生产、存储和传输的数据都完全由用户掌握
基于STM32F103C8T6单片机的智能灭火器报警系统
三星终端方面领先苹果一年以上!