让机器学习更容易的14种自由开源软件工具

通过一些易于实现的多样化库和框架能够充分挖掘机器学习的预测能力。垃圾邮件过滤,面部识别,推荐引擎等等。当你要对大型数据集执行预测分析或模式识别时,机器学习都是必经之路。
自由开源软件的激增,让机器学习更容易在单机上大规模地通过大多数流行的编程语言实现。以下这些开源工具包括了适用于python,r,c ++,java,scala,clojure,javascript和go之类的库。
apache mahout
apache mahout提供了一种构建用于托管机器学习应用程序环境的方法,该环境可以快速有效地扩展来满足需求。
mahout主要与apache spark一起工作,最初是为了运行分布式应用程序而设计,可以与hadoop一起使用,但现在已扩展为与flink和h2o等其他分布式后端一起使用。
mahout在scala中使用了一种域特定语言。版本0.14是对该项目做了主要内部重构,默认基于apache spark 2.4.3。
compose
compose针对机器学习模型的一个常见问题,即标记原始数据,这可能是一个缓慢而乏味的过程,但没有它,机器学习模型就无法提供有用的结果。
通过compose,用户可以使用python为数据编写一组标记功能,因此可以通过编程方式进行标记。可以在数据上设置各种变换和阈值,以简化标记过程。
core ml tools
apple的core ml框架能够让用户将机器学习模型集成到应用程序中,但使用其自己独特的学习模型格式。但幸运的是,不必以core ml格式预先训练模型就能使用它们;可以使用core ml tools将几乎所有常用的机器学习框架中的模型转换为core ml。
core ml tools作为python包运行,因此与大量的python机器学习库和工具集成在一起。tensorflow,pytorch,keras,caffe,onnx,scikit-learn,libsvm和xgboost的模型都可以转换。神经网络模型还可以通过使用训练后量化来优化大小。
cortex
cortex提供了一种方便的方法来使用python和tensorflow,pytorch,scikit-learn和其他模型提供来自机器学习模型的预测服务。大多数cortex软件包仅包含几个文件,即你的核心python逻辑,描述要使用的模型,以及要分配的计算资源类型的cortex.yaml文件,以及用于安装任何所需python要求的require.txt文件。
整个程序包作为docker容器部署到aws或另一个与docker兼容的托管系统。计算资源的分配方式与在kubernetes中使用的定义相呼应,因此你可以使用gpu或amazon inferentia asic加快服务速度。
featuretools
特征工程或特征创建涉及获取用于训练机器学习模型的数据,并通常手动生成数据的经过转换和聚合的版本,这对于训练模型更为有用。
featuretools为用户提供了通过综合数据帧中的数据而构建的高级python对象来执行此操作的功能,并且可以针对从一个或多个数据帧中提取的数据执行此操作。featuretools还为综合操作提供了通用原语(例如,time_since_previous提供带时间戳数据实例之间的时间间隔),因此用户不必自己滚动这些原语。
golearn
golearn是针对google go语言的机器学习库,其创建的目标是简化和可定制性。简单之处在于在库中加载和处理数据的方式,该方式在scipy和r之后进行了模式化。可定制性在于如何在应用程序中轻松扩展某些数据结构。
gradio
构建机器学习应用程序时的一个常见挑战是为模型训练和预测服务机制构建可靠且易于定制的ui。gradio提供了用于创建基于web的ui的工具,这些工具让用户可以与模型进行实时交互。
其中包括几个示例项目,例如inception v3图像分类器的输入接口或mnist手写识别模型,让用户对如何在自己的项目中使用gradio有所了解。
h2o
h2o目前正在进行第三次大修订,它为内存中的机器学习提供了一个完整的平台,从训练到服务预测。h2o的算法适合于业务处理——比如欺诈或趋势预测——而不是图像分析。h2o可以独立地与hdfs store交互,在yarn之上,在mapreduce中,或者直接在amazon ec2实例中。
hadoop专家可以使用java与h2o进行交互,但是该框架还提供了针对python,r和scala的绑定,从而让用户也可以与这些平台上可用的所有库进行交互。还可以使用rest调用,将h2o集成到大多数管道中。
oryx
由cloudera hadoop发行版的创建者提供的oryx,使用apache spark和apache kafka在实时数据上运行机器学习模型。oryx提供了一种构建项目的方式,这些项目需要立即做出决定,例如推荐引擎或实时异常检测,这些都可以通过新数据和历史数据获得通知。
版本2.0对该项目几乎进行了完全重新设计,其组件以lambda架构松散耦合。可以随时添加新算法和这些算法的新抽象(例如,用于超参数选择)。
pytorch lightning
当功能强大的项目流行时,通常会辅以易于使用的第三方项目。pytorch lightning为pytorch提供了组织包装,因此用户可以专注于重要的代码,而不必为每个项目编写样板。
pytorch lightning使用基于类的结构,因此pytorch项目的每个常见步骤都封装在类方法中。训练和验证循环是半自动化的,因此你只需要为每个步骤提供逻辑即可。在多个gpu或不同的硬件组合中设置训练结果也更加容易,因为这样做的指令和对象引用是集中的。
scikit-learn
由于python易于采用且几乎适用于所有应用程序的库的广泛性,它已成为数学科学和统计学的首选编程语言。scikit-learn通过在几个现有的python软件包(numpy,scipy和matplotlib)之上构建数学和科学工作来利用这一广度。
生成的库可用于交互式“工作台”应用程序或嵌入到其他软件中并重新使用。该套件可通过bsd许可获得,因此它是完全开放的,并且可重复使用。
shogun
shogun是这个工具中时间最长的项目之一。它创建于1999年,用c ++编写,但是可以与java,python,c#,ruby,r,lua,octave和matlab一起使用。最新的主要版本6.0.0增加了对微软windows和scala语言的本机支持。
虽然广受欢迎,范围广泛,但shogun也有竞争对手。另一个基于c++的机器学习库mlpack是在2011年才出现的,但是它声称比其他库更快、更容易使用(通过一个更完整的api集)。
spark mllib
mllib是apache spark和apache hadoop的机器学习库,拥有许多常用算法和有用的数据类型,能够快速,大规模地运行。尽管java是在mllib中工作的主要语言,但是python用户可以将mllib与numpy库连接,scala用户可以针对mllib编写代码,而r用户可以从1.5版开始插入spark。
mllib的版本3专注于使用spark的dataframe api(与较早的rdd api相对),并提供了许多新的分类和评估功能。
另一个项目,mlbase,建立在mllib的顶部,以使其更容易得出结果。用户无需编写代码,而是使用sql的声明性语言进行查询。
weka
由waikato大学的机器学习小组创建的weka被称为“无需编程的机器学习”。这是一个gui工作台,数据科学家无需编写代码即可组装机器学习管道,训练模型和运行预测。
weka直接与r,apache spark和python合作,后者通过直接包装或通过通用数值库(如numpy,pandas,scipy和scikit-learn)的接口进行工作。weka的一大优势在于,它为工作的各个方面提供了可浏览的友好界面,包括包装管理,预处理,分类和可视化。
责编ajx

芯片制造进入10nm以内后,该如何面临现实的困难
JH9100A 多制式数字信号发生器
如何在电梯应急救助装置中使用双向DC/DC转换器来提高效率和降低成本
呼叫中心和WebRTC在Linux下也可调用
什么是骨传导耳机?骨传导耳机怎么戴
让机器学习更容易的14种自由开源软件工具
传三星s7爆炸也来了?三星回应并非电池问题均为外部损坏所致
比较器原理详解
AMDA87680和英特尔G4560哪个性价比最高
CSM数据采集系统在OBC功率分析中的应用
比特币发展前途未知 严管下的比特币中国也难以翻身
最新专利:磁纹身可提醒用户新来电
本土IC争推智能手机芯片方案 海外市场商机无限
NVIDIA助力腾讯AI LAB打造一体AI生态
美国SENIX 超声波液位传感器ToughSonic-30 特点和优点
2019年春季开始,回顾一下2018年颇具代表性的十大机器人事件
机械能守恒定律三个公式
CUJO AI加入世界经济论坛的全球创新者社区
automatica 2023 年度调查显示,中国工人希望 ChatGPT 助其决策
熊市给数字货币带来了哪些好处