机器学习是目前全世界研究最多的领域之一。在过去的二十年里,机器学习为全球无数问题提供了解决方案。从物体检测到自动驾驶汽车,机器学习使世界技术呈指数级增长。
机器学习的两种主要类型是监督学习和无监督学习。监督学习和无监督学习最基本的区别在于,在监督学习的情况下,算法对每种输入都有可用的输出,并且算法是自己确定输入和输出之间的相关性,而在无监督学习的情况下,我们没有可用的输出。
监督机器学习的两种最基本类型是分类和回归。分类基本上是将输入数据分类为一组输出类。
机器学习哪个分类算法最好?在这里,输出具有不同的值,假设函数仅将输出作为表示类的有限值之一给出。在回归的情况下,我们有对应于每个输入的连续输出,并且新输入可以根据假设函数给出的内容输出任何值,这并不完全映射到特定的输出集,而是可以是任意值。
机器学习分类算法有哪些?在本文中,我们将分析目前实际使用的一些最流行的机器学习分类算法,包括一些机器学习分类算法示例代码。因此,文章分为以下几个部分:
- 机器学习中的分类
- 流行的分类算法
- 逻辑回归
- 朴素贝叶斯
- 决策树
- 支持向量机
- K-最近邻
- 随机森林
- 在 Sklearn 和 Python 中的实现
- 逻辑回归
- 朴素贝叶斯
- 决策树
- 支持向量机
- K-最近邻
- 随机森林
- 结论
输出数据将输入数据分类为特定数量的类。例如,如果我们有图像数据作为输入,输出数据由一个布尔数组成,即 0 或 1,其中 1 表示输入图片是猫的,0 表示不是猫的图像。作为分类算法,我们算法的任务是从这些训练数据中学习并计算假设函数。
假设函数将是这样的,当将图像提供给算法时,它将计算输出为 0 或 1,其中 1 表示输入图像是猫的,0 表示不是。
文章图片
机器学习中的分类方法产生了两种学习算法的概念:
- 懒惰的学习者
- 渴望学习者
这提供了一种算法,它需要更少的时间学习和更多的时间对数据进行分类。另一方面,急切的学习者一旦获得数据就开始学习过程,也称为训练,而不是等待测试集继续进行。当他们获得测试数据时,他们只使用已经学习的特征进行分类。
这提供了一种算法,该算法需要更多的训练时间,而对新数据进行分类所需的时间却很少。
流行的机器学习分类算法合集机器学习分类算法有哪些?分类算法对于几种基于人工智能的系统非常有用,无论它们是对象检测器还是生成网络。分类也广泛应用于计算机视觉领域甚至自然语言处理领域。因此,今天我们将看看一些最流行的机器学习分类算法。因此,事不宜迟,让我们直接进入:
逻辑回归
机器学习分类算法示例:逻辑回归是一种基于统计和概率概念的分类算法。它使用一组自变量来预测输出类别。逻辑回归是一种被??开发用于对二元问题进行分类的算法,即它只能对两个输出类别进行分类,因为假设函数给出了一个介于 0 和 1 之间的概率值。
但是现在,在 Sklearn 中,它不仅可以用于二元分类,还可以用于多类分类,因为可以基于输出类的数量构建多个假设函数。
文章图片
朴素贝叶斯
机器学习哪个分类算法最好?朴素贝叶斯是一组基于贝叶斯定理的概率机器学习分类器。贝叶斯定理定义如下:
文章图片
这个方程给出了事件 A 发生的概率,使得 B 已经发生。朴素贝叶斯假设输入特征都是相互独立的。如果特征实际上相互依赖,它们的属性会独立地影响概率。它比其他机器学习分类算法更简单。在 n 个特征的情况下,单个特征对假设有贡献的概率由下式给出:
文章图片
有几种类型的朴素贝叶斯分类器。这些包括:
- 多项式朴素贝叶斯
- 伯努利朴素贝叶斯
- 高斯朴素贝叶斯
决策树
机器学习分类算法合集:决策树由于其简单性而成为应用最广泛的分类算法之一。它还为不是由过于复杂的属性组成的数据集提供了良好的预测。它以流程图的形式出现,也可以被认为是一棵树,有根,枝条从树上冒出来。它在单个节点中对输入数据的属性执行一系列测试,根据测试的输出将节点拆分为进一步的分支。每个新分支都通向另一个节点,该节点以同样的方式分裂成更多的分支。这就是赋予它树状结构的原因。所有这些节点和分支都以称为叶节点的最终节点结束,这些节点将输出作为单个类。
文章图片
树中节点分裂的计算基于称为属性选择度量 (ASM) 的技术。ASM有两种基本方法:
- 信息增益
- 基尼系数
基尼指数衡量用于创建决策树的纯度或杂质。具有较低基尼指数值的属性优选用于节点中。
支持向量机
机器学习分类算法有哪些?支持向量机是机器学习中使用的最强大的算法之一。这是一种复杂的算法,即使在大型复杂数据集上也能很好地工作。SVM 算法背后的主要思想是在 n 维空间中确定一个超平面,其中 n 是数据集中的特征数量,对数据集中的每个类进行分类。最优超平面是具有最大边距的平面,即每个类的数据点之间的最大距离。
文章图片
文章图片
KNN 是一种惰性学习器分类算法。它将整个训练数据存储在一个 n 维空间中。它不用于构建通用函数来对数据集的任何新实例进行分类,而只是将数据集存储在一个空间中并从头开始处理每个新实例。分类是通过对 n 维空间中的每个点的简单多数投票方案完成的。为了对空间中的新实例进行分类,它会查看与新点最近的所有点。所有的近点都被称为实例的最近邻居。大多数邻居拥有的标签被分配给新实例。“K”是用于分类目的的邻居数。
随机森林
随机森林算法是一种集成学习技术,我们使用多个决策树基于每个决策树的多数投票来构建分类模型。在训练期间,多个决策树中的每一个都提供了整个数据集的一个子集。然后使用多数投票技术使用来自每棵树的输出来输出单个最可能的预测。随机森林中的每个决策树都按照上面决策树部分中的描述工作。
文章图片
要了解有关随机森林和决策树算法基础知识的更多信息,请访问我们深入了解随机森林分类算法 。
在 Sklearn 和 Python 中的实现机器学习分类算法合集实现示例:现在我们已经了解了每种分类方法的基础知识,我们必须转到算法的实现上,看看哪种算法效果最好。
我们将在 Python 和 Sklearn 中实现这些算法。SKlearn 或 Scikit-Learn 是一个广泛的库,用于开发各种机器学习模型。
它由大量预先开发的机器学习工具组成,用于开发 ML 模型,包括分类和回归模型。此外,Sklearn 库还有一组性能指标来评估开发的机器学习模型。
在继续实现这些算法之前,我们必须在与我们正在使用的 Python 相同的环境中安装 Sklearn:
使用pip命令,安装如下:
pip install -U scikit-learn
使用 conda 环境,安装使用:
conda install scikit-learn
现在,让我们深入研究算法的实现:
机器学习哪个分类算法最好?首先,我们将导入所有必需的模块,包括分类算法模型。我们将使用已经存在于数据集的 sklearn 库数据库中的虚拟数据集。我们将使用的数据集与我们在深入研究随机森林分类算法时使用的数据集相同 。
# Random Forest Classification# Importing the libraries
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score, plot_confusion_matrix
from sklearn.datasets import load_digits#importing the classification models
from sklearn.linear_model import LogisticRegression
from sklearn.naive_bayes import GaussianNB
from sklearn.tree import DecisionTreeClassifier
from sklearn.svm import SVC
from sklearn.neighbors import KNeighborsClassifier
from sklearn.ensemble import RandomForestClassifier
该
matplotlib.pyplot
库用于可视化基于图像的数据。训练测试拆分模块用于将整个数据集拆分为两个子集,即训练数据和测试数据。度量模块提供了许多其他模块,用于评估开发的模型。的
load_digits
是用于加载已经存在于Sklearn库的数据集的模块。之后,我们导入开发机器学习分类算法所需的所有类。现在,我们导入数据集并绘制它以进行可视化。# Importing the dataset
dataset = load_digits()
# Vizualizing the Dataset
_, axes = plt.subplots(nrows=1, ncols=4, figsize=(10, 3))
for ax, image, label in zip(axes, dataset.images, dataset.target):
ax.set_axis_off()
ax.imshow(image, cmap=plt.cm.gray_r)
ax.set_title("Training: %i" % label)
这里我们使用 load_digits 模块加载数据,然后使用 matplotlib 库对其进行可视化。
文章图片
现在,我们将数据解包成 X 和 Y 集,其中 X 是输入特征,Y 是与 X 中的实例对应的输出目标。然后我们将整个数据分成训练和测试的两个子集。
# Unpacking the data into X(input) and Y(target output)
n_samples = len(dataset.images)
X = dataset.images.reshape((n_samples, -1))
Y = dataset.target
# Splitting the dataset into the Training set and Test set
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size = 0.25)
拆分数据后,我们现在可以继续对每个分类模型进行训练和评估。
机器学习分类算法有哪些:逻辑回归
# Logistic Regression# Fitting LR Classification to the Training set
classifier = LogisticRegression(max_iter=1500)
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
在这里,我们首先创建一个 Logistic 回归类的实例。我们将 max_iter,即最大迭代次数设置为 1500,因为对于这个特定的数据集,模型在达到迭代限制之前无法收敛。如果遇到关于达到迭代限制的错误,可以增加迭代次数以查看模型是否收敛。
然后我们使用该
fit()
模块来训练模型。训练后,该模型用于使用该predict()
模块为测试数据集创建预测。然后,我们最终计算模型的准确度。最后我们打印准确率和混淆矩阵,用于评估模型的性能。
文章图片
现在,我们继续以与逻辑回归模型相同的方式开发其他分类模型。
机器学习分类算法示例:朴素贝叶斯
# Naive Bayes# Fitting Gaussian Naive Bayes Classification to the Training set
classifier = GaussianNB()
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
文章图片
机器学习分类算法合集:决策树示例
# Decision Tree# Fitting Decision Tree Classification to the Training set
classifier = DecisionTreeClassifier()
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
文章图片
支持向量机
# Support Vector Machine# Fitting SVM Classification to the Training set
classifier = SVC()
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
文章图片
机器学习分类算法有哪些:K-最近邻
# K-Nearest Neighbor# Fitting KNN Classification to the Training set
classifier = KNeighborsClassifier()
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
文章图片
机器学习分类算法示例:随机森林
# Random Forest# Fitting Random Forest Classification to the Training set
classifier = RandomForestClassifier(n_estimators = 10, criterion = 'entropy')
classifier.fit(X_train, y_train)# Predicting the Test set results
y_pred = classifier.predict(X_test)# Computing Accuracy
accuracy = accuracy_score(y_test, y_pred)print("Accuracy of model: ", accuracy)
plot_confusion_matrix(classifier, X_test, y_test, cmap='Blues', display_labels=dataset.target_names)
plt.tight_layout()
plt.show()
文章图片
这证明 K 近邻最适合我们用于评估这些模型的数据集。因此,没有通用的标准数据来评估任何分类模型并宣称它比另一个更好。每种算法都以独特的方式适应每个数据集,并且在一个数据集上表现不佳的算法可能对另一个数据集最有效。
【用于分类的顶级机器学习算法有哪些(详细列表)】这就是为什么这里的模型都没有过时的原因,而是所有这些模型都经常用于机器学习领域。
推荐阅读
- 深入研究随机森林分类算法(详细教程)
- 如何构建换脸应用程序(计算机视觉算法)
- 如何使用AI和Python从图像中删除背景()
- 如何使用深度学习生成图像(详细操作指南)
- 11个最佳GoLand IDE插件合集(哪一个更好())
- Android切图注意事项
- Juce源代码分析应用程序基类ApplicationBase
- 获取Android运行apk的packagename 和activityname
- 微信商城手机网站和APP三者到底到底,有什么区别()