意见箱
恒创运营部门将仔细参阅您的意见和建议,必要时将通过预留邮箱与您保持联络。感谢您的支持!
意见/建议
提交建议

复盘一篇讲sklearn库学习文章(上)

来源:恒创科技 编辑:恒创科技编辑部
2024-02-03 02:49:59
认识

sklearn 官网地址: ​​https://scikit-learn.gor/stable/​​

从2007年发布以来, scikit-learn已成为重要的Python机器学习库, 简称sklearn, 支持包括分类, 回归, 降维和聚类等机器学习算法, 还包括了特征提取, 数据处理, 模型评估三大模块.

sklearn是Scipy的扩展, 建立在Numpy, Matplotlib..等库的基础上. 拥有完善的文档, 上手容易, API丰富, 同时封装了大量的机器学习算法, 且内置了大量数据集, 是入门的一个非常好的库哦


复盘一篇讲sklearn库学习文章(上)

sklearn-机器学习学习类型有监督学习认识: 从成对的,已经标注的输入和输出经验数据作为一个输入进行学习, 用来预测结果, 是从用正确答案的例子中学习应用: 分类问题, 回归问题无监督学习认识: 输入的数据没有标签,没有正确答案, 单纯从数据中找寻规律应用: 聚类问题, 降维问题半监督学习介于之间, 增强学习数据集分类训练集: 用来训练模型的数据集 (50%以上的数据量)测试集: 用来测试模型的数据集 (25%)验证集: 调整超参数变量 (25%)交叉验证认识: 将数据集分成N份, 用N-1份训练模型, 在另一块进行测试, 通常5折交叉验证.优点: 能充分利用数据, 提高模型效果模型评估方差(variance)偏差(biass)偏差-方差均衡值真阳性(TP): 正确识别目标假阳性(FP): 错误识别目标真阴性(TN): 正确识别非目标假阴性(FN): 错误识别非目标指标准确率(ACC) = (TP+TN) / (TP+TN+FP+FN)精确率(P) = TP / (FP+FN)召回率(R) = TP / (TP+FN)

通俗理解 : 关于准确率, 召回率, 精确率的小案例, 网上找的

说一个池塘里有1400条鲤鱼, 300只虾, 300只鳖 (即总数是2000). 现在呢, 我想去捞鲤鱼, 一网下去, 捞上来700条鲤鱼, 200只虾, 100只鳖, (即共捞起来总数是1000).

正确率: (捞起来的鲤鱼数 / 捞起来的总数) = 700 / (200 + 100 + 700) = 70%

召回率: (捞起来的鲤鱼数 / 总数中的鲤鱼数量) = 700 / 1400 = 50%

二分类最能说明, 后面单独整一篇关于率的吧..

sklearn 官方文档结构

sklearn库的算法主要有四类: 分类, 回归, 聚类, 降维
什么线性, 决策树, SVM, KNN, 随机森林, Adaboost, 随机梯度下降, Bagging, ExtraTrees...都有的哈

preprocession: 数据预处理模块impute: 缺失值处理模块feature_selection: 特征选择模块decomposition: 降维算法模块slearn快速使用

传统的机器学习任务通常的流程是: 获取数据->数据预处理->特征工程(选择, 向量化等)->模型训练->模型评估->预测

先整一个学统计学时的经典数据集鸢尾花的分类, 共150个样本, 包括4个特征变量和1个类别变量.

特征变量

sepal length: 花萼长度sepal width: 花萼宽度petal length: 花瓣长度petal width: 花瓣宽度类别: iris-setosa(山鸢尾), iris-versicolor(变色鸢尾花), iris-virginica (维吉尼亚鸢尾花)的哪一种
from sklearn import datasets  # 用内置的数据源
from sklearn.model_selection import train_test_split
from sklearn.neighbors import KNeighborsClassifier

# 1. 获取数据
# 数据集是 json, {data:[[]], target_names:xxx, xxx}
iris = datasets.load_iris()
# 2. 特征工程 - 获取特征变量和目标变量
iris_X = iris.data
iris_y = iris.target

print("数据准备+特征工程--")
print('X_shape:',iris_X.shape, 'y_shape:',iris_y.shape) # 查看维度
print('y_target:', iris_y)

# 2. 特征工程 - 划分测试集和训练集
X_train, X_test, y_train, y_test = train_test_split(iris_X, iris_y, test_size=0.25)

# 3. 训练模型
print("开始进行训练---")
knn = KNeighborsClassifier() # 实例对象
knn.fit(X_train, y_train)

print("模型参数:", knn.get_params())

# 4. 模型评价

print("真实值:", y_test)
print("预测值:", knn.predict(X_test))

score = knn.score(X_test, y_test)
print("预测得分为:", round(score, 3))
数据准备+特征工程--
X_shape: (150, 4) y_shape: (150,)
y_target: [0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 2 2 2 2
2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2
2 2]
开始进行训练---
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=None, n_neighbors=5, p=2,
weights='uniform')
模型参数: {'algorithm': 'auto', 'leaf_size': 30, 'metric': 'minkowski', 'metric_params': None, 'n_jobs': None, 'n_neighbors': 5, 'p': 2, 'weights': 'uniform'}
真实值: [0 1 0 2 1 1 0 0 2 0 2 2 0 1 1 2 0 1 1 0 0 0 2 0 1 0 1 1 2 1 1 0 1 1 1 1 1
2]
预测值: [0 1 0 2 1 2 0 0 2 0 2 2 0 1 1 2 0 1 1 0 0 0 2 0 1 0 1 1 2 1 2 0 2 1 1 1 1
2]
预测得分为: 0.921

先简单引入, 下篇就是详情啦

耐心和恒心, 总会获得回报的.



上一篇: Excel 拼接为 SQL 并打包 exe 下一篇: 手机怎么远程登录云服务器?