西北工业大学,计算机学院
支持团队: 机器与人类学习科学(Machine and People Learning Science, Maple)
研究领域:机器学习、大数据科学与技术、学习科学
个人主页:
https://teacher.nwpu.edu.cn/ypzhang.html
联系邮箱: ypzhaang [@] nwpu [DOT] edu [DOT] cn
团队招募:机器学习与学习科学研究团队常年招募高年级本科生工程、毕设项目。
Upenn Slides:
An Introduction to ML
P. Shevchenko:
List of Distributions
UCI iris Dataset:
Data Download
作业一:概率密度分布学习(5')
思考:大数定理与中心极限定理
第二章:贝叶斯统计决策理论
概率类型及贝叶斯法则
正态分布的统计决策
Tom Slides:
Joint_MLE_MAP
Bayesian Slides:
Bayesian_Estimation
作业二:最简单的作业(3')
开放工程一:性别分类(10')
思考:训练误差和泛化误差
第三章:概率密度的参数估计
最大似然估计法
贝叶斯估计法
非参数估计法
Columbia University:
EM Algorithm
Harvard University:
Nonparameter Estimation
思考:EM算法与最大最小优化算法
第四章:线性分类和回归模型
线性判别函数和决策面
广义线性判别函数
最小平方误差判别
线性回归模型
脊回归和拉索回归
Stanford University:
linear-classify
Ridge and Lasso:
Regularization
作业三:利用贝叶斯理论和最大似然估计
推导最小二乘平方损失函数(3’)
思考:过渡拟合有必要观察到吗?
第五章:分类方法介绍
最近临分类器
logistic回归
Logistic Regression:
LR
Ensemble Learning:
CMU_EL
NY_EL
Boosting
开放工程二:利用至少4种方法(必须包含近邻法、 决策树、logistic回归)预测学生表现(10’)
UCI数据集:
学生表现数据
思考:没有免费的午餐
第六章:无监督学习介绍
聚类任务和度量
row 2, cell 2, cell 1
开放工程三:使KMeans和DBSCAN算法进行聚类分析(10’)
MNIST数据集:
手写图像数据集
思考:如何选择聚类的簇数量?
第七章:支持向量机
间隔与支持向量
软间隔与正则化
支持向量回归
row 2, cell 2, cell 1
row 1, cell 2, cell 2
第八章:特征提取与选择
特征提取与变换
类可分依据
PCA与LDA
特征选择方法
row 2, cell 2, cell 1
思考:特征变换的基地向量代表什么含义?
第九章:神经网络与深度学习
神经网络发展历史
神经元、感知机与多层网络
全局最小与局部最小
其他常见神经网络
row 2, cell 2, cell 1
row 1, cell 2, cell 2