牛客机器学习面试错题整理(一)

587-王同学

发表文章数:79

热门标签

,
首页 » LeetCode » 正文

  • 无监督学习
    监督学习解决的是“分类”和“回归”问题,而无监督学习解决的主要是“聚类(Clustering),降维”问题。
    这是几种常见的主要用于无监督学习的算法。
    K均值(K-Means)算法;
    自编码器(Auto-Encoder);
    主成分分析(Principal Component Analysis)。
  • SVM
    计算分类面方程
    方程:

    x

    1

    w

    1

    +

    x

    2

    w

    2

    +

    b

    =

    0

    x_1*w_1 +x_2*w_2+b=0

    x1w1+x2w2+b=0
    约束条件:

    m

    i

    n

    1

    /

    2

    (

    w

    1

    2

    +

    w

    2

    2

    )

    min 1/2 (w_1^2+w_2^2)

    min1/2(w12+w22)
    st

    y

    i

    (

    w

    i

    x

    i

    +

    b

    )

    >

    =

    1

    y_i(w_i*x_i + b) >= 1

    yi(wixi+b)>=1
    例题

  • 判别模型和生成模型
    判别式模型(Discriminative Model)是直接对条件概率p(y|x;θ)建模。
    常见的判别式模型有 线性回归模型、线性判别分析、支持向量机SVM、神经网络等。
    生成式模型(Generative Model)则会对x和y的联合分布p(x,y)建模,然后通过贝叶斯公式来求得p(yi|x),然后选取使得p(yi|x)最大的yi,
    常见的生成式模型有 隐马尔可夫模型HMM、朴素贝叶斯模型、高斯混合模型GMM、LDA等
  • adaboost
    在前一轮识别过程中识别错误的样本会在下一轮中提升权重,而那些识别正确的样本会降低权重。
  • EM
    EM 算法通过逐步提高极大似然的下限,以此求出极大似然函数对参数的估计,为无监督算法
  • 数据挖掘方法
    主要有决策树 、神经网络 、回归 、聚类 、关联规则 、贝叶斯分类
  • HK算法和感知器算法
    HK算法思想很朴实,就是在最小均方误差准则下求得权矢量.
    他相对于感知器算法的优点在于,他适用于线性可分和非线性可分得情况,对于线性可分的情况,给出最优权矢量,对于非线性可分得情况,能够判别出来,以退出迭代过程.
    牛客机器学习面试错题整理(一)

拜师教育学员文章:作者:587-王同学, 转载或复制请以 超链接形式 并注明出处 拜师资源博客
原文地址:《牛客机器学习面试错题整理(一)》 发布于2020-05-12

分享到:
赞(0) 打赏

评论 抢沙发

评论前必须登录!

  注册



长按图片转发给朋友

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

Vieu3.3主题
专业打造轻量级个人企业风格博客主题!专注于前端开发,全站响应式布局自适应模板。

登录

忘记密码 ?

您也可以使用第三方帐号快捷登录

Q Q 登 录
微 博 登 录