测试器械

收藏机器学习深度学习面试知识点汇总

发布时间:2022/8/3 16:21:17   
绪论近来这段光阴正临秋招,这篇文章是老潘在那会找做事流程中整治的一些要害学问点,实质对比杂碎,部份收集于网络,简略整治下发出来,恰当口试前袭击,固然也恰当稳固基本学问。别的引荐众人一册叫做《百面机械进修》的新书,年8月份出书的,个中包含了许多机械进修、深度进修口试流程中会碰到的题目,对比恰当须要打算口试的机械进修、深度进修方面的算法工程师,固然也一样恰当稳固基本~偶然间必然要须要看的书本:程序员的数学系列,恰当重温学问,回忆一些基本的线性代数、几率论。深度进修花书,归纳类书,有基本学问的解说,对比周全。统计进修法子,归纳类书,篇幅不长,都是重心。PatternRecognitionandMachineLearning,头绪清楚,用贝叶斯的方法来解说机械进修。机械进修西瓜书,恰当当课本,实质较广不过不深。百翻不烂的百面机械进修罕见的学题目L正则能够使多数权值较大,大都权值为0,获得稀少的权值;L2正则会使权值都趋近于0但非零,获得腻滑的权值;在AdaBoost算法中,被错分的模范的权重革新比例的公式雷同;Boosting和Bagging都是组合多个分类器投票的法子,但Boosting是遵循单个分类器的明确率决议其权重,Bagging是可简略地配置一共分类器权重雷同;EM算法不能保证找到周全最优值;SVR中核函数宽度小欠拟合,宽度大轻易过拟合PCA和LDA都是典范的降维算法。PCA是无监视的,也即是锻炼模范不须要标签;LDA是有监视的,也即是锻炼模范须要标签。PCA是去除去原始数据中冗余的维度,而LDA是寻觅一个维度,使得原始数据在该维度上投影后不同类其它数据尽大概分散开来。PCA是一种正交投影,它的头脑是使得原始数据在投影子空间的各个维度的方差最大。假如咱们要将N维的数据投影到M维的空间上(MN),遵循PCA,咱们首先求出这N维数据的协方差矩阵,尔后求出其前M个最大的特色值所对应的特色向量,那末这M个特色向量即为所求的投影空间的基。LDA投影后类内方差最小,类间方差最大。以下图所示有两种投影方法,左侧的投影后血色数据和蓝色数据再有堆叠部份,右侧的投影后血色数据和蓝色数据则恰巧被隔开。LDA的投影即好似右侧的投影方法,投影后使得不同类其它数据尽大概隔开,而雷同类其它数据则尽大概紧凑地散布。PCA和LDAKNNK隔邻对于K隔邻算法的学问有许多,比方算法实行的环节、运用范畴以及重视事故,不过信赖许多人对K隔邻算法的利用重视事故不是很知道。在这篇文章中咱们针对这个题目实行回答,带众人来好好懂得一下k隔邻算法的重视事故以及K隔邻算法的益处与瑕玷。K隔邻算法的重视事故K隔邻算法的利用重视事故详细即是利用间隔做为度量时,要保证一共特色在数值上是一个数目级上,免得间隔的计划被数目级大的特色所主宰。在数据准则化这件事上,还要重视一点,锻炼数据集和测试数据集必然要利用统一准则的准则化。个中的因为总的来讲就有两点实质,第一即是准则化原来能够视为算法的一部份,既然数据集都减去了一个数,尔后除以一个数,这两个数对于一共的数据来讲,就要等量齐观。第二即是锻炼数据集原来很少,在推断新模范的时辰,新模范就更少得不幸,假如新模范就一个数据,它的均值即是它本身,准则差是0,这根基就不正当。K隔邻算法的益处是甚么呢?K隔邻算法的益处详细显露在四方面。第一就即是k隔邻算法是一种在线技巧,新数据能够直接参预数据集而不用实行从新锻炼,第二即是k隔邻算法理论简略,轻易完成。第三即是明确性高,对反常值和噪声有较高的忍耐度。第四即是k隔邻算法天生就赞成多分类,差别与感知机、逻辑回归、SVM。K隔邻算法的瑕玷是甚么呢?K隔邻算法的瑕玷,基本的k隔邻算法每推断一个“点”的分类城市从新实行一次周全运算,对于模范容量大的数据集计划量对比大。况且K隔邻算法轻易致使维度苦难,在高维空间入网划间隔的时辰,就会变得特别远;模范不均衡时,推断差池对比大,k值巨细的取舍得仰赖阅历也许交织考证获得。k的取舍能够利用交织考证,也能够利用网格探求。k的值越大,模子的差池越大,对噪声数据越不敏锐,当k的值很大的时辰,大概形成模子欠拟合。k的值越小,模子的方差就会越大,当k的值很小的时辰,就会形成模子的过拟合。二维高斯核函数假如让你写一个高斯朦胧的函数,你该怎样写呢?

`defgaussian_2d_kernel(kernel_size=3,sigma=0):kernel=np.zeros([kernel_size,kernel_size])center=kernel_size//2ifsigma==0:sigma=((kernel_size-)*0.5-)*0.3+0.8s=2*(sigma**2)sum_val=0foriinrange(0,kernel_size):forjinrange(0,kernel_size):x=i-centery=j-centerkernel[i,j]=np.exp(-(x**2+y**2)/s)sum_val+=kernel[i,j]#/(np.pi*s)sum_val=/sum_valreturnkernel*sum_val`锻炼采样法子交织考证;留一法;自主法(bootstrap):有放回的抽样法子,大概会抽到反复的模范。Kmean和GMM旨趣、差别、运用处景kmeans的抑制性?能够看这边

转载请注明:http://www.aideyishus.com/lkyy/977.html

------分隔线----------------------------

热点文章

  • 没有热点文章

推荐文章

  • 没有推荐文章