BAT機器學習面試1000題(486~490題)

BAT機器學習面試1000題(486~490題)

486、位勢函數法的積累勢函數K(x)的作用相當於Bayes判決中的()

A、後驗概率

B、先驗概率

C、類概率密度

D、類概率密度與先驗概率的和

正確答案是:A

解析:

具體的,勢函數詳解請看——《勢函數法》。

來源:@劉炫320,鏈接:http://blog.csdn.net/column/details/16442.html

487、隱馬爾可夫模型三個基本問題以及相應的算法說法錯誤的是( )

A、評估—前向後向算法

B、解碼—維特比算法

C、學習—Baum-Welch算法

D、學習—前向後向算法

正確答案是:D

解析:

評估問題,可以使用前向算法、後向算法、前向後向算法。

488、在其他條件不變的前提下,以下哪種做法容易引起機器學習中的過擬合問題?

A、增加訓練集量

B、減少神經網絡隱藏層節點數

C、刪除稀疏的特徵

D、SVM算法中使用高斯核/RBF核代替線性核

正確答案是:D

解析:

一般情況下,越複雜的系統,過擬合的可能性就越高,一般模型相對簡單的話泛化能力會更好一點。

B.一般認為,增加隱層數可以降低網絡誤差(也有文獻認為不一定能有效降低),提高精度,但也使網絡複雜化,從而增加了網絡的訓練時間和出現“過擬合”的傾向, svm高斯核函數比線性核函數模型更復雜,容易過擬合

D.徑向基(RBF)核函數/高斯核函數的說明,這個核函數可以將原始空間映射到無窮維空間。對於參數 ,如果選的很大,高次特徵上的權重實際上衰減得非常快,實際上(數值上近似一下)相當於一個低維的子空間;反過來,如果選得很小,則可以將任意的數據映射為線性可分——當然,這並不一定是好事,因為隨之而來的可能是非常嚴重的過擬合問題。不過,總的來說,通過調整參數 ,高斯核實際上具有相當高的靈活性,也是 使用最廣泛的核函數 之一。

鏈接:http://blog.csdn.net/column/details/16442.html

489、下列時間序列模型中,哪一個模型可以較好地擬合波動性的分析和預測。

A、AR模型

B、MA模型

C、ARMA模型

D、GARCH模型

正確答案是:D

解析:

AR模型是一種線性預測,即已知N個數據,可由模型推出第N點前面或後面的數據(設推出P點),所以其本質類似於插值。

MA模型(moving average model)滑動平均模型,其中使用趨勢移動平均法建立直線趨勢的預測模型。

ARMA模型(auto regressive moving average model)自迴歸滑動平均模型,模型參量法高分辨率譜分析方法之一。這種方法是研究平穩隨機過程有理譜的典型方法。它比AR模型法與MA模型法有較精確的譜估計及較優良的譜分辨率性能,但其參數估算比較繁瑣。

GARCH模型稱為廣義ARCH模型,是ARCH模型的拓展,由Bollerslev(1986)發展起來的。它是ARCH模型的推廣。GARCH(p,0)模型,相當於ARCH(p)模型。GARCH模型是一個專門針對金融數據所量體訂做的迴歸模型,除去和普通迴歸模型相同的之處,GARCH對誤差的方差進行了進一步的建模。特別適用於波動性的分析和預測,這樣的分析對投資者的決策能起到非常重要的指導性作用,其意義很多時候超過了對數值本身的分析和預測。

鏈接:http://blog.csdn.net/column/details/16442.html

490、以下說法中錯誤的是()

A、SVM對噪聲(如來自其他分部的噪聲樣本)具備魯棒性

B、在adaboost算法中,所有被分錯樣本的權重更新比例不相同

C、boosting和bagging都是組合多個分類器投票的方法,二者都是根據單個分類器的正確率確定其權重

D、給定n個數據點,如果其中一半用於訓練,一半用戶測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減少的

正確答案是:C

解析:

A 軟間隔分類器對噪聲是有魯棒性的。

B 請參考http://blog.csdn.net/v_july_v/article/details/40718799

C boosting是根據分類器正確率確定權重,bagging不是。

D 訓練集變大會提高模型魯棒性。

↓ ↓ ↓ ↓ ↓ ↓


分享到:


相關文章: