一、決策樹(shù)
C4.5:使用信息增益比來(lái)選擇特征,適用于具有多個(gè)屬性的分類(lèi)問(wèn)題。
CART:分類(lèi)與回歸樹(shù),可以同時(shí)處理分類(lèi)和回歸問(wèn)題。
二、支持向量機(jī)(SVM)
線性SVM:用于解決線性可分的分類(lèi)問(wèn)題。
核SVM:通過(guò)核函數(shù),可以解決非線性分類(lèi)問(wèn)題。
三、隨機(jī)森林
集成學(xué)習(xí):結(jié)合多個(gè)決策樹(shù)的預(yù)測(cè),以提高整體準(zhǔn)確性。
特征選擇:通過(guò)隨機(jī)選擇特征進(jìn)行訓(xùn)練,增加模型的泛化能力。
四、K-近鄰算法(K-NN)
基于距離:通過(guò)計(jì)算樣本間的距離,找到最近的K個(gè)鄰居進(jìn)行分類(lèi)。
無(wú)需訓(xùn)練:是一種惰性學(xué)習(xí)算法,無(wú)需訓(xùn)練過(guò)程。
五、神經(jīng)網(wǎng)絡(luò)
多層感知器(MLP):適用于復(fù)雜的非線性分類(lèi)問(wèn)題。
卷積神經(jīng)網(wǎng)絡(luò)(CNN):在圖像分類(lèi)任務(wù)中具有出色的表現(xiàn)。
六、樸素貝葉斯
基于概率:利用貝葉斯定理和特征條件獨(dú)立假設(shè)進(jìn)行分類(lèi)。
七、邏輯回歸
概率模型:雖然名為回歸,但廣泛用于二分類(lèi)問(wèn)題。
常見(jiàn)問(wèn)答:
Q1: 隨機(jī)森林與單一決策樹(shù)有何不同?
答: 隨機(jī)森林是多個(gè)決策樹(shù)的集成,能夠減少過(guò)擬合,提高準(zhǔn)確性。
Q2: K-近鄰算法的K值如何選擇?
答: K值的選擇通常通過(guò)交叉驗(yàn)證來(lái)確定,以找到優(yōu)異的平衡點(diǎn)。
Q3: 邏輯回歸如何用于多分類(lèi)問(wèn)題?
答: 邏輯回歸可以通過(guò)“一對(duì)多”或“一對(duì)一”策略擴(kuò)展到多分類(lèi)問(wèn)題。