二叉查找樹的作用是提高檢索數(shù)據(jù)的性能, 小的存左邊,大的存右邊,一樣的不存。但出現(xiàn)瘸子現(xiàn)象,導致查詢的性能與單鏈表一樣,拉低查詢速度。查看全文>>
EM算法也稱期望最大化(Expectation-Maximum,簡稱EM)算法。 它是一個基礎算法,是很多機器學習領域算法的基礎,比如隱式馬爾科夫算法(HMM)等等。 EM算法是一種迭代優(yōu)化策略,由于它的計算方法中每一次迭代都分兩步, 其中一個為期望步(E步), 另一個為極大步(M步), 所以算法被稱為EM算法(Expectation-Maximization Algorithm)。查看全文>>
數(shù)據(jù)集中的數(shù)據(jù)類型有很多種,除了連續(xù)的特征變量之外,最常見的就是類別型的數(shù)據(jù)了,比如人的性別、學歷、愛好等,這些數(shù)據(jù)類型都不能用連續(xù)的變量來表示,而是用分類的數(shù)據(jù)來表示。 Seaborn針對分類數(shù)據(jù)提供了專門的可視化函數(shù),這些函數(shù)大致可以分為如下三種:查看全文>>
空間復雜度是對一個算法在運行過程中所占存儲空間大小的度量,一般也作為問題規(guī)模n的函數(shù),以數(shù)量級形式給出,格式如下所示:查看全文>>
如何在只有6萬張圖像的MNIST訓練數(shù)據(jù)集上訓練模型。學術(shù)界當下使用最廣泛的大規(guī)模圖像數(shù)據(jù)集ImageNet,它有超過1,000萬的圖像和1,000類的物體。然而,我們平常接觸到數(shù)據(jù)集的規(guī)模通常在這兩者之間。假設我們想從圖像中識別出不同種類的椅子,然后將購買鏈接推薦給用戶。一種可能的方法是先找出100種常見的椅子...查看全文>>
VGG可以看成是加深版的AlexNet,整個網(wǎng)絡由卷積層和全連接層疊加而成,和AlexNet不同的是,VGG中使用的都是小尺寸的卷積(3×3),其網(wǎng)絡架構(gòu)如下圖所示:查看全文>>