在進(jìn)行模型訓(xùn)練時(shí),我們需要構(gòu)造訓(xùn)練樣本和設(shè)計(jì)損失函數(shù),才能利用梯度下降對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。將一幅圖片輸入到y(tǒng)olo模型中,對應(yīng)的輸出是一個(gè)7x7x30張量,構(gòu)建標(biāo)簽label時(shí)對于原圖像中的每一個(gè)網(wǎng)格grid都需要構(gòu)建一個(gè)30維的向量。對照下圖我們來構(gòu)建目標(biāo)向量:查看全文>>
不斷地交換下去就可以將最大的那個(gè)數(shù)放到隊(duì)列的尾部。然后重頭再次交換,直到將數(shù)列排成有序數(shù)列。接下來我們以以數(shù)列[5, 9, 3, 1, 2, 8, 4, 7, 6]為例,演示冒泡排序的實(shí)現(xiàn)過程,最初的數(shù)列順序如下圖所示:查看全文>>
?復(fù)雜度分析是估算算法執(zhí)行效率的方法,公式O(f(n))表示算法的復(fù)雜度,此方法即為大O復(fù)雜度表示法O(f(n))中n表示數(shù)據(jù)規(guī)模,f(n)表示運(yùn)行算法所需要執(zhí)行的指令數(shù)。下面的代碼非常簡單,求 1,2,3…n 的累加和,我們要做的是估算它的執(zhí)行效率。查看全文>>
30歲開始學(xué)人工智能行業(yè)嗎?晚不晚?如果你有一定的編輯基礎(chǔ)和經(jīng)驗(yàn)是可以的,學(xué)習(xí)人工智能并不意味著拋掉過去所學(xué)的東西,而是在之前的計(jì)算機(jī)基礎(chǔ)上升級深耕于一個(gè)方向應(yīng)用于多個(gè)領(lǐng)域。不論轉(zhuǎn)行計(jì)算機(jī)的哪個(gè)方向都是不錯(cuò)的選擇,而人工智能也確實(shí)是比較熱門的方向。查看全文>>
使用超平面進(jìn)行分割數(shù)據(jù)的過程中,如果我們嚴(yán)格地讓所有實(shí)例都不在最大=大間隔之間,并且位于正確的一邊,這就是硬間隔分類。硬間隔分類有兩個(gè)問題,首先,它只在數(shù)據(jù)是線性可分離的時(shí)候才有效;其次,它對異常值非常敏感。查看全文>>
Seaborn基于 Matplotlib核心庫進(jìn)行了更高級的API封裝,可以輕松地畫出更漂亮的圖形,而Seaborn的漂亮主要體現(xiàn)在配色更加舒服,以及圖形元素的樣式更加細(xì)膩。查看全文>>