這是性別識(shí)別訓(xùn)練樣本下載,即histogram of oriented gradient, 是用于目標(biāo)檢測(cè)的特征描述子,該技術(shù)將圖像局部出現(xiàn)的方向梯度次數(shù)進(jìn)行計(jì)數(shù),該方法和邊緣方向直方圖、scale-invariant feature transform類似,不同的是hog的計(jì)算基于一致空間的密度矩陣來提高準(zhǔn)確率。Navneet Dalal and Bill Triggs首先在05年的CVPR中提出HOG,用于靜態(tài)圖像or視頻的行人檢測(cè)。
性別識(shí)別訓(xùn)練樣本是其實(shí)性別識(shí)別和人臉識(shí)別本質(zhì)上是相似的,因?yàn)檫@里只是一個(gè)簡單的MFC開發(fā),主要工作并不在算法研究上,因此我們直接將性別識(shí)別視為一種特殊的人臉識(shí)別模式。人臉識(shí)別可能需要分為幾十甚至上百個(gè)類(因?yàn)橛袔资踔辽习賯(gè)人),而性別識(shí)別則是一種特殊的人臉識(shí)別——只有兩個(gè)類。
性別識(shí)別訓(xùn)練樣本是所檢測(cè)的局部物體外形能夠被光強(qiáng)梯度或邊緣方向的分布所描述。通過將整幅圖像分割成小的連接區(qū)域(稱為cells),每個(gè)cell生成一個(gè)方向梯度直方圖或者cell中pixel的邊緣方向,這些直方圖的組合可表示出(所檢測(cè)目標(biāo)的目標(biāo))描述子。為改善準(zhǔn)確率,局部直方圖可以通過計(jì)算圖像中一個(gè)較大區(qū)域(稱為block)的光強(qiáng)作為measure被對(duì)比標(biāo)準(zhǔn)化,然后用這個(gè)值(measure)歸一化這個(gè)block中的所有cells.這個(gè)歸一化過程完成了更好的照射/陰影不變性。
與其他描述子相比,HOG得到的描述子保持了幾何和光學(xué)轉(zhuǎn)化不變性(除非物體方向改變)。因此HOG描述子尤其適合人的檢測(cè)。
HOG特征提取方法就是將一個(gè)image:
1.灰度化(將圖像看做一個(gè)x,y,z(灰度)的三維圖像)
2.劃分成小cells(2*2)
3.計(jì)算每個(gè)cell中每個(gè)pixel的gradient(即orientation)
4.統(tǒng)計(jì)每個(gè)cell的梯度直方圖(不同梯度的個(gè)數(shù)),即可形成每個(gè)cell的descriptor