coreimage framework 組成
主要分為三部分:
1)定義部分:coreimage 何coreimagedefines。見名思義,代表了coreimage 這個框架和它的定義。
2)操作部分:
濾鏡(cifliter):cifilter 產生乙個ciimage。典型的,接受一到多的作為輸入,經過一些過濾操作,產生指定輸出的。
檢測(cidetector):cidetector 檢測處理的特性,如使用來檢測中人臉的眼睛、嘴巴、等等。
特徵(cifeature):cifeature 代表由 detector處理後產生的特徵。
3)影象部分:
畫布(cicontext):畫布類可被用與處理quartz 2d 或者 opengl。可以用它來關聯coreimage類。如濾鏡、顏色等渲染處理。
顏色(cicolor): 的關聯與畫布、畫素顏色的處理。
向量(civector): 的座標向量等幾何方法處理。
(ciimage): 代表乙個影象,可代表關聯後輸出的影象。
2. 處理步驟:
1)create a ciimage object;
2) create a cifilter object and set input values
3) create a cicontext object.
4) render the filter output image into a cgimage
3.注意
a。關注ciimage 產生的途徑:
1)通過url和data
2)通過其他類轉換,cgimageref或其他。
3)通過cvpixelbufferref。
4)一組畫素data。
b. 顏色,kccimagecolorspace 來過載預設顏色空間。
c. metadata。
4. 使用濾鏡。
處理過程:多個cimage輸入 -- 》 ciheblendmode --》 cisepiatone。
渲染輸出:
流程: 獲取context -》 轉成ciimage -》 渲染成cgimageref -》 轉換為uiimage -》 釋放 cgimageref -》 使用uiimage。
5.臉部檢測
自動增強: ciredeyecorrection 、cifacebalance(調整來給出更好的**色調)、civibrance(在不扭曲**色調的情況下,增加飽和度)、citonecurve(調整對比)、高亮陰影調整。
iOS中的CoreImage框架
core image是ios中的影象處理框架,使用上比較簡單方便,常用於 的濾鏡處理,還有就是面部檢測 沒有識別 等用途。coreimage框架裡主要包括以下幾個我們常用的模組 ciimage 這是代表影象的類。cifilter 代表濾鏡的乙個類,能夠通過key value來設定輸入值,用於為cii...
iOS人臉識別 CoreImage
1 從初始uiimage獲取乙個ciimage物件。2 建立乙個用於分析物件的cicontext。3 通過type和options引數建立乙個cidetector例項。type引數指定了要識別的特徵型別。options引數可以設定識別特徵的精確度,低精確度速度快,高精確度更準確。4 建立乙個影象陣列...
iOS 原生CoreImage人臉識別
首先定義屬性 property strong,nonatomic uiimage ima property strong,nonatomic uiimageview iamgeview self ima uiimage imagenamed 123.png self iamgeview uiimag...