Papers/Machine learning

[lecture][forth day] Image processing

tomato13 2015. 1. 22. 17:24

<Clindrical Mosaic>


2차원 파노라마를 가상의 3차원에 뿌리고 이를 다시 2차원으로 prejection한다.???

(3차원 가상 원통의 중심이 카메라로 생각하라)


<Projector-Camera System>

projector 상을 camera가 분석하여 이를 영상처리해서 다시 프로젝터로 쏴준다.

ex) 무늬가 있는 벽에 project를 쏘면 상이 무늬와 섞여서 간섭되는데 이를 보정해줌

project를 여러대 쏘아서 하나의 큰 상을 만들때 경계가 이상할때 이를 보정(camera로 다시 영상처리해서 다시 쏴줌)


곡면의 벽에 projector상 투영시 카메라로 다시 찍어서 보정



<Bayesian Inference>



<MRF>

주변의 상관성을 고려해서 값을 구한다.

site의 label을 site주변의 neighbor과의 상관관계를 분석해서 구한다.


label 조합(site - neiborhood)이 너무 많으니 최소한의 조합으로... 구한다.



Maximum Liklihood: L의 범주에내에서 모든 것을 다해보고 가장 맞는 것을 찾는다.

그리고 가장 맞는 L을 찾고 Proir(확률분포??)와 비교한다. 즉, Proir는 주변 neighbor와의 상관관계인데 이것을 보는 것이다.

즉, 에너지가 minimum인 상태를 찾겠다.


P(High | Low) = P(Low | HIgh) x P(High)

* P(High | Low): Low를 input으로 High를 찾겠다는 의미

P(High)는 Gibbs모델을 사용하는데 에너지->확률변화로직 사용. 에너지는 이전과 이후의 차이고 이 차이에 exp하여 확률화한다.


P(Low | HIgh): Likelihodd model

P(High): Prior model


Simulated Annealing: T값을 적용해서 에너지가 이전보다 커져도 받아들인다. T는 일종의 Treshold. 

(iteration할때마다 T값을 조금씩 줄인다.)

하지만 이것이 정말 global minimum으로 가는지는 확신할 수는 없음. 

(적용할 수 있는 후보군 L의 범위가 무한하기 때문에 위와 같은 가이드를 적용해서 L의 적용범위를 정해 나아가야함.)



너무 global minimization 에 현혹되어 집착할 필요 없다.



<open cv 실습>