전혀 모르는 사람들을 위해 설명을 덧붙이자면 Visual Studio는 Microsoft에서 개발한 프로그래밍 툴(주로 C, C++, C# 등)이고,


OpenCV는 컴퓨터 영상 처리 작업을 편리하게 해주는 오픈 소스 라이브러리이다. 이 설명도 알아들을 수 없다면 아마도 이 글은 별로 도움이 안될 것이다.




현재 상용화된 Microsoft Visual Studio의 가장 최신 버전은 Visual Studio 2013이며,


최신 stable 버전의 OpenCV는 openCV-2.4.9 이다. (openCV-3.0.0은 알파버전만 나와있다.)


하지만 이번 포스트에서는 Visual Studio 2008에 OpenCV 2.1버전을 설치하는 과정을 정리한다.


비쥬얼스튜디오 2008까지는 [프로젝트 및 솔루션] 설정 및 [C++ 디렉터리 설정]이 전역으로 관리되나,


Visual Studio 2010 이후로는 해당 설정이 프로젝트 단위로 관리된다는 점을 제외하면 OpenCV 개발 환경을 셋업하는 방법은 크게 다르지 않다.


(OpenCV 버전에 따라서 설치 폴더의 하위 경로들은 조금 씩 다를 수 있다)


VS2008이 이미 설치되어있고 정상적으로 돌아간다는 가정 하에 OpenCV 개발환경 구축 과정을 보도록 하자.


참고로 사용한 운영체제는 Windows 8.1 64bits 버전이지만 운영체제가 달라도 크게 영향은 없을 것이다. openCV는 32bits (x86)버전으로 설치한다.




1. OpenCV의 다운로드와 설치



아래의 소스포지 링크에서 버전별 OpenCV 다운로드를 제공한다. 버전이 올라갈수록 용량도 커진다. (현재 3.0.0 버전은 367.3MB이다.)


   ☞  http://sourceforge.net/projects/opencvlibrary/files/opencv-win/


그 중 2.1버전의 폴더를 선택하여 하위폴더로 들어간 후, [OpenCV-2.1.0-win32-vs2008.exe] 파일을 다운로드 받는다.


(사실, 설치라고 해봤자 압축을 푸는 정도이지만, exe파일인 설치마법사는 시스템 환경 변수 설정을 수동으로 할 필요가 없어서 덜 번거롭다.)


다운로드 후 설치파일을 실행하여 설치를 진행하면 여느 설치파일과 마찬가지로 약관 동의 화면이 나온다.


설치를 동의하고 다음 화면으로 넘어가면 시스템 경로 (System PATH) 추가를 묻는 화면이 있다.



두번째 항목인 "Add OpenCV to the system PATH for all users"를 선택 후 다음으로 넘어간다.


다음 화면에서는 설치 경로를 지정한다. 될 수 있으면 간단하고 영문과 숫자로만 이루어진 경로가 좋다.



그 다음 화면은 프로그램의 바로 가기 아이콘을 생성할 시작 메뉴 폴더를 지정하는 부분이다. 여기는 별로 중요하지 않으므로 아무렇게나 해도 상관없다.


마지막은 다음과 같은 설치 구성 요소 선택 화면이다. main과 src 단 두 개 뿐이지만 그냥 Full 항목을 선택하도록 하겠다.



이제 [설치]를 누르면 드디어 설치가 진행된다. 완료되도록 기다린다.



설치가 완료되면 다음과 같이 제대로 설치되었다는 화면이 보일 것이다.



또한 설치 경로에 openCV가 압축 해제된 폴더가 보일 것이며, 시스템 Path 환경변수에 (OpenCV 설치경로)\bin 경로가 추가되어있을 것이다.


원래는 bin 폴더를 직접 추가해줘야해서 귀찮은 부분이다.


bin 폴더에는 OpenCV의 dll(동적라이브러리) 파일들이 들어있어서, 우리가 작성한 프로그램 빌드시 설정이 동적라이브러리 참조인 경우


프로그램을 실행할 때 저 경로를 참조하여 OpenCV 라이브러리를 불러온다.


따라서 이 환경변수가 등록되어있지 않으면 빌드 설정에 따라 다르지만 OpenCV를 사용한 응용프로그램이 문제없이 빌드는 되는데


런타임 오류를 내며 실행이 안되는 경우가 생길 수도 있다.


환경변수를 확인해보자





2. OpenCV의 다운로드와 설치


그러면 이제 남은것은 Visual Studio의 설정 뿐이다.


위 과정중에 Visual Studio가 실행중이었다면 종료하고 다시 실행시키도록 한다.


시스템 환경 변수가 편집되었지만 이는 프로그램이 처음 실행될 때 참조되기때문에 이미 실행중인 프로그램에는 반영되지 않기 때문이다.


만약 비쥬얼 스튜디오를 설치한 직후라면 OpenCV를 위한 설정을 하기 전에 우선 테스트용 프로젝트를 만들어서 Visual Studio가 제대로 돌아가는지부터 확인해보자.



Visual Studio에는 문제가 없음을 확인했다. 여기서 제대로 안된다면 인터넷 검색을 통해 해당 부분을 먼저 해결하고 다시 오도록 한다.


필자와 마찬가지로 Visual Studio 2008에 설정을 하고자 한다면 우측 상단 메뉴줄에서


[도구] -> [옵션] 창을 열고


[프로젝트 및 솔루션] -> [VC++ 디렉터리] 항목으로 이동하도록 한다.


만약 VS2010 이상의 버전이라면 프로젝트를 생성한 후 솔루션 뷰에서 오른쪽 클릭하여 [속성] 창을 열던지,


상단 프로젝트에서 [프로젝트] -> [속성]을 선택해 프로젝트 속성 페이지를 열고


[구성 속성] -> [VC++ 디렉터리] 항목으로 이동하면 된다.




VS2008을 기준으로 계속 설명하자면, 


먼저 "다음 파일의 디렉토리 표시" 항목에서 [포함 파일]을 선택한 후 다음과 같은 include 경로들을 추가해준다.


(OpenCV 설치경로)\include

(OpenCV 설치경로)\include\opencv

상위버전의 OpenCV라면 opencv2 폴더 또한 포함 디렉터리에 추가한다.


이 과정이 끝나야 opencv 헤더파일들이 추가된다.



그 다음은 "다음 파일의 디렉토리 표시" 항목을 [라이브러리 파일]로 바꾼 후 다음과 같이 library 경로를 추가해준다.


(OpenCV 설치경로)\lib

상위 버전의 OpenCV라면 필요에 따라 정적라이브러리폴더인 staticlib 폴더 또한 추가한다.


OpenCV가 상위 버전이라면 추가할 경로들이 좀 더 복잡하다는 것을 염두에 두어야 한다.


예를 들어 opencv-2.4.9 버전에서 [포함 디렉터리]는 (OpenCV 설치경로)\build\include 에 있고


[라이브러리 디렉터리]는 (OpenCV 설치경로)\build\(x86 또는 x64)\vcXX(VS버전)\lib와 같다.



이제 마지막으로 사용할 라이브러리 파일들을 지정해주면 된다. 이 부분은 VS2008이나 상위버전의 비쥬얼 스튜디오나 똑같이


프로젝트 속성 페이지에서 [구성 속성] -> [링커] -> [입력] 항목으로 이동한다.



이 화면에서 [추가 종속성] 항목에 사용할 라이브러리 파일들을 입력해주어야 한다. 이 파일들은 위에서 입력한 lib 폴더 안에 들어있다.


참고로 OpenCV 라이브러리 파일들은 Debug용과 Release용으로 나뉘어져 있다. 현재 구성이 Debug모드이므로 디버그용 라이브러리 파일들만 추가한다.


debug용 파일들은 전부 파일 이름 끝에 'd'가 붙어있어서 ~d.lib 형태이다.


만약 릴리즈를 하고자 하면 "구성"을 release로 변경하여 이 부분을 release 전용 파일들로 새로 입력해주어야 할 것이다.


입력할 파일들의 이름은 다음과 같다.


cv210d.lib

cvaux210d.lib

cxcore210d.lib

highgui210d.lib

ml210d.lib

opencv_ffmpeg210d.lib

이 목록은 opencv 버전에 따라 다르고, 또 굳이 전부 넣을 필요 없이 필요한 기능의 모듈만 넣어주면 된다.


하지만 지금은 아무것도 모르는 상태일 가능성이 높기 때문에 그냥 전부 추가해놓는게 편할 것이다.


확장자인 ".lib"를 빼먹지 않도록 주의한다.



여기까지가 OpenCV 개발환경 구축의 끝이다.


그러면 이제 제대로 돌아가는지 확인해볼 차례이다.




3. OpenCV 구동 테스트


단순히 이미지를 불러와서 창에 띄우는 간단한 win32 콘솔 응용프로그램을 돌려보도록 하자.


불러올 이미지는 영상처리 분야에서 흔하게 쓰이게 된 lena라는 인물의 유명한 얼굴 이미지를 사용할 것이다. (포르노 사진의 일부분이다.)


아래 이미지를 저장해서 사용하면 된다.




사용할 이미지는 프로젝트 폴더 내에 위치시키도록 한다.


솔루션 뷰에서 프로젝트에 오른쪽 클릭하여 나오는 팝업 메뉴에서 [Windows 탐색기에서 폴더 열기]라는 메뉴를 통해 프로젝트 폴더를 바로 열 수 있다.



이미지까지 준비가 되었으니 이제 소스코드만 있으면 된다.


지금은 OpenCV 함수들을 하나도 모를테니 우선 그냥 소스코드를 그대로 복사해서 실행해보도록 하자.



main.cpp

#include <stdio.h>
#include <cv.h>
#include <highgui.h>

int main(void)
{
	printf("OpenCV 2.1 test :: http://kugistory.net\n");	

	// "lena256.bmp" 이미지 불러오기
	IplImage* inputImage = cvLoadImage("lena256.bmp");

	// "this is a test image."라는 이름의 새 창을 만들어 이미지 보여주기
	cvShowImage("this is a test image.", inputImage);

	// 사용자 키 입력 기다리기
	cvWaitKey();

	// 모든 openCV 창 닫기
	cvDestroyAllWindows();

	// 불러온 이미지 메모리 해제
	cvReleaseImage(&inputImage);

	return 0;
}



이 프로그램을 실행한 결과이다.



콘솔창과 함께 lena256.bmp 영상이 출력된 새 창이 떠있는 것을 확인할 수 있다. 이 창에 포커스를 유지한 채 아무 키나 누르면 창이 닫히며 프로그램이 종료된다.




드디어 환경 구축이 진짜로 끝이 났다. 다양한 책과 인터넷 문서들을 통해 OpenCV 함수들의 사용 방법을 익혀보도록 하자.



저작자 표시 비영리 동일 조건 변경 허락
신고
Posted by Kugi

댓글을 달아 주세요




핀홀(pinhole)이란 말 그대로 종이에 핀으로 뚫은 구멍 같은 매우 작은 구멍을 말한다.

 

핀홀을 통해서 들어오는 빛을 받아들여 촬영하는 카메라를 핀홀 카메라(pinhole camera)라고 한다.

 

흔히 '바늘구멍 사진기'라고도 한다.

 

핀홀 카메라 모델은 물체에 반사된 빛이 우리 눈의 수정체(또는 카메라의 렌즈)를 거쳐서

 

망막(또는 카메라의 센서)에 도달하는 구조를 관찰하는 데 유용하다.

 

 

단, 핀홀 카메라에서는 빛이 아주 작은 구멍을 거쳐서 들어오기 때문에 빛을 모으기에는 부적합하다.

 

따라서 일반적인 카메라는 핀홀이 아닌 렌즈를 이용한다. 그러나 렌즈를 사용하게 되면

 

카메라의 구조가 복잡해지며 렌즈 자체의 왜곡으로 인하여 영상이 손상될 수 있다.

 

 

핀홀 카메라의 원리는 다음과 같다.

 

3차원인 실제 세계에서 빛이 물체의 어느 한 점에서 반사되면, 다양한 각도의 광선 중에서

 

핀홀을 향하는 광선만이 핀홀 평면에 가로막히지 않고 나아가게 된다.

 

결과적으로 이 광선은 영상 평면(image plane) 또는 투영 평면(projective plane)이라고 불리는 곳에

 

맺히게 된다. 이 상(image)의 크기는 핀홀 카메라의 초점 거리(focal length)에 의해 결정된다.

 

이상적인 핀홀 카메라일 경우, 초점 거리는 핀홀 구멍에서부터 영상 평면까지의 거리이다.

 

 

 

 

위의 그림에서 A와 a는 각각 실제 물체의 크기와 영상 내의 물체 크기를 나타낸다.

 

그림에서 꼭지점을 맞대고 있는 두 삼각형을 잘 살펴보면 다음과 같은 관계를 찾을 수 있다.

 

 

 

이를 이용하여 영상에서의 물체의 크기는 다음과 같이 구해진다.

 

 

 

핀홀 카메라 모델을 다음 그림처럼 약간 변형하면 수식을 조금 더 간단히 할 수 있다.

 

우리가 일반적으로 사용하는 렌즈카메라에서도 위 그림처럼 영상 평면(센서)이 투영중심 앞에 위치한다.

 

 

3차원 공간상의 한 점 Q=(A,Y,Z)에서 출발한 빛은 투영 중심을 향해 직진하여 영상 평면과 만난다.

 

이 점을 q=(a,y,f)로 표현한다.영상 평면이 핀홀 앞으로 이동하면서 수식에서 음수 부호가 사라졌다.

 

 

 

위 그림을 보면 광축과 영상 평면이 만나는 주점(principle point)이 항상 카메라의 영상 센서의 중심에

 

위치하게 될 것이라고 생각할 수 있지만, 실제적으로 광축이 센서 중심을 지나도록 하기는 매우 어렵다.

 

따라서 투영 평면에서 좌표 중심의 이동 변위를 표현하기 위해 새로운 매개변수(parameter)인 c를 사용해야 한다.

 

새로운 매개변수를 추가하여 나타낸 영상 평면에 맺히는 점의 좌표를 다음과 같이 표현할 수 있다.

 

 

 

  a : 영상에 맺히는 상의 길이(가로축)

  A : 물체의 실제 길이(가로축)

  y : 영상에 맺히는 상의 길이(세로축)

  Y : 물체의 실제 길이(세로축)

  f : 핀홀 카메라의 초점 거리

  F : 카메라와 물체 사이의 거리

  c : 투영 평면에서 좌표 중심의 이동 변위를 표현하기 위한 보조 변수

 

 

여기서 두 개의 초점 거리(f)를 사용한 이유는 대다수의 영상 센서의 개별 픽셀들이

 

정사각형이 아닌 직사각형의 형태이기 때문이다.

 

 

초점 거리 f는 렌즈의 실제 초점 거리와 영상 센서의 개별 요소 크기 s를 곱한 값이다.

 

여기서 s의 단위는(픽셀)/(거리단위[각주:1])이고,

 

실제(물리적) 초점 거리 F가 거리단위를 사용하기 때문에 f는 픽셀 단위를 갖게 된다.

 

이 때 s와 F는 카메라 내부 보정 과정에서 직접적으로 구해지지 않는다.

 

 

 

 


참고 문헌


LEARNING OPEN CV 제대로 배우기

저자
개리 로스트 브라드스키, 에이드리안 캘러 지음
출판사
한빛미디어 | 2009-09-28 출간
카테고리
컴퓨터/IT
책소개
OPENCV 제대로 배워라!개리 로스트 브라드스키, 에이드리안 ...
가격비교

 

 


  1. 밀리미터(mm) 등의 일반적인 거리 단위로써 미터(meter), 미크론(micron) 등의 단위로 바꾸어도 상관 없다. [본문으로]
저작자 표시 비영리 동일 조건 변경 허락
신고
Posted by Kugi

댓글을 달아 주세요

  1. Erica 2017.07.09 21:38 신고  댓글주소  수정/삭제  댓글쓰기

    친절하신 설명에 감사드립니다.




적분 영상(integral image)이란 쉽게 말해서 다음 픽셀에 이전 픽셀까지의 합이 더해진 영상이다. 즉, 다음과 같은 수식으로 표현되는데

여기서 integImage(x, y)는 적분 영상이고 orgImage(x', y')는 원래 영상이다.

적분 영상의 장점은 특정 영역의 픽셀 값의 총합을 매우 쉽게 구할 수 있다는 점이다.

다음의 그림을 보면 이해가 쉬울 것이다.

8*8 크기의 임의의 1채널 영상을 예로 든 것이다. 좌측 상단이 원점이다.

왼쪽의 원래 영상에서 칠해진 영역의 넓이는

오른쪽 적분 영상에서 녹색 영역의 합과 주황색 영역의 합을 뺀 것과 같다.

(물론, 위 영상 전체의 합은 2250으로, 적분 영상에서의 마지막 값과 같다.)

이것을 수식으로 나타내면 다음과 같다.

다음의 그림을 참고하면 원리를 알 수 있다. 

D 영역의  픽셀 값을 얻기 위해서 점 d까지의 넓이에서 점 b까지의 넓이와 점 c까지의 넓이를 뺀 후

두 번 빼진 점 a 까지의 넓이를 한 번 더해줌으로써 D 영역의 넓이를 구할 수 있는 것이다.

  ( [D] = [A+B+C+D] - [A+C] - [A+B] + [A] )

이러한 적분 영상은 하나의 영상에 대해 특정 영역의 픽셀 값의 합을 여러 번 구해야 할 필요가 있을 때 유용하게 사용할 수 있다.

 

아래는 적분 영상을 구하는 C++ 함수의 예시(example)이다.

 

소스 보기 (Open)


저작자 표시 비영리 동일 조건 변경 허락
신고
Posted by Kugi

댓글을 달아 주세요

  1. 안녕하세요 2013.06.04 13:35 신고  댓글주소  수정/삭제  댓글쓰기

    유용한 정보 잘 보고 갑니다!

    수고하세요.

  2. 정진범 2013.07.11 20:36 신고  댓글주소  수정/삭제  댓글쓰기

    좋은정보에 감사합니다! 덕분에 적분이미지에 대해 이해를 했습니다~!

  3. 따옥 2014.02.06 16:24 신고  댓글주소  수정/삭제  댓글쓰기

    감사합니다. 잘 익혔습니다!!!

  4. 체셔 2014.04.27 15:39 신고  댓글주소  수정/삭제  댓글쓰기

    마지막 부분에 ( [D] = [A+B+C+D] - [A+C] - [B+D] + [A] ) 이 식이
    D = (A+B+C+D) - (A+C) - (A+D) + A
    이렇게 돼야되는 것 아닌가요? 하여튼 쉽게 풀어 써주신 글, 잘 보고갑니다~

    • Kugi 2014.10.13 13:59 신고  댓글주소  수정/삭제

      댓글 감사합니다.
      오류가 있었네요. 정확하게는
      D = (A+B+C+D) - (A+C) - (A+B) + A
      입니다. 본문 수정하였습니다.

  5. 영상처리초보자 2016.01.21 18:34 신고  댓글주소  수정/삭제  댓글쓰기

    D = (A+B+C+D) - (A+C) - (A+B) + A 라는 식에서
    D = (A+B+C+D) - (A+C) - (B) + A라고 하면은 안되는건가요..? 하드웨어로 구현하려고해서 로직 갯수를 줄이기 위해 CSA를 이용할텐데 궁금하네요..

  6. 박민서 2017.05.22 02:21 신고  댓글주소  수정/삭제  댓글쓰기

    안녕하세요? 적분영상에 관한 포스팅 관련해서 문의를 드리고 싶은것이 있어서요.
    말씀하신것 중에 "이러한 적분 영상은 하나의 영상에 대해 특정 영역의 픽셀 값의 합을 여러 번 구해야 할 필요가 있을 때 유용하게 사용할 수 있다." 라고하셨는데요 이게 이해가 안가서요. 부가적으로 설명을 좀더 해주실수있으신지요?

    • Kugi 2017.06.19 04:31 신고  댓글주소  수정/삭제

      답글이 늦었습니다. 지금은 벌써 답을 얻으셨을거라 생각하지만 그래도 간략하게 말씀드리자면, 모든 화소 위치에서 주변 화소들의 합을 각각 계산하고 싶을 때 중복된 계산을 하지 않게 해 준다는 뜻입니다.
      가령 연속된 화소 p1, p2, p3, p4, p5가 있을 때 이웃한 세 개 픽셀들의 합을 모든 위치에서 계산하고 싶다면 (양 끝은 제외합니다.) p1+p2+p3, p2+p3+p4, p3+p4+p5 를 계산하게 될 것입니다. 이 때 (p2+p3)를 두 번 계산했고 (p3+p4)를 두 번 계산하여 낭비가 발생하는 데 전체 영상과 마스크 크기가 커질수록 이런 낭비가 심해지는 것을 알 수 있습니다. 적분영상을 사용하면 어느 위치의 합을 계산하더라도 네 개의 값을 이용한 사칙연산만 하면 되므로 훨씬 효율적인 계산이 가능해집니다.

  7. 2017.08.11 17:24  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다




영국 옥스퍼드 대학의 로봇 연구 그룹 페이지.

그중에서도 Visual Geometry Group에서 제공하는 연구 페이지에서는

영상처리를 위한 각종 Detector, Descriptor 등의 소스 코드를 구할 수 있다.

http://www.robots.ox.ac.uk/~vgg/research/

http://www.robots.ox.ac.uk/~vgg/research/affine/detectors.html



머신러닝 등 각종 강의들의 자료

http://www.robots.ox.ac.uk/~az/lectures/

저작자 표시 비영리 동일 조건 변경 허락
신고
Posted by Kugi

댓글을 달아 주세요



티스토리 툴바