보안 제품정보


고객의 관심은 어디를 향하는가? 2014.06.25

src=/news/photo/board/010001(47).jpg

\r\n

\r\n


\r\n

마케팅 이용에 적합한 영상분석 기법

\r\n

지능형 영상분석 시스템을 활용한 다양한 마케팅 기법이 사용되고 있다. 이번호에서는 마케팅 영상 분석을 전제로 한 저해상도 영상에 대한 인물의 자세 추정 방법에 대해서 알아본다. 머리 위치, 머리 방향, 신체 방향, 인체 모델 파라미터를 서포트 백터 머신에 의한 멀티 클래스 분류기 및 실루엣 이미지로부터의 거리 변환을 사용해서 파티클 필터에 의한 자세 파라미터의 트래킹을 실시한다. 파티클의 우도함수에 머리 방향과 신체 방향 그리고 머리 위치와 인체 모델간에 제약을 포함시킴으로써 자세 파라미터간에서 서로 보정하면서 트래킹을 하는 것을 가능하게 했다. 또, 실제 마케팅 조사용 영상을 사용한 실험 결과, 기존 방법과 비교해서 머리 검출률, 머리 방향 정답률, 신체 방향 정답률 모두에서 제안 방법이 높은 정밀도를 나타내는 것이 확인되었다.

\r\n


\r\n

다무라 기미마사, 하시모토 기요시, 아오키 요시미쓰 │ 게이오기주쿠대학

\r\n


\r\n


\r\n

최근 역이나 소매점 등 사람이 많이 모이는 장소에 카메라가 설치되는 경우가 증가하고 있다. 그 배경으로서 보안 의식의 향상뿐만 아니라 여러 가지 조사에 대한 영상이 활용되고 있다. 카메라에 의해 촬영된 영상에서 인물의 정보를 추출하는 인물 이미지 인식에 있어서의 과제는 크게 나누어서 자세 추정, 동작 인식, 행동 인식에 3단계가 있고 컴퓨터 비전 분야 중에서도 특히 활발하게 연구가 이뤄지고 있다. 예를 들면 보행의 특징으로부터 개인의 식별을 하는 연구1)나 시선 추정에 의한 광고에 대한 관심도의 계측2) 등 이다. 알아보고자 하는 것은 마케팅 조사를 목적으로 한 영상에 있어 인물의 자세 추정 방법이다.

\r\n


\r\n

감시 카메라와 같은 저해상도의 영상으로부터 고객의 관심도를 측정하기 위해서 머리 방향 및 신체 방향 그리고 전신 자세를 추정한다. 특히 저해상도 이미지에 있어 머리 방향 추정은 지금까지도 다양한 연구가 이뤄지고 있고 머리의 관측 영역을 한정해 파티클 필터에 의한 머리 위치 및 방향의 트래킹을 하는 방법3)이나 인물의 진행 방향에 의해 머리 방향 추정의 보정을 하는 방법4) 등이 지금까지 제안되어 왔다.

\r\n


\r\n

이번호에서 소개하는 방법은 불안정한 배경 환경에 기인하는 인물 트래킹의 정밀도 저하나 고객이 멈춰 서서 방향 전환을 하는 경우 등에도 대응 할 수 있도록 문헌 3), 4)와는 다른 제약을 사용해서 자세 추정을 한다. 구체적으로는 머리 위치, 머리 방향, 신체 방향, 인체 모델 파라미터를 서포트 백터 머신 의한 멀티 클래스 분류기 및 실루엣 이미지로부터의 거리 변환을 사용해 추정해서 파티클 필터에 의한 자세 파라미터의 트래킹을 한다.

\r\n


\r\n

그리고 파티클의 우도함수에 머리 방향과 신체 방향, 머리 위치와 인체 모델간에 제약을 포함시킴으로써 자세 파라미터간에서 서로 보정하면서 트래킹을 하는 것을 가능하게 했다.

\r\n


\r\n

제안 방법 개요

\r\n

먼저, 1장의 인물 이미지에 대하여 추정되는 자세 파라미터는 머리 위치 파라미터, 머리 방향, 신체 방향 그리고 인체 모델 파라미터다(그림 1). 1장의 인물 이미지에 대한 자세는 머리 파라미터(머리 위치와 방향), 신체 방향, 인체 모델 파라미터를 각각 독립적으로 추정한다.

\r\n


\r\n

프레임별로 독립적으로 자세 파라미터의 추정을 하면 계산 비용이 방대해진다. 특히 머리 위치 추정에 있어서는 머리의 위치 및 크기를 탐색 할 필요가 있기 때문에 시계열 정보를 사용한 탐색 공간으로 한정 등에 의해서 대폭적으로 계산 비용을 삭감할 수 있다. 또, 머리의 방향 및 신체의 방향에 관해서도 시계열 정보를 사용해서 평활화 함으로써 추정 결과의 급격한 변화를 배제할 수 있다.

\r\n

\r\n

\r\n


\r\n

소개하는 방법에서는 3)과 동일하게 파티클 필터를 이용한 트래킹을 한다. 단, 문헌 3)에서는 머리 위치 파라미터와 머리 방향 파라미터만을 파티클의 파라미터라고 하고 있었던 것에 대해 신체의 방향 파라미터를 더한다. 구체적으로는 머리 방향과 신체 방향, 머리 위치와 인체 모델의 위치라고 하는 2개의 파라미터간 관계를 고려한다. 또, 인체 모델 파라미터 M은 파티클에 포함되지 않고 프레임별로 추정한다.

\r\n


\r\n

인물 이미지에 대한 파라미터 추정

\r\n

한장의 인물 이미지에 대한 자세 파라미터는 머리 위치와 방향, 신체의 방향, 인체 모델 파라미터의 3개가 각각 독립적으로 추정된다(그림 2). 머리 위치와 방향의 특징량5)과 서포트 백터 머신에 의한 멀티클래스 분류기를 사용해서 이미지상의 ROI를 멀티스케일로 탐색하는 것으로 추정된다. 또, 신체의 방향은 Histograms of Oriented Gradients(HOG) 특징량6)과 SVM에 의한 멀티클래스 분류기를 사용해서 추정된다. 인체 모델 파라미터는 실루엣의 거리 변환 이미지를 사용해서 추정된다.

\r\n

\r\n

\r\n


\r\n

머리 검출 및 방향 추정

\r\n

머리 파라미터는 위치, 크기 및 방향으로 이뤄진다. 여기에서 방향은 Nh방향으로 양자화되고 있어 Nh개의 라벨에 의해 표현된다. 이 Nh개의 방향 라벨의 집합을 Dh라고 한다. 예를 들면 Nh=8일 때 머리의 방향은 그림 3과 같다.

\r\n


\r\n

이 파라미터 추정에는 SVM을 사용한 멀티클래스 분류를 사용한다. 구체적으로는 지정된 ROI 중의 이미지에 대해서 머리 방향 클래스로의 분류 결과 및 각 클래스로의 분류 확률을 주는 분류기를 사용한다. 여기서 ROI를 지정하는 파라미터는 왼쪽 위의 점좌표와 스케일이며 이 파라미터에 대한 방향 라벨 dh에 대한 우도(尤度)가 주어진다.

\r\n


\r\n

여기에서 이미지, 위치 파라미터, 스케일 파라미터가 주어졌을 때 이 파라미터에 의해 지정된 이미지 영역에 대해서 Nh개의 라벨에 대한 우도(尤度)를 주는 분류기가 필요하다. 언급한 것 같이 이 분류기에는 SVM을 사용한 멀티클래스 분류기를 사용한다.

\r\n

\r\n

\r\n


\r\n

서포트 백터 머신에 의한 멀티클래스 분류

\r\n

주어진 이미지에 대해서 복수의 클래스 분류를 하는 다시 말해 멀티클래스 분류를 하는 분류기는 복수의 2클래스 분류기의 조합에 의해 구성된다. 주로 1대1 분류기나 1대 다 분류기가 사용되는데 여기에서는 1대 다 분류기를 사용한다. SVM에 의한 멀티클래스 분류기를 사용한 분류에 대해서 그 분류 확률을 추정할 수 있다7). 즉, 데이터에 대하여 N 클래스 분류를 했을 때 그 데이터가 N 클래스로 분류되는 확률을 각각 추정할 수 있다. 이 분류 확률을 사용해서 머리 파라미터 추정을 한다.

\r\n


\r\n

멀티클래스 분류에 의한 머리 파라미터 추정

\r\n

서포트 백터 머신을 사용해서 구성된 멀티클래스 분류기에 의해 머리 파라미터의 추정을 할 때는 위치 파라미터 및 스케일 파라미터를 변화시키면서 그 파라미터에 의해 결정되는 ROI 중 이미지의 각 클래스에 대한 분류 확률을 계산해 간다. 분류는 이미지로부터 추출되는 LBP 특징량에 대해서 실시한다. 이 때 머리가 아닌 영역도 분류 대상이 되기 때문에 방향에 대한 라벨뿐만 아니라 오답 데이터에 대응하는 라벨에 대해서도 분류 확률의 추정을 해야 한다. 여기에서 머리의 방향은 Nh방향으로 양자화되어 있으므로 Nh+1클래스 분류를 할 필요가 있다. 이렇게 해서 모든 파라미터에 대하여 Nh+1개의 우도(尤度)가 산출된다.

\r\n

또, 분류기의 학습에는 독자적으로 라벨이 붙은 데이터 및 CAVIAR데이터세트를 사용했다. 서포트 백터 머신의 구현에는 LIBSVM8)을 사용하고 있다.

\r\n


\r\n

신체방향 추정

\r\n

인물의 이미지가 주어졌을 때 그 신체 방향의 추정에도 머리 파라미터의 추정과 동일하게 SVM을 사용한 멀티클래스 분류를 한다. 단, 머리 파라미터 추정의 경우와 다른 이미지 영역은 한가지뿐이므로 주어진 이미지에 대한 방향 라벨 추정을 하면 된다.

\r\n

\r\n

여기에서 신체의 방향을 Nb방향으로 양자화했다고 하면 머리 파라미터 추정과 동일하게 서포트 백터 머신을 사용한 Nb클래스의 멀티클래스 분류기를 학습해서 추정을 한다. 단, 머리 파라미터 추정과는 달리 여기에서는 이미지 특징량으로서 HOG 특징량6)을 사용한다. 또, 분류기의 학습에는 독자적으로 라벨이 달린 데이터 세트를 사용했다.

\r\n


\r\n

인체 모델과 파라미터 추정

\r\n

인물의 자세를 표현하기 위한 인체 모델을 Pictorial Structure9)의 사고에 근거해서 설계한다. Pictorial Structure는 오브젝트의 부위를 노드, 부위간의 접속을 에지로 한 그래피컬모델로 무향(無向)인 동시에 비순회의 나무 구조이다.

\r\n


\r\n

인체 모델의 설계

\r\n

이번에 소개하는 방법에서 사용하는 인체 모델은 3개 부위로 구성된다. 이 모델은 실루엣을 상반신, 넓적다리, 종아리와 같은 3개의 부위로 분할했을 때에 각각의 부위의 중앙을 통과하는 선분을 나타낸다. 이 모델에 의해 대략적으로 어떤 자세를 취하고 있는지를 표현할 수 있다. 모델 파라미터는 상반신의 중앙 좌표 및 각 부위의 길이 l 및 경사 θ이다(그림 5).

\r\n


\r\n

인체 모델 파라미터를이 M으로 해서 인물 이미지 l가 주어졌을 때에 파라미터를 추정하는 것을 생각한다. 그리고 모델의 구성에 대한 우도(尤度) P(M)은 접속되는 부위간의 길이 비 및 상대 각도로 산출된다.

\r\n


\r\n

이미지의 모델에 대한 적합도

\r\n

이미지의 모델에 대한 적합도 P(M|I)는 실루엣의 거리 변환에 근거해서 얻게 되는 중심선을 사용해서 계산된다. 이 중심선은 거리 변환에 의해 얻은 이미지를 행별로 가중 평균을 만족시켜 가는 것으로 얻을 수 있다(그림 6).

\r\n

이렇게 해서 얻은 중심선e의 점xe에 대해서 모델까지의 최단 거리를 IM(xe)라고 한다.

\r\n


\r\n

파라미터 추정

\r\n

모델 파라미터 M은 8개의 변수를 가지기 때문에 파라미터 공간의 전체를 탐색하는 것은 비효율적이다. 따라서 여기에서는 중심선으로부터 초기 추정값을 얻은 뒤, 그 주변 영역의 탐색에 의해 추정값을 얻는 것을 생각할 수 있다. 상반신 부위와 넓적다리 부위 길이 비의 평균을, 넓적다리 부위와 종아리 부위와의 길이비 평균이라고 했을 때 중심선을 이들 비에 따라서 분할한다. 이것에 의해 얻게 되는 분할점에 근거하여 초기 추정 값 을 얻는다(그림 7). 단, 중심선의 앞쪽 끝 및 뒤쪽 끝은 그림자 등의 노이즈의 영향을 받기 쉽기 때문에 일정한 비율로 중심선에서 제외한다.

\r\n


\r\n

파티클 필터에 의한 자세 트래킹

\r\n

1장의 인물 이미지가 주어졌을 때에 자세 파라미터를 추정하는 방법에서 인물의 이미지 시퀀스에 대해서 차례대로 파라미터 추정을 하는 것은 비효율적이다. 특히, 머리 파라미터 추정에 있어서의 머리 ROI의 멀티스케일 탐색은 계산량이 크다. 이러한 경우 시계열 정보를 사용한 필터링이 일반적으로 이용된다. 시계열 필터에는 칼만 필터 등 다양한 방법이 있는데 여기에서는 문헌 3)과 동일하게 파티클 필터를 사용한다. 여기에서 사용하는 파티클 필터의 알고리즘 개요는 다음 항에 나타내는 것과 같다.

\r\n


\r\n

\r\n

파티클의 설계

\r\n

파티클의 설계는 다시 말해 트래킹 해야 할 파라미터를 어떻게 설정할 것인가라고 하는 문제이다. 문헌3)에서는 머리의 위치 및 스케일, 방향이라고 하는 3개의 파라미터에 대해서 파티클 필터에 의한 트래킹을 하고 있다. 제안 방법에 있어서의 자세 파라미터는 문헌 3)과 동일한 머리 파라미터에 더해서 신체 방향 파라미터 및 인체 모델 파라미터를 포함하기 때문에 이 파라미터 혹은 그 일부를 파티클의 파라미터로서 설정할 수 있다. 특히 머리 파라미터에 관해서는 매번 프레임 추정을 하면 처리가 방대해지기 때문에 반드시 파티클 필터에 의한 트래킹을 한다고 하면 신체 방향 파라미터 및 인체 모델 파라미터를 파티클에 포함시킬 것인지의 여부가 문제가 된다.

\r\n


\r\n

파티클 필터는 프레임별 추정에 있어서 발생하는 방대한 후보의 좁힘을 가능하게 하는데 파티클의 밀도가 충분히 빽빽하지 않을 경우에는 트래킹의 정밀도가 상실되어 버린다. 따라서 트래킹의 정밀도를 유지하려고 하면 파티클에 존재하는 공간의 차원수가 증가함에 따라 필요한 파티클수가 폭발적으로 증가해 버린다. 파티클의 파라미터가 모두 이산값을 취하는 것으로 해서 각 차원에 있어서의 탐색 후보수의 오더를 O(N)으로 할 때 k개의 파라미터에 대하여 탐색 후보의 총 수는 O(Nk)가 된다.

\r\n


\r\n

예를 들면 머리의 파라미터를 생각했을 때 방향을 무시할 경우는 위치를 주위 10×10픽셀의 범위에서, 스케일을 ±2픽셀의 범위에서 전체 탐색할 경우 500개의 후보를 평가할 필요가 있는데 여기에 방향 파라미터를 더해서 좌우 양쪽을 후보로 하는 것만으로도 전체 탐색의 후보수는 1, 500개가 된다.

\r\n


\r\n

머리 파라미터의 우도(尤度) 산출에는 특징량 추출을 따르기 때문에 현실적인 처리 시간을 생각했을 경우 파티클의 개수는 고작해야 수 천개라고 생각된다. 다시 말해 파티클에 포함시킬 수 있는 파라미터는 머리 파라미터(4개)에 더해 2개가 한도라고 할 수 있다.

\r\n


\r\n

이 점에서 인체 모델 파라미터(8개)를 파티클에 포함시키는 것은 바람직하지 않다. 따라서 여기에서는 신체 방향 파라미터만을 더해 특정값을 가지는 파티클을 사용한다.

\r\n

\r\n

\r\n


\r\n

우도함수의 설계

\r\n

‘파티클 필터’의 무게의 갱신에 있어서 파티클의 우도(尤度)이 사용된다. 무게의 갱신은 추정값 및 파티클의 갱신에 있어 파티클의 생성을 결정짓는 것이기 때문에 우도함수의 설계는 대단히 중요하다. 제안 방법에서는 머리 파라미터 및 신체 방향 파라미터 각각의 우도(尤度)에 더해서 머리의 방향과 신체의 방향 그리고 머리ROI와 인체 모델의 관계에 대한 우도(尤度)을 사용함으로써 자세 파라미터간에서 보정을 하는 것을 생각할 수 있다.

\r\n


\r\n

실제 마케팅 영상을 통합 평가 방법

\r\n

파티클 필터의 우도함수에 대해서 제안 방법 이외에 머리 영역의 우도(尤度)만을 고려한3)것과 동일한 것 그리고 문헌3)에 머리 방향과 신체 방향의 제약만을 가한 것을 구현해 정밀도의 비교를 한다.

\r\n


\r\n

실험 조건은 실제 마케팅 영상을 사용해서 방법의 평가를 한다. 촬영 장소는 휴대전화 가게 안으로 휴대전화가 전시되어 있는 선반의 주변이 비춰지고 있다. 또, 프레임 사이즈는 720×480픽셀이며 앵글은 한 종류이다. 또한 분석 대상이 되는 오브젝트는 오클루션(교합)이 발생했을 경우의 자세 추정에 대해서는 고려하지 않는다. 따라서 촬영 대상 영역에 있어서 관측된 인물(오브젝트)의 이미지 시퀀스로부터 오클루션(교합)이 일어나고 있지 않은 부분 시퀀스를 선택해서 평가를 한다. 또, 이미지상에서의 오브젝트의 크기는 높이로서 약 100∼150픽셀이다. 또, 머리의 크기는 10픽셀사방에서 20픽셀 사방이다.

\r\n


\r\n

오브젝트 트래킹

\r\n

이번 연구에서는 오브젝트 트래킹이 되는 인물 이미지가 주어지는 전제에서의 방법 제안을 했다. 단안 이미지상에서의 오브젝트 트래킹에 대해서는 여러 가지 방법이 제안되고 있는데 여기에서는 오클루션(교합)을 배제한 실험을 하므로 배경 차분(差分)에 의해 얻게 되는 전경(前景) 영역 정보를 이용한 트래킹을 한다. 또, 배경 차분(差分)에는 Yao등의 방법10)을 사용했다. 이 트래킹에서는 전경 영역을 블록화해서 각각 오브젝트 라벨을 다는 것으로 오브젝트의 영역을 결정한다. 여기에서 오브젝트 라벨을 이전 프레임의 상태에서 작성된 확률 맵을 사용해서 이어 가는 것으로 트래킹을 실시해 간다.

\r\n

\r\n

\r\n


\r\n

머리·신체 방향 식별기의 학습

\r\n

이 실험에 있어서는 머리의 방향 및 신체의 방향을 모두 8방향으로 분할해서 라벨을 단다. 다시 말해, 머리 및 신체의 방향에 관해서 8클래스의 교사 데이터를 준비해서 식별기의 학습을 한다. 단, 머리의 경우는 비머리(非頭部) 클래스도 포함시킨 9클래스 학습이 된다. SVM에 대해서는 소프트 마진 SVM를 채용하고 또 RBF커널을 사용한다.

\r\n


\r\n

정밀도 평가

\r\n

이번 우도함수의 설계를 변경한 3종류의 파티클 필터를 구현하여 정밀도의 비교 평가를 했다. 실험에서 사용한 영상에 있어서 오브젝트의 수는 54이며 합계 프레임 수는 2,631이다. 파라미터간 제약을 고려하지 않은 파티클 필터3), 머리 방향과 신체 방향의 제약만을 고려한 파티클 필터 그리고 제안 방법의 파티클 필터에 대해서 각각의 자세 파라미터 추정 정밀도를 제1표에 나타낸다. 여기에서 평균 머리ROI 중첩률은 정답의 머리ROI로 추정된 머리ROI와의 중첩률이며 머리 검출율은 중첩률이 50%을 넘었을 경우의 비율이다. 또, 머리 방향 및 신체 방향의 정답률은 정답 방향 클래스 및 그 좌우 양쪽의 방향 클래스를 정답으로 했을 경우의 분류 정답률이다.

\r\n


\r\n

실험 결과에서 방향에 관한 제약을 가함으로써 머리 방향 추정의 정밀도가 대폭적으로 개선되고 있는 것을 확인할 수 있다. 또, 인체 모델을 사용한 머리 위치의 제약을 가함으로써 머리ROI의 중첩률, 머리 검출률 모두 대폭적으로 개선되는 것을 확인할 수 있었다. 방향에 관한 제약만을 가했을 경우에 머리 검출률이 낮음에도 불구하고 머리 방향 추정의 정밀도가 높은 점에서 신체의 방향과 머리의 방향이 일치하고 있는 경우가 많은 것을 알 수 있다.

\r\n


\r\n

또 실험을 한 결과의 일부를 그림 8에 나타낸다.

\r\n

인물이 갑작스러운 움직임에 대해서 파라미터간 제약을 가한 제안 방법은 제약을 가하지 않은 경우보다 정밀도 높게 추종하고 있는 것을 알 수 있다

\r\n

\r\n

이번 원고에서는 마케팅 영상 분석을 전제로 한 저해상도 영상에 대한 인물의 자세 추정 방법에 대해서 해설했다. 추정되는 자세는 머리의 위치, 머리의 방향, 신체의 방향 그리고 인체 모델 파라미터이다. 머리 위치 및 방향은 머리 방향에 대응한 클래스와 오답 클래스를 분류하는 멀티클래스 분류기로 이미지상의 영역을 멀티스케일 탐색하는 것에 의해 추정된다. 신체의 방향은 머리의 경우와 동일하게 멀티클래스 분류기를 사용해서 추정한다. 인체 모델 파라미터는 파라미터의 차원수가 많기 때문에 초기값의 주변을 탐색하는 것으로 파라미터 추정을 한다. 초기 파라미터는 실루엣을 거리 변환하여 부위간의 길이 비에 근거해서 중심선을 분할함으로써 얻을 수 있다.

\r\n


\r\n

또, 자세 파라미터의 트래킹을 파티클 필터를 사용해서 실시했다. 제안 방법에서는 파티클의 무게 갱신으로 있어서 사용되는 우도함수에 머리의 방향과 신체의 방향에 대한 제약 그리고 머리의 위치와 인체 모델의 앞쪽 끝 위치에 대한 제약을 가했다. 제약을 가하지 않았을 경우와의 비교 실험에 의해 제안 방법에서는 특히 머리 검출의 정밀도가 향상되는 것을 확인할 수 있었다. 이것은 인체 모델에 의한 머리 위치에 대한 제약의 효과라고 생각된다.

\r\n

\r\n

\r\n


\r\n

앞으로의 과제는 제안 방법에서 목표로 한 자세 파라미터 추정트래킹의 고정밀도화 및 보다 고도의 인물 이미지 인식인 동작 인식에 대한 발전의 2개로 크게 나눌 수 있다.

\r\n


\r\n

하지만 머리 검출의 정밀도에는 아직 개선의 여지가 있다. 머리 검출의 정밀도 향상에 대해서는 2가지 접근을 생각할 수 있다. 1개는 머리 방향 추정기의 고정밀도화이다. 제안 방법에서는 LBP특징량과 서포트 백터 머신의 조합에 의한 분류기를 구성했는데 저해상도의 머리를 기술하는 것에 뛰어난 특징량의 검토를 할 필요가 있다. 특히 LBP특징량은 회전 불변은 아니지만 인물의 머리는 다양한 각도로 관측되기 때문에 회전 불변의 특징량은 하나의 후보로서 생각된다. 또, 식별기도 최근에는 부스팅 방법 특히 AdaBoost 및 그 발전 방법이 널리 사용되게 되어 있다. 이러한 식별기의 검토도 필요할 것이다.

\r\n


\r\n

이번 연구는 인물의 동작 정보는 마케팅 영상 분석에 있어서도 중요한 의미를 가진다. 동작 인식에 있어서 동작이란 자세의 연속된 것으로서 다루어지는 경우가 많다. Lv등11)은 CG에 의한 3차원 인체 모델을 사용해서 검출 대상으로 하는 동작의 키 포즈를 추출하고 관측된 실루엣과의 매칭을 하는 방법을 제안하고 있다. 이 방법에서는 미리 키 포즈의 실루엣 이미지를 여러 카메라 앵글로 촬영한 것을 준비하고 있다. 이 때 준비되는 키 포즈의 실루엣 이미지는 방대한 양이 되어 입력 이미지와의 매칭에 큰 계산 비용이 든다. 또, 실루엣은 깊이의 정보를 상실했기 때문에 입력 이미지와는 완전히 다른 앵글로 촬영된 모델 실루엣이 히트되어 버리는 위험성도 있다. 이렇게 카메라와 인물의 방향에 관해서 발생하는 문제는 본 연구의 제안 방법으로부터 추정되는 머리신체의 방향 정보에 의해 저감되는 것이 가능하다고 생각된다. 앞으로는 제안 방법에 의해 가능하게 된 자세 파라미터의 고정밀도 추정 정보를 이용해서 동작 인식으로 발전시키는 것이 기대된다.

\r\n


\r\n

참고문헌

\r\n

마키하라 야스시, 아카에 나오키, 알몬스루, 야기 야스시, “1fps 보용 인증”, 이미지의 인식이해 심포지엄(MIRU 2012) 예고집(2012)

\r\n

S.Ando, A.Suzuki and H.Koike,“Measuring Degree of Attention to Ads by Appearance-based Face Pose Estimation”,이미지의 인식이해 심포지엄 (MIRU 2008)예고집, pp.1664-1665 (2008)

\r\n

A.Schulz and R.Stiefelhagen,“Video-based pedestrian head pose estimation for risk assessment”,2012 15th International IEEE Conference on Intelligent Transportation Systems, pp.1771-1776, IEEE (Sept 2012)

\r\n

N.Robertson and I.Reid, “Estimating gaze direction from low-resolution faes in video”,Computer Vision ­ ECCV 2006, Vol.3952, pp.402-415 (2006)

\r\n

T.Ojala, M.Pietikainen, and D.Harwood, “A comparative study of texture measures with classification based on featured distributions”,Pattern Recognition, Vol.29, No.1, pp.51-59 (1996)

\r\n

N.Dalal and B.Triggs,“Histograms of Oriented Gradients for Human Detection”,Computer Vision and Pattern Recognition, 2005, CVPR 2005, IEEE Computer Society Conference on, Vol.1, pp.886-893, IEEE (2005)

\r\n

K.Crammer, M.Dredze, and A.Kulesza,“Multi-class confidence weighted algorithms”,EMNLP ’09 Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing, pp.496-504 (Aug 2009)

\r\n

C.-C.Chang and C.-J.Lin,“LIBSVM: A library for support vector machines”,ACM Transactions on Intelligent Systems and Technology, Vol.2, pp.27:1-27:27 (2011)

\r\n

M.a.Fischler and R.a.Elschlager,“The Representation and Matching of Pictorial Structures,” IEEE Transactions on Computers, Vol.C-22, No.1, pp.67-92 (Jan 1973)

\r\n

J.Yao and J.-M Odobez,“Multi-Layer Background Subtraction Based on Color and Texture”,Computer Vision and Pattern Recognition, 2007, CVPR ’07. IEEE Conference on, pp.1-8, IEEE (June 2007)

\r\n

F.Lv and R.Nevatia, “Single View Human Action Recognition using Key Pose Matching and Viterbi Path Searching”,Computer Vision and Pattern Recognition(CVPR), 2007 IEEE Conference on, pp.1-8, IEEE (June 2007)

\r\n


\r\n


\r\n

<사진, 글 : 원병철 기자>

\r\n


\r\n

[월간 시큐리티월드 통권 제209호(sw@infothe.com)]

\r\n


\r\n

<저작권자 : www.securityworldmag.co.kr) 무단전재-재배포금지>

\r\n


\r\n