졸업 전시회 준비 자료
11월 14일(목) 드디어 프로젝트 전시회가 있는 날이라 지금까지 준비해놓은 걸 준비해놨다.
우선 논문과는 다르게 전시회에서는 실제로 사람들이 눈 인식을 실시간으로 받아와야 구경하기 좋을 것 같아,
코드를 수정하여 실시간으로 노트북의 캠을 이용해 사람들이 인식하는걸 보기 쉽게 직관적으로 수정했다.
먼저 미디어 파이프를 실행했을때의 실행 화면이다. 총 468개의 랜드마크를 설정하여 얼굴에 인식이 어디에 되는지, 잘 인식되고 있는지를 자세히 볼 수 있게 수정했다.
또한, 해당 데이터 값들을 db 에 저장하여 db 출력문을 실행하면 60개의 데이터 값들이 직관적으로 출력 되게끔 코드를 만들었다.
(db 코드 실행시 해당 출력문이 나온다. 시간별로 몇개의 눈이 인식 됐는지 결과값을 확인할 수 있다.)
다음은 dlib 실행 화면이다. 미디어 파이프 와는 다르게, 6개의 랜드마크만 사용되어 눈이 인식되고, 랜드마크 개수가 현저히 적음에 따라 얼굴이 카메라와 가까이 붙어있음에도 제대로 눈이 인식되지 않는 모습을 확인할 수 있다.
실제로 우리가 적은 논문에는 이런 정확성 부분에서 현저히 dlib 라이브러리가 낮은 모습을 볼 수 있다.
(얼굴 사진중 눈의 비율이 적을수록 정확성이 현저히 낮아지는 걸 볼 수 있는 표를 작성한 논문에서 가져왔다.)
마찬가지로 dlib 도 구경하시는분이 결과를 보실 수 있도록 db 값을 출력시킬 수 있게 구현했다.
db 출력 모습.
dlib 는 타 알고리즘 과는 다르게 랜드마크의 갯수가 현저히 적다 보니, 눈을 떴는지 감았는지 정도만 인식이 가능하다.
그래서 몇개의 눈을 떴는지 감았는지는 알 수 없다. -> 실제 dlib 를 논문용 코드에 실행시켰을 때 정확성이 낮은 이유이다.