1. 3D-convolutional-speaker-recognition
"Text-Independent Speaker Verification Using 3D Convolutional Neural Networks" 연구 참조
- TensorFlow를 사용하여 개발된 코드
- 입력 PipeLine은 사용자에의해 준비되어야 한다.
- 이 프로젝트는 Speaker Verification 구현을 위해 제공
General View
본 프로젝트는 Speaker Model을 만들기 위해서 3D-Convolutional 구조를 활용했다.
Speaker Verification Protocol (SVP)
3D-CNN 구조는 3개의 Phases에서 텍스트 독립적인 화자 입증을 이용하기 위해 사용 되었다.
1. At the development Phase, CNN은 발화 레벨에서 사용자를 명확해 하기위해 훈련되었다.
2. In the enrollment stage, 교육퇸 망은 추출퇸 특징에 기반한 서로 화자를 위한 발화모델을
직접 생성되기 위해 이용되나.
3. In the Evalutaion phayse, 테스트 발화로부터 추출된 특징은 저장된 화자 모델과 비교되어
분류 된다.
위에 언급한 세가지는 보통 SV 프로토콜에서 주로 고려되어진다. 이 중에 가장 도전적인 요소는 Speaker Model을 만드는 것이다. 기록된 내용은 Speaker의 발화 내용으로 부터 특징을 추출된 내용을 평균화된 정보를 기반하여 생성된다. 이는 D-Vector System으로 알려져 있다.
3D Convolutional Neurla Networks를 활용하는 방법
본 Project에선 Development와 Enrollment Phase를 만드는 Direct Speaker Model 생성한다.
* 계속 D-Vector 시스템이 무엇인지 알아야 뒤의 섦영이 이해가 될 것 같아서... 공부하고 돌아오자..
'Dev > 보이스피싱 방지 프로젝트' 카테고리의 다른 글
i-Vector 와 d-Vector 비교 (0) | 2019.08.15 |
---|---|
화자인식(Speaker Recognition) 기술 및 관련 연구 (0) | 2019.08.15 |
[화자인식] Speaker Recognition 기술 정리 (0) | 2019.08.08 |
[AWS-1] 기본 사용법 (0) | 2019.08.07 |