네부캠 프로젝트 기획 내용 중 Speech Framework를 사용한 음성인식 기능을 활용하는 Feature가 있어, 공부하고자 한다.
Speech | Apple Developer Documentation
애플 공식문서에서의 정의는 아래와 같다.
실시간 또는 녹음된 오디오에 대한 음성 인식을 수행하고, 결과에 대한 필사본 / 대체 해석 / 신뢰 수준을 받는다.
우선적으로 이해되는 내용은
아! 실시간 녹음을 하거나 / 기존 녹음된 오디오로 음성 인식을 할 수 있도록 도와주는 프레임워크구나! 였다.
여러 언어를 지원하지만, 각 SFSpeechRecognizer
객체는 하나의 언어만 처리할 수 있음.
// 한국어
let koreanSpeechRecognizer = SFSpeechRecognizer(locale: Locale(identifier: "ko-KR"))
// 영어
let englishSpeechRecognizer = SFSpeechRecognizer(locale: Locale(identifier: "eu-US"))
일부 언어는 기기 내 음성 인식 지원.
대부분 애플 서버를 통한 음성 인식 처리를 진행하므로 음성 인식을 하려면 네트워크 연결이 필요하다고 항상 가정.
→ 그런데 데모앱에서는 네트워크 연결없이도 되는데 정확한 기준에 대해 알아볼 필요성이 있을 거 같음.
[영어, 한국어는 연결 없이도 가능]