2016-10-28 2 views
2

샘플 데이터로 Google Speech API를 교육하여 응용 프로그램에서 인식 할 수 있습니까?Google Speech API의 올바른 인식 결과

나는 wit.ai에서 제공하는 것과 같은 접근 방식을 사용하고 있으며 here을 설명했습니다 (예제가 nlp 처리에도 적용되지만). 기본적으로 사용자가 봇과 상호 작용할 것을 예측할 수 있다면 더 잘 수행하도록 훈련시킬 수 있습니다. 예를 들어, 내가 사용하는 도시의 하위 집합을 알고 있습니다. 예를 들어, 로봇이 Zurich라고 말할 때 나를 이해할 수없는 것처럼 보일 때, Syria 또는 Siberia이됩니다. 그러나 나는 그것이 가능하지 않다는 것을 이미 알고 있습니다. 우선, 선호하는 단어의 목록을 먼저 업로드 한 다음 일치하는 것이없는 경우 표준 인식이나 비슷한 방식으로 대체하면 더 나은 결과를 얻을 수 있다고 생각합니다.

만약 가능하다면 어떤 생각이 드나요? 나는 그 API가 베타 단계에 있으며 변경 될 수 있음을 알고 있지만 여전히 시도해보고 싶습니다.

내가 현재하고있는 코드 샘플을 업로드 할 수 있습니다. 다만 오디오를 보내고 결과를 분석하는 것이기 때문에이 문제에 너무 가깝지는 않습니다.

답변

1

recognition config에서 maxAlternatives 필드 (최대 30 자)를 반환하도록 대안을 지정할 수 있습니다. 30 가지 대안이 있다면 자신감이 Syria0.5, 신뢰도가 0.01Siberia 및 신뢰도가 0.1Zurich이됩니다. 정상에 있지 않을 수도 있지만 일반적으로 적절한 대답이 제시됩니다. 현재 상태에 따라 가장 적합한 대안을 선택할 수 있습니다.

+0

부작용이 아니며 부수적 인 프로젝트이며 atm에 작업 할 시간이 없습니다. 그러나 내가 다시 돌아올 때 답변이 도움이되는지 알려 드리겠습니다. (나는 이미 자신감을 느꼈으 며, 하지만 여러 옵션에서 간과했을 수 있습니다, 나는 그 중 하나가 확실하지 않은 인상을 가졌다) – ThanksForAllTheFish

관련 문제