1

IBM Watson Services를 사용하여 SPEECH을 입력으로 사용하여 IBM Watson Speech to Text API에서 TEXT로 변환 한 다음 텍스트를 IBM Watson Conversation API로 보내고 TEXT로 결과를 제공하는 응용 프로그램을 빌드하려고합니다. 이제 Conversation API에서받은 최신 TEXT가 SPEECH API로 전송되어 원하는 출력 인 SPEECH을 반환합니다. Short에서는 입력이 SPEECH이고 출력도 SPEECH이어야합니다.IBM Watson Speech to Speech API가 있습니까?

이 전체 프로세스는 5-6 단계로 완료되며 출력 수신도 지연됩니다.

IBM Watson에서 이러한 단계를 단축 할 수있는 방법이 있습니까?

더 명확하게하기 위해,

https://developer.ibm.com/answers/questions/334561/is-there-any-ibm-watson-speech-to-speech-api.html

+1

대답은 "아니오"입니다. –

+0

안녕하세요 ... 답장을 보내 주셔서 감사합니다. 그래서 5 ~ 6 단계로해야한다는 말인가요? –

+0

@ R.Sehdev 완전히 철저한 질문이지만 watson (맞춤 모델과 통합 됨)의 Speech To Text 서비스는 실제로 아시아 대륙 악센트를 이해합니까? 맞춤 모델을 사용해 보았을 때 음성의 90 % 이상을 이해하지 못했습니다. –

답변

0

https://speech-to-speech-app.mybluemix.net/에서 봐 여기 이미지를 참조하시기 바랍니다. 당신은 3 개 왓슨 서비스를 결합하는 방법을 볼 수 있습니다 :

  • 음성 - 투 - 텍스트를
  • 기계 번역
  • 텍스트 음성

소스 코드 (Node.js를)이 가능합니다 https://github.com/leonrch/SpeechToSpeech.

+0

댓글 !! 그러나 다시 3-4 단계 과정. 더 많은 시간과 효율성을 소비합니다. –

관련 문제