현재 애플 리케이션을 개발 중이며, 필요한 경우 음성만으로 앱을 제어 할 수 있어야합니다. 분명히 안드로이드에서 오는 음성 인식 코드 사본을 얻었고 앱에서이 코드를 사용하려고했습니다. 코드 자체는 매우 간단하지만 일부 부분을 이해하고 앱에 구현하는 데 도움이 필요합니다. 나는 안드로이드 장치에서 응용 프로그램을 실행하고 내가 연설을 사용할 때 나는 아마도 내가 말한 문구의 목록을 얻는다. 나는 설정하고 활동을 할 수 있기를 원합니다. 결과 중 하나가 "가까운 앱"인 경우, 예를 들어 앱을 닫을 수 있습니다. 음성 인식기의 결과에 대한 if 문을 사용하여이 문제를 해결할 수 있다고 생각했습니다. 결과 == 가까운 응용 프로그램과 같은 경우와 같은 활동을 닫습니다. 이 코드는 정확히 어떻게 코딩해야할지 모르겠으므로 설정이 필요하지 않지만 일부 사용자는 아이디어가 필요하다고 생각했습니다. 이것은안드로이드 애플 리케이션에 이클립스에 대한 음성 인식을 이해하고 구현하기
package com.example.com.proto1;
import android.app.Activity;
import android.content.Intent;
import android.content.pm.PackageManager;
import android.content.pm.ResolveInfo;
import android.os.Bundle;
import android.speech.RecognizerIntent;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.ArrayAdapter;
import android.widget.Button;
import android.widget.ListView;
import java.util.ArrayList;
import java.util.List;
/**
* Sample code that invokes the speech recognition intent API.
*/
public class VoiceRecognition extends Activity implements OnClickListener {
private static final int VOICE_RECOGNITION_REQUEST_CODE = 1234;
private ListView mList;
/**
* Called with the activity is first created.
*/
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
// Inflate our UI from its XML layout description.
setContentView(R.layout.voice_recognition);
// Get display items for later interaction
Button speakButton = (Button) findViewById(R.id.btn_speak);
mList = (ListView) findViewById(R.id.list);
// Check to see if a recognition activity is present
PackageManager pm = getPackageManager();
List<ResolveInfo> activities = pm.queryIntentActivities(
new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH), 0);
if (activities.size() != 0) {
speakButton.setOnClickListener(this);
} else {
speakButton.setEnabled(false);
speakButton.setText("Recognizer not present");
}
}
/**
* Handle the click on the start recognition button.
*/
public void onClick(View v) {
if (v.getId() == R.id.btn_speak) {
startVoiceRecognitionActivity();
}
}
/**
* Fire an intent to start the speech recognition activity.
*/
private void startVoiceRecognitionActivity() {
Intent intent = new Intent(RecognizerIntent.ACTION_RECOGNIZE_SPEECH);
intent.putExtra(RecognizerIntent.EXTRA_LANGUAGE_MODEL,
RecognizerIntent.LANGUAGE_MODEL_FREE_FORM);
intent.putExtra(RecognizerIntent.EXTRA_PROMPT, "Speech recognition demo");
startActivityForResult(intent, VOICE_RECOGNITION_REQUEST_CODE);
}
/**
* Handle the results from the recognition activity.
*/
@Override
protected void onActivityResult(int requestCode, int resultCode, Intent data) {
if (requestCode == VOICE_RECOGNITION_REQUEST_CODE && resultCode == RESULT_OK) {
// Fill the list view with the strings the recognizer thought it could have heard
ArrayList<String> matches = data.getStringArrayListExtra(
RecognizerIntent.EXTRA_RESULTS);
mList.setAdapter(new ArrayAdapter<String>(this, android.R.layout.simple_list_item_1,
matches));
}
super.onActivityResult(requestCode, resultCode, data);
}
}
덕분에, 그것은 위대한 –