저는 멍청한 반응을 보였습니다. VNCoreMLRequest에 여러 CoreML 모델이 어떻게 생겼는지 정말로 모르겠습니다. 아래 코드는 하나의 모델 만 사용하고 있지만 다른 모델 (아래 예제에서는 visionModel2)을 추가하고 싶습니다. 누구든지 나를 도울 수 있습니까? 고맙습니다!다중 VNCoreMLModel 추가 ARKit 및 CoreML
private func performVisionRequest(pixelBuffer: CVPixelBuffer){
let visionModel = try! VNCoreMLModel(for: self.iFaceModel.model)
let visionModel2 = try! VNCoreMLModel(for: self.ageModel.model)
let request = VNCoreMLRequest(model: visionModel){ request, error in
if error != nil {
return
}
guard let observations = request.results else {
return
}
let observation = observations.first as! VNClassificationObservation
print("Name \(observation.identifier) and confidence is \(observation.confidence)")
DispatchQueue.main.async {
if observation.confidence.isLess(than: 0.04) {
self.displayPredictions(text: "Not recognized")
print("Hidden")
}else {
self.displayPredictions(text: observation.identifier)
}
}
}