🤖AI/MLOps (1) 썸네일형 리스트형 [MLOps] Triton Inference Server triton-inference-server/server github의 tutoritals/Conceptual_Guide 참고- config.pbtxt: model configuration-InferenceServerClient 객체를 사용할 때는 하나의 스레드에서만 사용해야 하며, 여러 스레드에서 동시에 접근하거나 호출하는 것을 피해야 한다.만약 여러 스레드에서 서버와 통신해야 한다면, 각 스레드마다 별도의 InferenceServerClient 객체를 생성해서 사용하는 것이 안전- model_control_mode- strict_model_config모델 버저닝폴더를 추가함으로써 모델 버저닝이 가능하다.model_repository/├── text_detection│ ├── 1│ │ └── .. 이전 1 다음