[Hỏi] Cách chạy 2 models trên 2 gpus riêng biệt

deep-learning
gpu

#1

Chào cả nhà, Hiện tại máy của tôi có 1 card GPU. Khi chạy 2 DL models song song trên cùng 1 GPU này thì tốc độ của mỗi model đều giảm, có lúc freeze 1 lúc rồi mới chạy tiếp. Tôi muốn lắp thêm 1 GPU nữa để chạy mỗi model trên 1 GPU riêng biệt. Cho tôi hỏi làm như vậy có khả thi không? Liệu có giải quyết được vấn đề mà tôi gặp phải không? Và khi chạy DL model thì làm sao để chỉ định GPU nào cho model nào? Cảm ơn cả nhà.


#2
import tensorflow as tf
import os

os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2'
os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"  # see issue #152
os.environ["CUDA_VISIBLE_DEVICES"] = "1" #số thứ tự GPU sử dụng

gpu_opt = tf.GPUOptions(per_process_gpu_memory_fraction=1)
config = tf.ConfigProto(log_device_placement=False, gpu_options=gpu_opt,
                    intra_op_parallelism_threads=1,
                    inter_op_parallelism_threads=1)
session = tf.Session(config=config)