테스트 환경 OS : Ubuntu server 18.04.1 Docker ver. : 18.06.1-cenvidia driver ver. : 396.44(10/1/2018 현재 가장 최신드라이버)테스트장비 : Tesla V100 16GB docker image로 테스트를 할 경우 아래같은 에러를 뿜어낸다. 테스트이미지 정보 : NGC & nvidia/cuda:10.0-devel-ubuntu16.04 docker: Error response from daemon: OCI runtime create failed: container_linux.go:348: starting container process caused "process_linux.go:402: container init caused \"proce..
Windows에서 TF 1.5 GPU버전 설치방법 2018/2/1자 Windows 10, TF 1.5, Anaconda3 Python3.6, CUDA 9.0, cuDNN v7.0.5에 Tensorflow GPU 설치방법 테스트환경 : AMD Ryzen 1800X, NVIDIA Titan X(p) 1. Tensorflow 1.5에서 CUDA 9.0을 요구. CUDA 9.1로 실행시 오류발생. 그래픽드라이버를 최신버전으로 따로 설치 후에 사용자설치로 CUDA 9.0만 설치권장. 2. Anaconda3으로 진행해도 무방. TF Windows 안내에 3.5 & 3.6지원이라 써있음. 3.5버전을 찾는다면 Anaconda3 4.2버전설치를 권장. https://repo.continuum.io/archive/ind..
해당 내용은 NVIDIA GPU 드라이버 설치가 잘못되어 무한로그인 오류가 발생한 경우 해결방안입니다. Ubuntu 16.04.3 LTS Desktop에는 최신 드라이버 설치를 진행해야 무한로그인 오류가 발생되지 않습니다. 이보다 우선적으로 확인해야될 부분은 BIOS에서 Secure boot이 enable이 되어있다면 disable로 변경후 확인 바랍니다 1.Ubuntu 16.04.3 LTS Desktop 설치후 작업.#=============================#패키지 목록 update#=============================sudo apt-get updatesudo apt-get upgrade -y #개발에 필요한 기본 Library와 Header 파일등 설치sudo apt-ge..
TensorRT란? =>예전에는 GPU Inference Engine이라 불리였던 Deep Learning Inference Engine. 2017년 8월 9일 현재 TensorRT 2까지 나왔고 TensorRT 3이 Volta 정식발매와 함께 출시예정.최근 TensorRT 3 Early Access Interest를 받고있음.NVIDIA developer 참조. TensorRT는 주로 P40, P4같은 Inference용 그래픽카드에서 최적화 되어있다고 말할수 있음. TensorRT 구조 크게 2가지 구조로 구성되어 있는데 하나는 TensorRT Optimizer(Training 모델 최적화) 다른 하나는 TensorRT Runtime Engine으로 주로 Inference용으로 실제 적용하려는 제품에..
Tensorflow Serving 1.0 was release on Aug / 7 at Google I/O '17 What's TensorFlow Serving ? Tensorflow Serving은 After training engine이라고 볼수 있겠다. 쉽게 말해 inference용 engine이다. NVIDIA의 TensorRT와 같은 기능을 생각하면 될 것 같다. 장점은 portable한 inference engine이라는것이고 (다른 ML platform 적용가능) 여러가지 training모델을 하나의 프로세스에서 작동이 가능하다고 한다. trained된 model을 올렸다가 내렸다가 할수 있다는것이다. docker와 kubernete가 지원된다. Tensorflow 최적화가 잘되어있다고 한다..