반응형
개발환경을 구축했으면 이제 프로그램을 GPU에서 돌려볼 수 있습니다. 설치가 모두 제대로 되었는지 확인해봅시다.
import torch
print(torch.cuda.is_available())
제대로 설치가 됐다면 True가 뜹니다.
import torch
CUDA_AVAILABLE = torch.cuda.is_available()
DEVICE = torch.device("cuda" if CUDA_AVAILABLE else "cpu")
'''모델 선언'''
model = ModelExample().to(DEVICE)
이렇게 삼항연산자를 사용해서 DEVICE를 정의해주면 CUDA 사용이 가능한 환경에서는 DEVICE는 GPU로, 아닐 경우 CPU를 의미합니다. 모델을 선언할 때 .to(DEVICE)를 달아줍니다.
받아오는 데이터들은
data = data.to(DEVICE)
등으로 한번 더 처리를 해줘야합니다.
반응형
'Deep Learning' 카테고리의 다른 글
[딥러닝] 인공신경망(ANN), MNIST 데이터 셋 분류 (2) | 2021.02.26 |
---|---|
[딥러닝] 파이토치 개발환경 구축 (8) | 2021.01.27 |
[딥러닝] 퍼셉트론이란 (0) | 2021.01.15 |
[딥러닝] 공부 입문기, 행렬 개념 (8) | 2021.01.14 |
댓글