반응형
RuntimeError: CUDA out of memory. Tried to allocate 192.00 MiB (GPU 0; 15.90 GiB total capacity; 14.92 GiB already allocated; 3.75 MiB free; 15.02 GiB reserved in total by PyTorch)
이런 에러가 발생하는 이유는 batch size가 너무 크거나, 코드 상에서 메모리 누수가 발생했기 때문이라고 한다.
batch size 크기를 줄여가면서 gpu 캐시를 비워주는 아래 코드를 실행해보니 해결이 되었다.
import gc
import torch
gc.collect()
torch.cuda.empty_cache()
반응형
'IT기술 관련 > A.I 인공지능' 카테고리의 다른 글
인공지능이 바꾸는 미래의 삶 (0) | 2023.04.20 |
---|---|
[AI] Web-UI 확장 기능 설치시 오류나는 경우 해결 방법 (0) | 2023.03.23 |
AI 이미지 생성 사이트 정리 (0) | 2023.03.20 |
Best 10 AI 이미지 제작 사이트 (0) | 2023.03.20 |
[Python NumPy] 행렬의 행과 열 바꾸기, 축 바꾸기, 전치행렬 : a.T, np.transpose(a), np.swapaxes(a,0,1) (0) | 2021.09.09 |