GPU 为什么总是out of memory


#1

Julia运行在GPU上显卡10G, 用不到1G,总是报错,out of memory。
本人重写了VGG,然后参数是提前训练好的,每次迭代时我设置的batch=10,都有out of memory。


#2

感觉你在VGG这个问题上卡了有一个月了。。。
看来对Julia是真爱 :joy::joy::joy:

建议你到英文discourse上详细描述下运行的过程,报错信息等,方便别人debug


#3

请给出具体的报错代码。


#4

是不是有别的 tensorflow 进程占用了 GPU (譬如 jupyter notebook)?可以尝试 shell 里运行 nvidia-smi 查看是哪个进程占用了显存。


#5

解决了,谢谢。是KnetArray应该使用float64