Julia能否高效调用两块不同型号的GPU?

本机(惠普z4工作站)原装有一块GPU(NVIDIA Quadro P5000),日常用Julia CUDA做相场模拟,也会跑一些LAMMPS。现在准备加装一块GPU,但已买不到P5000,只能装NVIDIA Quadro RTX 5000。请问用Julia同时调用这两块GPU是否会有冲突?能否高效发挥两块GPU的性能?

取决于你的应用场景吧,如果只是单纯异步的运行,是完全没问题的,不过如果涉及到多卡之间的通信,就不好说了…

核心计算部分主要涉及一个大矩阵的傅里叶和反傅里叶变换,之前一块显卡显存不够,再加一块应该差不多。这种情况下不同型号的两张卡会不会影响效率?

没这么搞过,看看其它人有没有经验了…

没有现成的手段,需要进行手动的任务拆分,分配到不同显卡,然后再合起来

https://cuda.juliagpu.org/dev/usage/multigpu/#Scenario-2:-Multiple-GPUs-per-process

多谢指点。
现在打算直接买两块Quadro RTX 5000换上去,型号保持一致,请问是不是就能解决问题了?

不是,多显卡联合计算这件事情都是需要在实现的时候进行类似的通讯操作的。短期来看不存在直接能用的函数。