MXNet使用GPU计算

发布时间:2024-11-26 10:47

利用GPU并行计算加速深度学习训练 #生活技巧# #学习技巧# #深度学习技巧#

最新推荐文章于 2023-10-05 01:56:45 发布

Fronzy 于 2019-09-30 20:34:14 发布

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。

GPU上的存储

在MXNet中,mx.cpu()代表所有的物理CPU和内存,而mx.gpu()只代表一块GPU和相应的显存。(cpu对应内存,gpu对应显存)

可以通过NDArray的context属性来查看该NDArray所在的设备。

x.context

我们可以通过多种方法创建NDArray到GPU的显存上。

a = nd.array([1,2,3], ctx=mx.gpu())

B = nd.random.uniform(shape=(2, 3), ctx=mx.gpu(1))

通过copyto函数和as_in_context函数在设备之间传输数据

y = x.copyto(mx.gpu())

z = x.as_in_context(mx.gpu())

需要注意的是,如果x和y在同一个设备上,as_in_context函数不会开辟新内存,而是让目标变量共享原变量的内存或或者显存

而copyto函数总是为目标变量开辟新的内存或者显存。

网址:MXNet使用GPU计算 https://www.yuejiaxmz.com/news/view/278970

相关内容

GPU加速深度学习
gpu压力测试工具
手写数字识别之多GPU训练
异构计算=未来?一文带你秒懂3大主流异构
大规模神经网络最新文献综述:训练高效DNN、节省内存使用、优化器设计
3DMark使用技巧
第三章UI视图——七、离屏渲染==属于GPU的优化部分
pytorch中的model=model.to(device)使用说明
Kubernetes pod cpu 使用率计算方法 HPA
目标检测算法: 对Faster RCNN论文的理解与实践

随便看看