深度学习框架
# GPU
GPU是图形处理单元,它是专门设计用来加速图像和视频渲染的处理器.
随着计算机图形技术的发展,实时 3D 图形的渲染需求逐渐增多,传统的CPU(中央处理器)难以高效处理这些繁重的计算任务.
GPU 的出现大大缓解了这一负担,通过其独特的架构将大量的图形处理操作从 CPU 中剥离出来, 从而极大地提升了系统的图形处理能力.
在深度学习领域, GPU的作用主要体现在以下几个方面:
- 并行计算能力
GPU拥有大量的处理单元, 它们能够同时处理数千个线程, 这使得它在执行大规模矩阵运算和向量计算时具有显著优势. - 高内存带宽.
GPU使用高速显存, 提供比CPU内存更高的带宽, 这对于深度学习中频繁的数据读写操作至关重要. - 优化的架构.
GPU的架构专为数据并行和任务并行设计, 适合执行大量相同类型的简单计算任务, 如深度学习中的矩阵乘法和卷积运算.
CUDA与GPU的关系.
CUDA是NVIDIA开发的并行计算平台和编程模型, 它允许开发者编写能够在GPU上运行的并行程序.
GPU提供了并行计算的硬件基础, 而CUDA提供了软件层面的支持, 使得开发者能够充分利用GPU的强大计算能力.
# pytorch安装
在深度学习初始阶段, 每个深度学习研究者都需要写大量的重复代码.
为了提高工作效率, 这些研究者就将这些代码写成了一个框架放到网上让所有研究者一起使用, pytorch框架就是其中一种.PyTorch支持在GPU上运行, 能够大大加速深度学习模型的训练和推理过程.
世上流行的深度学习框架: TensorFlow
、PyTorch
、Keras
、Caffe2
、MXNet
、Theano
、CNTK
我的电脑是m2芯片.. 所以在Anaconda中, 只需要安装pytorch就行, 一条命令搞定..
conda install pytorch::pytorch torchvision torchaudio -c pytorch
(来自官网 https://pytorch.org/
)
若是windows, inter系列 就需要安装cuda. cuda简单理解就是高效的管理GPU的那些核..
也许你会想cpu也有多核呀, 但与GPU的相比, 那就是小巫见大巫了..
输入以下命令进行测试, 若都返回true, 那恭喜您安装成功..
import torch
import math
print(torch.backends.mps.is_available()) # True
print(torch.backends.mps.is_built()) # True
2
3
4
若在后续的代码中 想使用gpu来跑程序
device = torch.device("mps" if torch.backends.mps.is_available() else "cpu")
# 阿里天池
https://tianchi.aliyun.com/notebook-ai/
首页-天池学习-天池notebook.
登陆实名认证后, 可以白嫖GPU资源.. 但是GPU是共享型的, 别人在用的话, 你就用不了. emmm.
阿里天池里 环境依赖啥的都是默认安装好了的. 无需手动安装Pytorch和CUDA..
import torch
print(torch.__version__)
print(torch.version.cuda)
print(torch.cuda.is_available()) # 输出为True,则安装成功
2
3
4
5