0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

比Colab更方便的GPU平台-GPUlab

工程师邓生 来源:易心Microbit编程 作者:易心Microbit编程 2022-09-08 16:24 次阅读

GPUlab是一个提供付费GPU的平台,其接口源自JupyterLab(一种升级版的Jupyternotebook),因此可透过网页接口提供完整的Python IDE接口,除了基本的Notebook,也有terminal、console可用,因此使用起来比起Colab更为方便。

产品是由一家位于美国加州的Deasil Works公司所提供,主要业务提供AI、Data science等方面的技术咨询。

计费方式

45890192-2f4d-11ed-ba43-dac502259ad0.png

目前提供三种plan,但主要在于购买周期的差异,硬件及执行环境完全相同。三种计费周期为日、周、月,信用卡付款,期限到自动扣款续约。

提供的GPU执行环境

比较值得关心的是GPU执行环境及配置:

1.GPU硬件:Tesla K80 x1,11MB

2.CUDA 10.02

3.Ubuntu 18.04

4.Tensorflow 2.3

5.PyTorch 1.8

6.无法sudo (无root权限)

7.可使用terminal或jupyternotebook来执行程序,或管理/安装移除相关套件。

8.Storage空间无论任何方案皆为25GB。

9.环境及档案可持久保持,不像Colab,Kaggle在超过时数后便自动清空。

Tesla K80其实是由两个K40核心所组成一片24GB的K80,在环境中看到的是两片各为12GB的GPU,由于其架构较老旧,速度在TF1.6测试下仅达GTX 1080一半(参考下图)。

45afaaae-2f4d-11ed-ba43-dac502259ad0.png

硬件规格与GTX 1080比较如下:

45d28678-2f4d-11ed-ba43-dac502259ad0.jpg

(https://www.reddit.com/r/deeplearning/comments/5mc7s6/performance_difference_between_nvidia_k80_and_gtx/)

K80已是八-九年前的产品,使用的framework为Kepler(GTX 1080为差了两代的Pascal,3080以后系列为差了五代的Ampere),从Nvidia的规划(https://zh.wikipedia.org/wiki/CUDA)来看,Kepler只支持到CUDA 10.2,不支持最新的CUDA11.0之后版本。但测试结果,安装了CUDA 11.0之后,还是能在GPUlab的K80 GPU执行训练,这部份请参考后续说明。

GPUlab的使用接口

注册账号,选择要购买的方案种类,使用信用卡缴费后,便会自动设定好环境马上便能使用。

45ed1fec-2f4d-11ed-ba43-dac502259ad0.png

GPUlab environment的界面

45fb55ee-2f4d-11ed-ba43-dac502259ad0.png

点选Notebook中的Python3,会于目前目录(可从左侧窗口的档案总管切换)新建一个notebook。

462c4348-2f4d-11ed-ba43-dac502259ad0.png

点选Console中的Bash,会进入一个可下方命令栏输入bash command的窗口。

464c6be6-2f4d-11ed-ba43-dac502259ad0.png

点选Others中的Terminal,出现一个类似putty接口的终端窗口。

466e82d0-2f4d-11ed-ba43-dac502259ad0.png

输入nvidia-smi

468a8c82-2f4d-11ed-ba43-dac502259ad0.png

输入ls -la /usr/local/cuda,发现CUDA版本是10.1

46b6f448-2f4d-11ed-ba43-dac502259ad0.png

升级CUDA为最新版的11.03

如果想要使用较新的Tensorflow 2.5,那么必须要升级CUDA到最新版本11.X才行,不过目前GPUlab仅支持10.3,官方解释要等到下一版(约在2021年七月底或八月左右)才有支持。如果打算自己安装升级,会发现GPUlab并没有开放sudo root权限,想要升级到11.X版似乎有些困难。

但其实,CUDA/CUDNN安装也可以用户模式来安装,不一定需要root权限。

下载CUDA 11.4

URL//developer.nvidia.com/cuda-downloads?target_os=Linux&target_arch=x86_64&Distribution=Ubuntu&target_version=18.04&target_type=runfile_local

$ wgethttps://developer.download.nvidia.com/compute/cuda/11.4.0/local_installers/cuda_11.4.0_470.42.01_linux.run

安装CUDA 11.4

$ chmod755 cuda_11.4.0_470.42.01_linux.run

# ./cuda_11.4.0_470.42.01_linux.run

安装时取消Nvidia driver的安装,并修改安装路径到个人家目录下。(例如:/home/jovyan/cuda-11.4)

安装结束后,于相同路径下新增soft link cuda指向cuda-11.4。

加入path到.bash_profile

exportCUDA_HOME=/home/jovyan/cuda

使用pip升级tensorflwo-gpu及pytorch

pipinstall -U tensorflow-gpu torch torchvision torchaudio

将下方三行加到~/.bash_profile

exportLD_LIBRARY_PATH=/home/jovyan/cuda/lib64:/home/jovyan/cuda/extras/CUPTI/lib64/:${LD_LIBRARY_PATH}

exportLIBRARY_PATH=${LIBRARY_PATH}:/home/jovyan/cuda/lib64:/home/jovyan/extras/CUPTI/lib64:/home/jovyan/cuda/targets/x86_64-linux/lib

从NVidia下载解压CUDNN,并将档案复制到 ~/cuda相对应路径下。

测试

开启一个terminal,import tensorflow,确认可使用11.x版的CUDA。

46cb1dec-2f4d-11ed-ba43-dac502259ad0.png

Ps. 此方法仅对于terminal环境有效,在Jupyternotebook环境可在一开始就先执行:

!source ~/.bash_profile

46e6ebee-2f4d-11ed-ba43-dac502259ad0.png

之后,PyTorch便能使用到新版CUDA了,但Tensorflow还不行。

心得

优点:

1.以每月不到三百元的价格,能使用不限时数11GBRAM的GPU,且已预先装好所有可用的模块,感觉相当划算。

2.若您仅需Jupyter Notebook接口进行基本的模型测试及训练,GPUlab所提供的环境已足敷使用。

3.可同时从不同PC登入portal(看到相同执行画面),亦可同时执行数个程序,只要Disk space及GPU usage没有超过用量。

4.从GPUlab环境存取internet的速度快,例如,从Kaggle透过API下载dataset比在自己PC快相当多。

5.提供的Terminal接口与Notebook搭配使用相当方便。

缺点:

1.提供的K80 GPU速度不是很令人满意,以训练一个参数为600,612的Keras UNet模型来说,在最新GTX 3080 GPU每epochs约117 s,K80则需要383 s,两者差距了三倍之多。

2.提供的Disk space仅有25GB,一次无法放置太多数量的dataset。

3.无sudo的root权限,因此,无法自行控制或修改更多的环境配置。

4.预载的CUDA仅支持到10.3,虽可自行升级到CUDA11.X,但会占用到disk quota(约8G)。

5.环境未安装libopencv-dev套件,且也无法透过sudoapt-get install libopencv-dev 自行安装,这使得训练YOLO的Darknetframe在编译时若enableOpenCV,会产生error。




审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    4701

    浏览量

    128705
  • IDE接口
    +关注

    关注

    0

    文章

    14

    浏览量

    13287
  • python
    +关注

    关注

    56

    文章

    4782

    浏览量

    84453

原文标题:比Colab/Kaggle更方便的GPU平台-GPUlab

文章出处:【微信号:易心Microbit编程,微信公众号:易心Microbit编程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    PyTorch GPU 加速训练模型方法

    的基本原理 GPU(图形处理单元)最初是为图形渲染设计的,但随着技术的发展,人们发现GPU在并行计算方面有着天然的优势。GPU拥有成千上万个核心,可以同时处理大量数据,这使得它在进行矩阵运算和并行计算时
    的头像 发表于 11-05 17:43 446次阅读

    软银升级人工智能计算平台,安装4000颗英伟达Hopper GPU

    软银公司宣布,其正在扩展的日本顶级人工智能计算平台已安装了约4000颗英伟达Hopper GPU。这一举措显著提升了平台的计算能力。据悉,该平台自2023年9月开始运行,最初配备了大约
    的头像 发表于 11-04 16:18 378次阅读

    GPU加速计算平台是什么

    GPU加速计算平台,简而言之,是利用图形处理器(GPU)的强大并行计算能力来加速科学计算、数据分析、机器学习等复杂计算任务的软硬件结合系统。
    的头像 发表于 10-25 09:23 213次阅读

    GPU算力租用平台怎么样

    GPU算力租用平台以其成本效益、灵活性与可扩展性、简化运维以及即时访问等优势,在深度学习、科学计算、图形渲染等多个领域发挥着重要作用。
    的头像 发表于 10-17 10:03 165次阅读

    GPU算力租用平台是什么

    GPU算力租用平台是一种基于云计算的服务模式,它允许用户通过互联网按需租用高性能GPU资源,而无需自行购买、部署和维护这些硬件。
    的头像 发表于 10-16 10:15 166次阅读

    ALINX FPGA+GPU异架构视频图像处理开发平台介绍

    Alinx 最新发布的新品 Z19-M 是一款创新的 FPGA+GPU 异构架构视频图像处理开发平台,它结合了 AMD Zynq UltraScale+ MPSoC(FPGA)与 NVIDIA Jetson Orin NX(GPU
    的头像 发表于 08-29 14:43 980次阅读

    暴涨预警!NVIDIA GPU供应大跳水

    gpu
    jf_02331860
    发布于 :2024年07月26日 09:41:42

    新手小白怎么学GPU云服务器跑深度学习?

    新手小白想用GPU云服务器跑深度学习应该怎么做? 用个人主机通常pytorch可以跑但是LexNet,AlexNet可能就直接就跑不动,如何实现经济便捷的实现GPU云服务器深度学习?
    发表于 06-11 17:09

    CPU渲染和GPU渲染优劣分析

    使用计算机进行渲染时,有两种流行的系统:基于中央处理单元(CPU)或基于图形处理单元(GPU)。CPU渲染利用计算机的CPU来执行场景并将其渲染到接近完美。这也是执行渲染的传统方式。然而,随着
    的头像 发表于 05-23 08:27 533次阅读
    CPU渲染和<b class='flag-5'>GPU</b>渲染优劣分析

    国产GPU搭配国产处理器平台主机

    处理器gpu
    GITSTAR 集特工控
    发布于 :2024年03月27日 14:11:32

    FPGA在深度学习应用中或将取代GPU

    现场可编程门阵列 (FPGA) 解决了 GPU 在运行深度学习模型时面临的许多问题 在过去的十年里,人工智能的再一次兴起使显卡行业受益匪浅。英伟达 (Nvidia) 和 AMD 等公司的股价也大幅
    发表于 03-21 15:19

    英伟达和AMD的GPU降价大战拉开

    现在是前几个月更好的购买高端GPU的时机。
    的头像 发表于 02-25 13:41 932次阅读
    英伟达和AMD的<b class='flag-5'>GPU</b>降价大战拉开

    详解GPU硬件架构及运行机制

    为什么我们总说GPUCPU要强大,既然GPU强大,为什么不能取代CPU呢?
    的头像 发表于 01-26 09:23 2152次阅读
    详解<b class='flag-5'>GPU</b>硬件架构及运行机制

    为什么GPUCPU更快?

    GPUCPU更快的原因并行处理能力:GPU可以同时处理多个任务和数据,而CPU通常只能一次处理一项任务。这是因为GPU的架构使得它可以同时处理多个核心,从而实现高效的并行计算,这是
    的头像 发表于 01-26 08:30 2242次阅读
    为什么<b class='flag-5'>GPU</b><b class='flag-5'>比</b>CPU更快?

    CPU和GPU之间的主要区别

    的任务。GPU的指令有限,只能执行与图形相关的任务。它通常可以执行任何类型的任务,包括图形,但不是以非常优化的方式。虽然GPU的唯一目的是CPU更快地处理图像和3
    的头像 发表于 12-14 08:28 760次阅读
    CPU和<b class='flag-5'>GPU</b>之间的主要区别