暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

你也能用 Tesla K80 来进行深度学习

左手代码 2018-02-02
1562

英伟达的 Tesla 系列 GPU,是专门用在服务器或者数据中心进行严格计算与深度学习的芯片。“从能源探测到深度学习等应用场合,数据科学家和研究者可以处理千兆字节级别的数据,且处理速度比使用传统 CPU 快了一个数量级”。这是官方给出的一段介绍,所以应该可以理解这一系列的 GPU 有多么强大,但是价格也是非常不菲,Tesla K80 官方售价是 2599 美元,对于个人来说只能望洋兴叹了。不过,借助于 Google 的 Colaboratory(简称:Colab) 项目,你也能用上这样高大上的 GPU 来进行深度学习。

 

准备

Colab 的所有服务都是用 Google Driver 来储存数据的,所以我们首先在 Google 的云端硬盘上新建一个文件夹,用来存储深度学习会用到的一系列文件,文件夹的名字随意。进入文件夹后右键新建一个 Colaboratory 支持的文件:

 

设置 Tesla GPU

新建好文件后双击选择使用 Colaboratory 打开,不过在使用 Colab 的时候,默认是不启用 GPU 的,所以我们要设置一下:

  1. 菜单栏 --> 修改 --> 笔记本设置 --> 硬件加速器 GPU

然后你就能用上高大上的 Tesla K80 GPU 了。

 

Hello World

我们先来通过 TensorFlow 的官方文档运行一个简单的 HelloWorld:

  1. import tensorflow as tf

  2. hello = tf.constant('Hello, TensorFlow!')

  3. sess = tf.Session()

  4. print(sess.run(hello))

点击代码左边的运行按钮,你应该可以看到 HelloWorld。

 

简单的 MNIST CNN

我们来用 MNIST 数据集训练一个简单的卷积神经网络,Colab 默认只能通过输入代码来运行,但是 Web 编辑有诸多不便之处,上文也说到了我们可以用 Google Driver 来储存文件,不过首先要执行一段授权代码 (代码太长,公众号后台发送 colab-auth 获取),然后会让你打开一个授权的 URL,打开之后把一串授权码复制粘贴进来即可,如图:

授权完了之后就可以创建文件夹,并且安装 Keras:

  1. !mkdir -p drive

  2. !google-drive-ocamlfuse drive

  3. !pip install -q keras

然后我们就可以把 mnist_cnn.py 文件上传到 Google Driver 中并且运行:

  1. !python3 drive/app/mnist_cnn.py

运行结果:

 

用上 Tesla K80 了吗?

我们来确认一下是否用上了高大上的 Tesla,先来看看是否用到了 GPU:

  1. import tensorflow as tf

  2. tf.test.gpu_device_name()


可以看到用上了 GPU,那么是什么型号呢?

  1. from tensorflow.python.client import device_lib

  2. device_lib.list_local_devices()


那么,有了这么高大上的 GPU 是不是也得有个得力的 IDE 来助阵呢?公众号后台发送 jetbrains,你懂的。

开始玩吧~

文章转载自左手代码,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论