TensorFlow2.0终于问世,Alpha版可以抢先体验。新版本主打简单易用可扩展,大大简化API,最后,连logo也改了。
今天凌晨,谷歌在加州举办TensorFlow开发者峰会(TensorFlow Dev Summit),正式发布2.0版本。
这场发布会有几大亮点:
TensorFlow 2.0Alpha版发布,用户现在可以抢先体验;
2.0版本具有简易性、更清晰、扩展性三大特征,大大简化API;
提高了TensorFlow Lite和TensorFlow.js部署模型的能力;
发布会还把TensorFlow目前的家底透露了一遍:目前TF在全球已经有超过4100万的下载次数,社区有超过1800多个贡献者。
尽管官方没有透露中国社区的情况,但是发布会现场展示一张全球地图,根据图中的用户分布情况可以推测,目前TF中国应该是仅次于美国和欧洲的第三大地区。
另外一个值得注意的变化是,从2.0开始,TensorFlow的logo也不一样,从类似积木的形状变成了两个分开的字母“T”和“F”,或许也意味着减少冗余,看上去更简洁。
简单易用可扩展,TF2.0迎来新架构
TensorFlow 已经发展为世界上最受欢迎和被广泛采用的机器学习平台之一,自2015年问世,并在去年11月迎来三周岁生日。
之前开发者反馈,希望TensorFlow能够简化API、减少冗余并改进文档和示例。这次2.0发布,听取了开发者的建议,因此新版本有以下三大特点:简单、强大、可拓展。
基于这三大特点,TensorFlow 2.0也有新架构,如下面的简化概念图所示:
TensorFlow 2.0 将专注于简单性和易用性,具有以下更新:
使用 Keras 和 eager execution,轻松构建模型
在任意平台上实现生产环境的稳健模型部署
为研究提供强大的实验工具
通过清理废弃的 API 和减少重复来简化 API
下面详细介绍TF2.0的新特性。
易用至上,TensorFlow 2.0 Alpha发布
这次TensorFlow的一些列更新,重点就在于:让你使用得更加简单。
TensorFlow 2.0发布以后,训练的流程将变得十分简洁:
主要流程就是:数据集成和转换→模型构建→训练→保存模型。
当然,TensorFlow也秉承着“哪儿都可以部署”的原则,使其在应用方面更加灵活和方便:
下面是TensorFlow2.0在这次更新中的几大亮点:
TensorFlow Alpha
更易用:诸如tf.keras等高级API将更易于使用;并且Eager execution将成为默认设置。例如:
>>>tf.add(2,3)
更清晰:删除了重复的功能;不同API的调用语法更加一致、直观;兼容性更加完善。
更灵活:提供完整的低级API;可在tf.raw_ops中访问内部操作;提供变量、checkpoint和层的可继承接口。
当然,TensorFlow 2.0 Alpha版本从安装上便十分的简单,仅需一句话:
pip install -U --pre tensorflow
而Eager execution 与 “@tf.function”作为核心升级重点,接下将会对其如何协同工作进行做详细介绍。
其中一个最明显的变化是,TensorFlow 是 “Eager 优先”,这意味着 op 在调用后会立即运行。在 TensorFlow 1.x 中,使用者可能会先构图,然后通过 “tf.Session.run()” 执行图的各个部分。
TensorFlow 2.0 从根本上简化了 TensorFlow 的使用 — 同样出色的 op,现在却更易理解和使用。
a=tf.constant([1,2])b = tf.constant([3, 4])print(a+b)# returns: tf.Tensor([4 6], shape=(2,), dtype=int32)
TensorFlow 2.0 使用 Keras 作为开发者的核心体验。在 2.0 中,可以如常使用 Keras,利用 Sequential API 构建模型,然后使用 “compile” 和 “fit”。tensorflow.org 中所有这些熟悉的 “tf.keras” 示例均可在 2.0 中实现 “开箱即用”。
Keras 的 “fit()” 适用于很多情况,但是,需要更高灵活性的开发者现在可以有更多选择。来看一下如下示例中以 TensorFlow 2.0 风格编写的自定义训练循环:
deftrain_one_step(model,optimizer,x,y):withtf.GradientTape()astape:logits=model(x)loss=compute_loss(y,logits)grads=tape.gradient(loss,model.trainable_variables)optimizer.apply_gradients(zip(grads,model.trainable_variables))compute_accuracy(y,logits)returnlossdeftrain(model,optimizer):train_ds=mnist_dataset()step=0loss=0.0forx,yintrain_ds:step+=1loss=train_one_step(model,optimizer,x,y)iftf.equal(step%10,0):tf.print('Step',step,':loss',loss,';accuracy',compute_accuracy.result())return step, loss, accuracy
此示例采用 Autograd 风格的 GradientTape,并通过优化器手动应用你的梯度。在编写具有复杂内部运作的自定义训练循环(譬如在强化学习中)或进行研究(轻松帮您落实提高优化器效率的新想法)时,这特别有帮助。
“Eager execution” 还有助于调试和监控运行中的代码,可以使用 Python 调试程序检查变量、层及梯度等对象。在训练循环中,使用 “if”、“for” 和 “print()” 等 Python 语句。
一旦代码运行正常,便会想要获得图表优化和效率。为此,可以利用装饰器 “@tf.function” 封装 “train”。“tf.function” 中内置 Autograph,因此无需任何特殊操作便可获取以用图表效率运行的 “if” 或 “for” 子句。
@tf.functiondeftrain(model,optimizer):train_ds=mnist_dataset()step=0loss=0accuracy=0forx,yintrain_ds:#如上所述,包括“if”和“print()”return step
这段代码并不会受注释影响,但会将其编译到可在 GPU、TPU 上轻松运行的图表中,或将其保存至 “SavedModel” 留待后用。
针对这对代码,尤为有趣之处在于,通过在 “@tf.function” 中封装 “train()”,“train_one_step()”、“compute_loss()” 和 “compute_accuracy()” 也会自动进行转换。也可选择在 “@tf.function” 中仅封装部分运算,从而获得所需行为。
此外,TensorFlow 2.0 完全支持 Estimator。
tensorflow.org/alpha 链接
https://www.tensorflow.org/alpha
高级API变化
TensorFlow 2.0 在API上可谓是下足了功夫,在这个版本中,高级API将十分“易于扩展”且“扩展地很容易”:
例如,对tf.keras.optimizer tf.keras.layers tf.keras.loss等一些列高级API都做了“易用性”的优化。例如:
值得注意的是,尤其是对诸如RNN layers等神经网络的高级API做了优化,用户还可以对其自定义。
可谓是开发者福音。
升级
TensorFlow 2.0 将包含许多 API 变更,例如,对参数进行重新排序、重新命名符号和更改参数的默认值。手动执行所有这些变更不仅枯燥乏味,而且容易出错。
为简化变更过程并让开发者尽可能顺畅地过渡到 TensorFlow 2.0,TensorFlow 工程团队创建了实用程序tf_upgrade_v2,可将旧代码转换至新 API。
tf_upgrade_v2 链接
https://github.com/tensorflow/docs/blob/master/site/en/r2/guide/upgrade.md
TensorFlow.js v1.0
TensorFlow for Javascript已经有300,000次下载和100个贡献者。 今天TensorFlow.js的1.0版本包括性能改进。
例如浏览器中MobileNet v1推理的9倍提升。 还有针对Web开发人员的新现成模型和更广泛的平台支持。
TensorFlow Lite:超20亿移动设备部署使用
TensorFlow Lite是一个为移动和嵌入式设备打造的轻量级、跨平台解决方案。
这样一个轻量级的解决方案很有必要,因为机器学习越来越多地转移到终端设备,如手机、汽车、可穿戴设备等。在这样的设备上使用ML有很多限制,如有限的计算能力、有限的内存、电池限制等,TensorFlow Lite可以很大程度上解决这些限制。
TensorFlow Lite的用例
一个惊人的事实:已经有20亿移动设备部署使用了TensorFlow Lite。
说明,TensorFlow Lite有很多国内外客户……
网易有道技术总监林会杰作为“为什么选择TensorFlow Lite”的代表,受邀上台介绍了有道翻译应用TensorFlow Lite取得的成果。
TensorFlow Lite四大主题:
可用性(Usability):拿来即用
性能(Performance):模型执行速度更快
优化(Optimization):让你的模型更小、更快
文档(Documentation):有很多资源
可用性:部署简单,拿来即用
保存模型,转换到TF Lite,就是这么简单。
新的TensorFlow Select功能让模型转换到TensorFlow Lite更简单。
性能:在可用的硬件条件下,让模型执行尽可能快
有多快呢?训练MobileNet v1,CPU、GPU和Edge TPU下推理速度分别提升了1.9倍、7.7倍和62倍!
优化:让模型更小、更快
优化表现:
文档:
One More Thing:
TensorFlow Lite工程师Pete Warden上台介绍了一个非常酷的“小玩意”:
是一个名为珊瑚(Coral)的小型开发板,一款可以构建和试验AI设备的硬件。
它的原理类似树莓派,但使用了定制的Google处理器,专为AI设计。没错,在这个小小的板上,你可以运行TensorFlow。
Warden展示了一个小demo:
说一个特定的单词,Coral板上黄色的小灯会应声亮起来。
模型只有20KB大小,运行使用不到100KB的RAM和80KB Flash。
谷歌表示:“Coral提供了一个完整的本地AI工具包,可以轻松地将你的想法从原型变成到产品。”
像树莓派一样,可以期待更多使用Coral开发的有趣的事情。
售价149.99美元,传送门:
https://coral.withgoogle.com/products/
-
谷歌
+关注
关注
27文章
6166浏览量
105337 -
机器学习
+关注
关注
66文章
8411浏览量
132597 -
tensorflow
+关注
关注
13文章
329浏览量
60530
原文标题:TensorFlow 2.0 新鲜出炉!新版本,新架构,新特性
文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论