NVIDIA今日发布全新预训练模型并宣布迁移学习工具包(TLT)3.0全面公开可用。迁移学习工具包在NVIDIA TAO平台指导工作流程以创建AI的过程中起到核心作用。新版本包括各种高精度和高性能计算机视觉和对话式AI预训练模型,以及一套强大的生产级功能,可将AI开发能力提升10倍。
随着企业竞相推出AI解决方案,企业竞争力将有赖于是否能够获得最佳开发工具。对于许多尝试使用开源AI产品创建模型进行训练的工程和研究团队来说,在生产中部署自定义、高精度、高性能AI模型可能是一段十分艰难的开发历程。NVIDIA提供高质量的预训练模型和TLT以帮助降低大规模数据采集和标注成本,同时告别从头开始训练AI/机器学习模型的负担。初入计算机视觉和语音服务市场的企业现在也可以在不具备大规模AI开发团队的情况下部署生产级AI。
新版本亮点包括:
●一个支持边缘实时推理的姿态估计模型,其推理性能比OpenPose模型快9倍。
●PeopleSemSegNet,一个用于人物检测的语义分割网络。
●各种行业用例中的计算机视觉预训练模型,如车牌检测和识别、心率监测、情绪识别、面部特征点等。
●CitriNet,一个使用各种专有特定域和开源数据集进行训练的新语音识别模型。
●一个用于问题回答的新Megatron Uncased模型以及许多其他支持语音文本转换、命名实体识别、标点符号和文本分类的预训练模型。
●AWS、GCP和Azure上的训练支持
●在用于视觉AI的NVIDIA Triton™和DeepStream SDK上以及用于对话式AI的Jarvis上的开箱即用部署。
快速入门
●从NGC下载模型:计算机视觉 | 对话式AI
●阅读最新开发者教程:用 NVIDIA 迁移学习工具包训练和优化二维姿态估计模型:第 1 部分 | 第2部分
与数据生成和标签工具集成,实现更快、更精确的AI
TLT 3.0现在还与数家领先合作伙伴的平台集成,这些合作伙伴提供大量多样化的高质量标签数据,使端到端AI/机器学习工作流程变得更快。您现在可以使用这些合作伙伴的服务来生成和注释数据、通过与TLT无缝集成进行模型训练和优化并使用DeepStream SDK或Jarvis部署模型以创建可靠的计算机视觉和对话式AI应用。
-
NVIDIA
+关注
关注
14文章
4978浏览量
102971 -
AI
+关注
关注
87文章
30698浏览量
268850 -
计算机视觉
+关注
关注
8文章
1698浏览量
45966
发布评论请先 登录
相关推荐
评论