北京译图智讯是一家 OCR 识别软件厂商,致力于为客户构建一站式 OCR 识别解决方案,专注于计算机视觉、图像识别、深度学习等 AI 技术的研发,助力企业实现数字化转型,降本增效。
图像处理和 OCR 识别是运算密集型技术,对算力要求较高,借助于NVIDIA A100 Tensor Core GPU及A10 Tensor Core GPU,译图智讯构建了更加高效的硬件训练平台,缩短了 OCR 模型训练、预测的处理周期,进一步提升了 OCR 识别速度与精度。
OCR 过程包括图像分类、目标检测、图像分割、OCR 识别、NLP 提取等模型训练任务,其中每一个模型都需要对大量样本进行标注训练,所需数据量庞大且复杂,整个建模过程对服务器算力、GPU 显存都提出了更高的要求。
译图智讯以往训练服务器采用的是 CPU + NVIDIA T4 GPU 多卡的硬件方案,其运行速度远远跟不上复杂模型建设的需求,实际运算性能大打折扣。NVIDIA A100 及 A10 GPU 配备了具有更高精度的第三代 Tensor Core 核心,可实现成千上万个 GPU 集群的高效扩展。A10 相较于 T4,可提供高达 2.5 倍的虚拟工作站性能及推理性能,结合 A100 跨工作负载的高强计算力,相比上一个平台,译图智讯实现了最高 20 倍的 AI 性能,以及 3 倍的 AI 训练速度,可快速完成数据建模。
借助 NVIDIA A100,满足了需要更大显存的训练任务。以 OCR 文本识别训练为例,需要对数千万的图像数据进行训练,采用基于 T4 构建的服务器时,训练周期需要 7 天,依托 A100,训练周期可缩减至 3-4 天,极大地提升了模型和产品的迭代周期;同样在模型预测阶段,以调用频次最高的身份证识别为例,在以 T4 构建的服务器中,OCR 识别一次需要 300ms,1 秒钟可识别 3 张身份证,依托 NVIDIA A100 服务器,每一次可以缩短至 100-200ms 左右,1 秒钟可识别 5-6 张身份证,单位时间处理时间显著降低,并发能力增加,给产品研发速度带来质的提速。
通过 NVIDIA A100 及 A10 强大的算力服务器支持,能够并行运行多个计算机视觉算法架构,在节省运行显存开销的同时,带来了更快的神经网络训练及推理效率,显著加速了 OCR 识别中对图像数据处理的时间。
译图智讯产品总监刘伟表示“模型训练在 NVIDIA GPU 上的运行速度更快,极大优化了图像处理流程,使研发人员能够更高效地投身到图像标注、训练、分析、文字识别的过程中。随着 OCR 识别技术的应用越来越广泛,译图智讯将更高效地利用 AI,借助NVIDIA GPU AI计算平台,提升 OCR 识别的速度与精度,使 OCR 在各个场景都达到毫秒级的运行速度,专注更智能、高效、安全稳定的 OCR 整体识别解决方案,助力 OCR 识别技术创新,加速社会信息化进程。”
本案例中,NVIDIA 优选级合作伙伴北京安联通助力译图智讯部署了高效 AI 计算处理平台,同时帮助译图网络数据中心的设备进行升级改造,部分网络设备换成全新的 NVIDIA 网络产品,使网络传输速度比原来的提高数 10 倍,给客户体验感更好,识别速度更快。
-
NVIDIA
+关注
关注
14文章
4930浏览量
102794 -
gpu
+关注
关注
28文章
4700浏览量
128679 -
OCR
+关注
关注
0文章
144浏览量
16323
原文标题:NVIDIA GPU 显著提速 OCR 识别模型训练
文章出处:【微信号:NVIDIA-Enterprise,微信公众号:NVIDIA英伟达企业解决方案】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论