0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用NVIDIA Merlin库构建基于会话的建议

星星科技指导员 来源:NVIDIA 作者:NVIDIA 2022-08-15 16:33 次阅读

推荐系统可以帮助您发现新产品并做出明智的决策。然而,在许多依赖于推荐的领域,如电子商务、新闻和流媒体服务,用户可能无法跟踪,或者根据当时的需求,用户的口味可能会迅速变化。

基于会话的推荐系统是顺序推荐的一个子领域,最近很受欢迎,因为它们可以在任何给定的时间点根据用户的情况和偏好推荐项目。在这些领域中,捕捉用户对项目的短期或上下文偏好很有帮助。

在本文中,我们将介绍基于会话的推荐任务,该任务由 NVIDIA Merlin 平台的 Transformers4Rec 库支持。然后,我们展示了使用 Transformers4Rec 在几行代码中创建基于会话的推荐模型是多么容易,最后,我们展示了使用 NVIDIA Merlin 库的端到端基于会话的推荐管道。

Transformers4Rec 库功能

NVIDIA Merlin 团队于 ACM RecSys’21 发布,通过利用最先进的 Transformers 体系结构,为顺序和基于会话的推荐任务设计并公开了 NVIDIA Merlin Transformers4Rec 库。该库可由研究人员扩展,对从业者来说很简单,在工业部署中又快速又可靠。

它利用了 拥抱面( HF )变压器 库中的 SOTA NLP 体系结构,可以在 RecSys 域中快速试验许多不同的 transformer 体系结构和预训练方法。

Transformers4Rec 还帮助数据科学家、行业从业者和院士构建推荐系统,该系统可以利用同一会话中过去用户交互的短序列,然后动态建议用户可能感兴趣的下一个项目。

以下是 Transformers4Rec 库的一些亮点:

灵活性和效率: 构建块模块化,与 vanilla PyTorc h 模块和 TF Keras 层兼容。您可以创建自定义体系结构,例如,使用多个塔、多个头/任务和损耗。 Transformers4Rec 支持多个输入功能,并提供可配置的构建块,这些构建块可以轻松组合用于定制体系结构。

与集成 HuggingFace Transformers : 使用最前沿的 NLP 研究,并为 RecSys 社区提供最先进的 transformer 体系结构,用于顺序和基于会话的推荐任务。

支持多种输入功能: Transformers4Rec 支持使用任何类型的顺序表格数据的高频变压器。

与无缝集成 NVTabular 用于预处理和特征工程。

Production-ready: 导出经过培训的模型以用于 NVIDIA Triton 推理服务器 在单个管道中进行在线特征预处理和模型推理。

开发您自己的基于会话的推荐模型

只需几行代码,就可以基于 SOTA transformer 体系结构构建基于会话的模型。下面的示例显示了如何将强大的 XLNet transformer 体系结构用于下一个项目预测任务。

正如您可能注意到的,使用 PyTorch 和 TensorFlow 构建基于会话的模型的代码非常相似,只有几个不同之处。下面的代码示例使用 Transformers4Rec API 使用 PyTorch 和 TensorFlow 构建基于 XLNET 的推荐模型:

#from transformers4rec import torch as tr
from transformers4rec import tf as tr
from merlin_standard_lib import Schema schema = Schema().from_proto_text("")
max_sequence_length, d_model = 20, 320
# Define input module to process tabular input-features and to prepare masked inputs
input_module = tr.TabularSequenceFeatures.from_schema( schema, max_sequence_length=max_sequence_length, continuous_projection=64, aggregation="concat", d_output=d_model, masking="clm",
) # Define Next item prediction-task prediction_task = tr.NextItemPredictionTask(hf_format=True,weight_tying=True) # Define the config of the XLNet architecture
transformer_config = tr.XLNetConfig.build( d_model=d_model, n_head=8, n_layer=2,total_seq_length=max_sequence_length
)

# Get the PyT model 
model = transformer_config.to_torch_model(input_module, prediction_task)
# Get the TF model 
#model = transformer_config.to_tf_model(input_module, prediction_task)

为了证明该库的实用性和 transformer 体系结构在用户会话的下一次点击预测中的适用性, NVIDIA Merlin 团队使用 Transformers4Rec 赢得了两次基于会话的推荐比赛:

2021 WSDM WebTour 研讨会挑战赛 通过预订。 com ( NVIDIA solution )

Coveo 2021 SIGIR 电子商务研讨会数据挑战赛 ( NVIDIA solution )

使用 NVIDIA Merlin 构建端到端、基于会话的推荐管道的步骤

图 3 显示了使用 NVIDIA Merlin Transformers4Rec 的基于会话的推荐管道的端到端管道。

图 3 :基于端到端会话的推荐管道

NVTabular 是一个用于表格数据的功能工程和预处理库,旨在快速、轻松地操作用于培训大规模推荐系统的 TB 级数据集。它提供了一个高级抽象,以简化代码,并使用 RAPIDS cuDF library。

NVTabular 支持深度学习 (DL) 模型所需的不同特征工程转换,例如分类编码和数值特征归一化。它还支持特征工程和生成顺序特征。有关支持的功能的更多信息,请参见此处。

在下面的代码示例中,您可以很容易地看到如何创建一个 NVTabular 预处理工作流,以便在会话级别对交互进行分组,并按时间对交互进行排序。最后,您将获得一个已处理的数据集,其中每一行表示一个用户会话以及该会话的相应顺序特征。

import nvtabular as nvt
# Define Groupby Operator
features = ['session_id', 'item_id', 'timestamp', 'category']
groupby_features = features >> nvt.ops.Groupby( groupby_cols=["session_id"], sort_cols=["timestamp"], aggs={ 'item_id': ["list", "count"], 'category': ["list"], 'timestamp': ["first"], }, name_sep="-") # create dataset object
dataset = nvt.Dataset(interactions_df)
workflow = nvt.Workflow(groupby_features)
# Apply the preprocessing workflow on the dataset sessions_gdf = workflow.transform(dataset).compute()

使用 Triton 推理服务器 简化人工智能模型在生产中的大规模部署。 Triton 推理服务器使您能够部署和服务您的模型进行推理。它支持许多不同的机器学习框架,例如 TensorFlow 和 Pytork 。

机器学习( ML )管道的最后一步是将 ETL 工作流和经过训练的模型部署到产品中进行推理。在生产设置中,您希望像在培训( ETL )期间那样转换输入数据。例如,在使用 ML / DL 模型进行预测之前,应该对连续特征使用相同的规范化统计信息,并使用相同的映射将类别编码为连续 ID 。

幸运的是, NVIDIA Merlin 框架有一个集成机制,可以将预处理工作流(用 NVTABLAR 建模)和 PyTorch 或 TensorFlow 模型作为 NVIDIA Triton 推理的集成模型进行部署。集成模型保证对原始输入应用相同的转换。

下面的代码示例展示了使用 NVIDIA Merlin 推理 API 函数创建集成配置文件,然后将模型提供给 TIS 是多么容易。

import tritonhttpclient
import nvtabular as nvt workflow = nvt.Workflow.load("") from nvtabular.inference.triton import export_tensorflow_ensemble as export_ensemble
#from nvtabular.inference.triton import export_pytorch_ensemble as export_ensemble
export_ensemble( model, workflow, name="", model_path="", label_columns=["

只需几行代码,就可以为 NVIDIA PyTorch 推理服务器提供 NVTabular 工作流、经过培训的 Triton 或 TensorFlow 模型以及集成模型,以便执行端到端的模型部署。 使用 NVIDIA Merlin 推理 API ,您可以将原始数据集作为请求(查询)发送到服务器,然后从服务器获取预测结果。

本质上, NVIDIA Merlin 推理 API 使用 NVIDIA Triton ensembling 特性创建模型管道。 NVIDIA Triton ensemble 表示一个或多个模型的管道以及这些模型之间输入和输出张量的连接。

结论

在这篇文章中,我们向您介绍了 NVIDIA Merlin Transformers4Rec ,这是一个用于顺序和基于会话的推荐任务的库,它与 NVIDIA NVTabular 和 NVIDIA Triton 推理服务器无缝集成,为此类任务构建端到端的 ML 管道。

关于作者

Ronay Ak 是 NVIDIA RAPIDS 团队的数据科学家。

GabrielMoreira 是 NVIDIA ( NVIDIA ) Merlin 团队的高级研究员,致力于推荐系统的深度学习,这是他的博士学位的重点。他曾担任首席数据科学家和软件工程师多年。

审核编辑:郭婷


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4862

    浏览量

    102755
  • API
    API
    +关注

    关注

    2

    文章

    1481

    浏览量

    61776
收藏 人收藏

    评论

    相关推荐

    常用PCB天线,天线布局,天线选型建议和天线匹配初始值建议

    2.4G板载天线-封装-封装-布局指导-天线选型建议-匹配电路推荐
    发表于 10-17 17:02 2次下载

    使用NVIDIA JetPack 6.0和YOLOv8构建智能交通应用

    本文将介绍如何使用 NVIDIA JetPack 6.0 中的全新 Jetson 平台服务,来构建一个适用于边缘的端到端交通分析解决方案。该系统集成了多个功能:使用视频存储工具包 (VST) 服务
    的头像 发表于 08-23 16:49 403次阅读
    使用<b class='flag-5'>NVIDIA</b> JetPack 6.0和YOLOv8<b class='flag-5'>构建</b>智能交通应用

    应用NVIDIA Spectrum-X网络构建新型主权AI云

    法国云服务提供商 Scaleway 正在基于 NVIDIA 的 Hopper GPU和 Spectrum-X 以太网网络平台 构建区域性 GPU 集群,为用户提供 AI 按需服务业
    的头像 发表于 07-26 18:58 1135次阅读

    NVIDIA Holoscan SDK中使用OpenCV构建零拷贝AI传感器处理管线

    NVIDIA Holoscan 是 NVIDIA 的跨领域多模态实时 AI 传感器处理平台,为开发者构建端到端传感器处理管线奠定了基础。
    的头像 发表于 07-02 11:50 473次阅读
    在<b class='flag-5'>NVIDIA</b> Holoscan SDK中使用OpenCV<b class='flag-5'>构建</b>零拷贝AI传感器处理管线

    NVIDIA 通过 Holoscan 为 NVIDIA IGX 提供企业软件支持

    美敦力、SETI 协会以及领先制造商正在构建 NVIDIA IGX 系统,为 AI 在工业边缘赋能。   NVIDIA 于6月2日宣布,集成NVIDIA Holoscan的
    的头像 发表于 06-04 10:21 457次阅读

    借助NVIDIA DOCA 2.7增强AI 云数据中心和NVIDIA Spectrum-X

    NVIDIA DOCA 加速框架为开发者提供了丰富的、驱动和 API,以便为 NVIDIA BlueField DPU 和 SuperNIC 创建高性能的应用程序和服务。
    的头像 发表于 05-29 09:22 453次阅读

    利用NVIDIA的nvJPEG2000分析DICOM医学影像的解码功能

    本文将深入分析 DICOM 医学影像的解码功能。AWS HealthImaging 利用 NVIDIA 的 nvJPEG2000 来实现此功能。
    的头像 发表于 05-28 14:27 695次阅读
    利用<b class='flag-5'>NVIDIA</b>的nvJPEG2000<b class='flag-5'>库</b>分析DICOM医学影像的解码功能

    NVIDIA Omniverse USD Composer能用来做什么?如何获取呢?

    NVIDIA Omniverse™ USD Composer(以前称为 Create)是 NVIDIA Omniverse™ 中用于构建虚拟世界的参考应用程序,允许用户进行组装、模拟和渲染大型场景。
    的头像 发表于 05-20 10:07 690次阅读
    <b class='flag-5'>NVIDIA</b> Omniverse USD Composer能用来做什么?如何获取呢?

    NVIDIA全面加快Meta Llama 3的推理速度

    Meta 最新开源大语言模型采用 NVIDIA 技术构建,其经过优化后可在云、数据中心、边缘和 PC 的 NVIDIA GPU 上运行。
    的头像 发表于 04-23 09:52 417次阅读

    美国Merlin公司加速自主飞行模拟器开发

    美国Merlin公司正全力加速自主飞行模拟器的开发进程,以推动航空领域的创新与发展。这一举措不仅体现了Merlin公司在技术研发方面的雄厚实力,也预示着自主飞行技术即将迎来新的突破。
    的头像 发表于 04-22 11:30 557次阅读

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将推理的稠密网络和热
    的头像 发表于 04-20 09:39 618次阅读

    使用NVIDIA Holoscan for Media构建下一代直播媒体应用

    NVIDIA Holoscan for Media 现已向所有希望在完全可重复使用的集群上构建下一代直播媒体应用的开发者开放。
    的头像 发表于 04-16 14:04 587次阅读

    NVIDIA深度参与GTC,向量数据大厂Zilliz与全球顶尖开发者共迎AI变革时刻

    近日,备受关注的 NVIDIA GTC 已拉开序幕。来自世界各地的顶尖 AI 开发者齐聚美国加州圣何塞会议中心,共同探索行业未来,全球领先的向量数据公司 Zilliz 也不例外。作为去年被
    的头像 发表于 03-26 11:01 385次阅读

    NVIDIA宣布推出基于Omniverse Cloud API构建的全新软件框架

    NVIDIA 在 GTC 大会上宣布推出基于 Omniverse Cloud API(应用编程接口)构建的全新软件框架。
    的头像 发表于 03-25 09:09 486次阅读

    NVIDIA显卡驱动下载哪个?NVIDIA显卡驱动下载方法

    关于下载哪个NVIDIA显卡驱动,建议您下载最新版本的官方驱动程序,以确保显卡性能的稳定性和最佳体验。同时,也可以根据您的电脑型号和配置,选择适合您的驱动程序版本。如果您不确定应该下载哪个版本的驱动程序,可以在NVIDIA官网上
    的头像 发表于 03-01 17:11 2511次阅读