0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何进行BlueField DPU和DPDK开发应用程序

星星科技指导员 来源:NVIDIA 作者:Anuradha Karuppiah 2022-04-11 17:11 次阅读

NVIDIA BlueField DPU (数据处理器)可用于网络功能加速。这种网络卸载是可能的 DPDK 和NVIDIA DOCA 软件框架。

在本系列中,我通过应用 DPDK 和NVIDIA DOCA SDK 库构建了一个应用程序并卸载了两种方式。我将每个步骤记录为一个单独的代码补丁,并在每个系列中提供完整的步骤。这将向您展示如何编程 BlueField DPU ,以及为您独特的用例选择最优雅的选项。有关第 2 部分,请参见 使用 NVIDIA BlueField DPU 和 NVIDIA DOCA 库开发应用程序 。

用例

首先,我需要一个简单但有意义的用例来在 DPU 上部署应用程序。我选择了基于策略的路由( PBR )来根据第 3 层和第 4 层数据包属性将流量引导到不同的网关,覆盖(或补充) X86 主机选择的网关。在现实世界中,出于各种原因,可以这样做,包括以下示例:

将选定主机流量发送到外部防火墙以进行额外审核

增强了选播服务器的负载平衡

应用 QoS

图 1 。使用 PBR 将流量从主机引导到两个网关之一

我在 DPU (bf2-arm)上使用 PBR 将流量从主机(server1-x86)引导到两个网关[leaf2, leaf3]之一。叶交换机随后将流量转发给其本地连接的选播服务提供商[server2, server3]。

构建应用程序

第一个问题:我是写一个全新的应用程序,还是卸载一个现有的应用程序?

我决定卸载我最喜欢的开源路由堆栈 FRRouting ( FRR )的 PBR 功能。这使我能够扩展现有的代码库,并与现有的 sample apps 形成了很好的对比。 FRR 有一个用于多个数据平面插件的基础设施,因此 DPDK 和 DOCA 可以轻松添加为新的 FRR 插件。

图 2 。 DPDK 和 DOCA 插件可以很容易地添加到 FRP 路由中

DPU 应用程序原型

在本节中,我将介绍创建具有 DPU 硬件加速功能的应用程序所需的准备工作。

DPU 硬件

我有一个由 x86 服务器托管的 BlueField-2 DPU 。该 DPU 有两个 25G 上行链路和一个带有 8G RAM 的臂 CPU 。有关硬件安装的更多信息,请参阅 DOCA SDK 文档 。您可以使用 DPU PocKit 。

我安装了 BlueField 启动文件( BFB ),它为 DPU 提供了 Ubuntu 操作系统映像,并附带了 DOCA-1.2 和 DPDK-20.11.3 的库。

图 3 。 Netdev 代表

使用 SR-IOV ,我在主机上为两个虚拟机创建了两个虚拟函数( VF )接口

使用SR-IOV,我在主机上为两个虚拟机创建了两个虚拟函数( VF )接口。

root@server1-x86:~# echo 2 > /sys/class/net/ens3f0/device/sriov_numvfs

主机物理和虚拟功能映射到 DPU Arm CPU 上的以下 netdevrepresentors


表 1 。主机物理和虚拟功能的映射

使用 DPDK testpmd 应用程序进行原型设计

首先,我使用 DPDK 的testpmd原型化了我的用例,它位于 DPU 的/ opt / mellanox /目录下。

对于任何 DPDK 应用程序,包括testpmd,必须设置hugepages

root@dpu-arm:~# echo 1024 > /sys/kernel/mm/hugepages/hugepages-2048kB/nr_hugepages

(可选)保留配置,使其在 DPU 重新启动后仍然有效。

root@dpu-arm:~# echo "vm.nr_hugepages = 1024" > /etc/sysctl.d/99-hugepages.conf

启动testpmd

root@dpu-arm:~# /opt/mellanox/dpdk/bin/dpdk-testpmd -- --total-num-mbufs=100000 --flow-isolate-all -i

Testpmd内存不足,默认情况下会分配很酷的 3.5G 。由于我不需要在 CPU 中处理数据流量,我分配了total-mem值 200M ,其中total-mem = total-num-mbufs * mbuf-size(默认mbuf-size为 2048 字节)。我还使用了flow-isolation,因为我必须将 ARP 数据包发送到 DPU 上的内核网络堆栈,以获得 PBR 下一跳解析)。初始化完成后,-i选项将您放入testpmd交互式 shell 。

作为testpmd完成的rte_eal初始化的一部分,mlx5_pci设备被探测并填充 DPDK 端口

testpmd> show port summary all
Number of available ports: 6
Port MAC Address Name Driver Status Link
0 04:3F:72:BF:AE:38 0000:03:00.0 mlx5_pci up 25 Gbps
1 4A:6B:00:53:79:E5 0000:03:00.0_representor_vf4294967295 mlx5_pci up 25 Gbps
2 62:A1:93:8D:68:C4 0000:03:00.0_representor_vf0 mlx5_pci up 25 Gbps
3 0A:8E:97:F5:C0:41 0000:03:00.0_representor_vf1 mlx5_pci up 25 Gbps
4 04:3F:72:BF:AE:39 0000:03:00.1 mlx5_pci up 25 Gbps
5 D2:0B:15:45:94:E8 0000:03:00.1_representor_vf4294967295 mlx5_pci up 25 Gbps
testpmd>

您在这里看到的 DPDK 端口对应于 PF / VF 代表器和两个上行链路。


表 2 。 DPDK 端口映射

流创建

接下来,通过定义入口端口、源 IP 、目标 IP 、协议和端口,将 PBR 规则设置为rte_flow。除此之外,我还定义了对匹配数据包采取的操作。源 MAC 和目标 MAC 被重写, TTL 被递减,出口端口被设置为物理上行链路p0

In-port=pf0vf0, match [SIP=172.20.0.8, DIP=172.30.0.8, IP-proto=UDP, UDP-dport=53], actions [dec-ttl, set-src-mac=p0-mac, set-dst-mac=leaf2-MAC, out-port=p0]

此 PBR 规则从VM1接收 UDP 和 DNS 流量,并将其发送到特定的 GW (leaf2, server2)。我还为流程附加了一个反操作,以便于故障排除。

testpmd> flow create 2 ingress transfer pattern eth / ipv4 src is 172.20.0.8 dst is 172.30.0.8 proto is 17 / udp dst is 53 / end actions dec_ttl / set_mac_src mac_addr 00:00:00:00:00:11 / set_mac_dst mac_addr 00:00:5e:00:01:fa / port_id id 0 / count / end
Flow rule #0 created
testpmd>

DPU 可以在DPU-switchDPU-NIC模式下工作。在这个用例中,经过几次数据包修改后,我不得不将流量从 X86 主机重定向到 25G 上行链路。所以,从概念上讲,我在 switch 或 FDB 模式中使用了它。除了使用正确的rte_flow属性(在本例中为transfer)之外,设置此模式没有其他配置。

流程验证

我从VM1发送了一些流量,看看它是否与我用testpmd流查询命令创建的流相匹配。

testpmd> flow query 2 0 count
COUNT:
hits_set: 1
bytes_set: 1
hits: 22
bytes: 2684
testpmd>

流是匹配的,在leaf2/server2上可以看到具有修改的数据包头的流量。控制的流量是 DNS ,所以为了测试流量,我从VM1发送了 DNS 请求。为了控制流量率和其他数据包字段,我使用mz生成测试流量。

ip netns exec vm1 mz ens3f0v0 -a 00:de:ad:be:ef:01 -b 00:de:ad:be:ef:02 -A 172.20.0.8 -B 172.30.0.8 -t udp "sp=25018, dp=53" -p 80 -c 0 -d 1s

另一个健全性检查是查看此流是否真的被卸载。有两种方法可以做到这一点:

  • 在 Arm CPU 上使用tcpdump以确保内核不接收此数据包流。
  • 检查硬件 eSwitch 是否已使用流量编程。

mlx_steering_dump允许您查看硬件编程流程。使用git下载并安装该工具。

root@dpu-arm:~# git clone https://github.com/Mellanox/mlx_steering_dump

使用mlx_steering_dump_parser.py脚本验证硬件中编程的流程。

root@dpu-arm:~# ./mlx_steering_dump/mlx_steering_dump_parser.py -p `pidof dpdk-testpmd` -f /tmp/dpdkDump 
domain 0xbeb3302, table 0xaaab23e69c00, matcher 0xaaab23f013d0, rule 0xaaab23f02650 
 match: outer_l3_type: 0x1, outer_ip_dst_addr: 172.30.0.8, outer_l4_type: 0x2, metadata_reg_c_0: 0x00030000, outer_l4_dport: 0x0035, outer_ip_src_addr: 172.20.0.8 
 action: MODIFY_HDR, rewrite index 0x0 & VPORT, num 0xffff & CTR(hits(154), bytes(18788)),

此命令转储 testpmd 应用程序编程的所有流。我们可以看到我们设置的外部 IP 头匹配–[SIP = 172.20.0.8 , DIP = 172.30.0.8 , IP proto = UDP , UDP dport = 53]。流量计数器作为转储的一部分被读取和清除。

原型设计,应用程序设计思维过程的最后一步现在已经完成。我现在知道我可以在 DPDK 中建立一个 PBR 规则,它安装在硬件中,并对我们的数据包采取行动。现在在下一节中添加 DPDK 数据平面。

构建 DPDK 数据平面插件

在本节中,我将通过向 Zebra 添加一个 DPDK 数据平面插件,介绍 DPU 上 PBR 硬件加速的步骤。我将这些步骤分解为单独的代码提交,整个补丁集以reference的形式提供。

图 4 。基于策略的路由 DPDK 卸载工作流

开发环境

由于目标体系结构是 DPU Arm ,因此可以直接在 Arm CPU 上构建、在 X86 CPU 上交叉编译或在云中构建。在这篇文章中,我直接在 DPU Arm CPU 上进行编码和构建。

以 root 用户身份运行应用程序

FRR 通常作为非 root 用户运行。 FRR 可以下载和上传整个互联网路由表;这可能会出什么问题?然而,几乎所有的 DPDK 应用程序都是以 root 用户的身份运行的, DPDK 库和驱动程序也开始期待这一点。

经过多次实验,我无法让 FRR 作为非 root 用户工作,并使用 root 用户选项重新编译它。这是可以接受的,因为我在一个安全的空间,即 DPU Arm CPU 中运行 FRR 。

向 Zebra 添加新插件

Zebra 是 FRR 中的一个守护进程,负责整合路由协议守护进程的更新并构建转发表。 Zebra 还有一个基础设施,可以将这些转发表推送到像 Linux 内核这样的数据平面。

将 DPDK 共享库链接到 zebra

FRR 有自己的构建系统,限制直接导入外部 make 文件。由于 pkg-config 的简单优雅,将相关库链接到 Zebra 很容易。

我找到了libdpdk.pc并将其添加到PKG_CONFIG_PATH值中:

root@dpu-arm:~# find /opt/mellanox/ -name libdpdk.pc
/opt/mellanox/dpdk/lib/aarch64-linux-gnu/pkgconfig/libdpdk.pc
root@dpu-arm:~# export PKG_CONFIG_PATH=$PKG_CONFIG_PATH:/opt/mellanox/dpdk/lib/aarch64-linux-gnu/pkgconfig

Pkg-config为您提供了以下抽象:

  • libs– 提供 DPDK 共享库的列表。
  • cflags– 提供 DPDK 头文件的位置。
root@dpu-arm:~# pkg-config --libs libdpdk
-L/opt/mellanox/dpdk/lib/aarch64-linux-gnu -Wl,--as-needed -lrte_node -lrte_graph -lrte_bpf -lrte_flow_classify -lrte_pipeline -lrte_table -lrte_port -lrte_fib -lrte_ipsec -lrte_vhost -lrte_stack -lrte_security -lrte_sched -lrte_reorder -lrte_rib -lrte_regexdev -lrte_rawdev -lrte_pdump -lrte_power -lrte_member -lrte_lpm -lrte_latencystats -lrte_kni -lrte_jobstats -lrte_gso -lrte_gro -lrte_eventdev -lrte_efd -lrte_distributor -lrte_cryptodev -lrte_compressdev -lrte_cfgfile -lrte_bitratestats -lrte_bbdev -lrte_acl -lrte_timer -lrte_metrics -lrte_cmdline -lrte_pci -lrte_ethdev -lrte_meter -lrte_ip_frag -lrte_net -lrte_mbuf -lrte_mempool -lrte_hash -lrte_rcu -lrte_ring -lrte_eal -lrte_telemetry -lrte_kvargs -lbsd
root@dpu-arm:~# root@dpu-arm:~# pkg-config --cflags libdpdk
-include rte_config.h -mcpu=cortex-a72 -I/opt/mellanox/dpdk/include/dpdk -I/opt/mellanox/dpdk/include/dpdk/../aarch64-linux-gnu/dpdk -I/opt/mellanox/dpdk/include/dpdk -I/usr/include/libnl3
root@dpu-arm:~#

我在 FRR makefile (configure.ac)中为 DPDK 添加了pkg check-and-define宏。

if test "$enable_dp_dpdk" = "yes"; then
 PKG_CHECK_MODULES([DPDK], [libdpdk], [
 AC_DEFINE([HAVE_DPDK], [1], [Enable DPDK backend])
 DPDK=true
 ], [
 AC_MSG_ERROR([configuration specifies --enable-dp-dpdk but DPDK libs were not found])
 ])
fi

我将 DPDKlibscflags抽象包含在zebra-dp-dpdk make宏(zebra/subdir.am)中。

zebra_zebra_dplane_dpdk_la_LIBADD = $(DPDK_LIBS)
zebra_zebra_dplane_dpdk_la_CFLAGS = $(DPDK_CFLAGS)

有了这些,我就有了构建插件所需的所有标题和库。

初始化硬件

第一步是初始化硬件。

char*argv[] = {"/usr/lib/frr/zebra", "--"};

rc = rte_eal_init(sizeof(argv) / sizeof(argv[0]), argv);

这将探测 PCIe 设备并填充 DPDKrte_eth_dev数据库。

初始化端口

接下来,我设置硬件端口。

设置应用程序的端口映射

FRR 有自己的基于 Linuxnetdevs表的接口(端口)表,该表使用 NetLink 更新填充,并使用ifIndex键入。 PBR 规则锚定到此表中的接口。要编程 PBR 数据平面条目,需要一个 LinuxifIndex和 DPDKport-id值之间的映射表。netdev信息已经在 DPDK 驱动程序中可用,可以通过rte_eth_dev_info_get查询。

struct rte_eth_dev_info *dev_info

RTE_ETH_FOREACH_DEV(port_id) { 
 /* dev_info->if_index is used for setting up the dpdk port_id<=>if_index mapping table 
 * in zebra */ 
 rte_eth_dev_info_get(port_id, dev_info); 
}

配置硬件端口

此外,所有端口都需要置于流隔离模式并启动。

rte_flow_isolate(port_id, 1, &error);

流隔离将流未命中数据包发送到内核网络堆栈,允许它处理 ARP 请求之类的事情。

rte_eth_dev_start(port_id);

使用 rte _流 API 编程 PBR 规则

PBR 规则现在需要编程为rte_flow列表。下面是一个示例规则:

In-port=pf0vf0, match [SIP=172.20.0.8, DIP=172.30.0.8, IP-proto=UDP, UDP-dport=53], actions [set-src-mac=p0-mac, set-dst-mac=leaf2-MAC, dec-ttl, out-port=p0]

这些参数通过rte_flow_attributesrte_flow_item (match)rte_flow_action数据结构填充。

流属性

此数据结构用于指示 PBR 流用于分组重定向或transfer flow

static struct rte_flow_attr attrs = {.ingress = 1, .transfer = 1};

流匹配项

DPDK 为数据包头中的每一层使用{key, mask}匹配结构:以太网、 IP 、 UDP 等。

struct rte_flow_item_eth eth, eth_mask;
struct rte_flow_item_ipv4 ip, ip_mask;
struct rte_flow_item_udp udp, udp_mask;

填充这些数据结构需要大量重复的代码。

流动作

DPDK 为每个操作使用单独的数据结构,然后允许您在创建流时以可变长度数组的形式提供所有操作。有关行动如下:

struct rte_flow_action_set_mac conf_smac, conf_dmac;
struct rte_flow_action_port_id conf_port;
struct rte_flow_action_count conf_count;

填充这些数据结构同样只是机械的。

流验证和创建

或者,您可以验证rte_flow_attrrte_flow_itemrte_flow_action列表。

rc = rte_flow_validate(port_id, &attrs, items, actions, &error);

流验证通常用于检查底层 DPDK 驱动程序是否支持特定的流配置。流验证是一个可选步骤,在最后的代码中,您可以直接跳转到流创建。

flow_ptr = rte_flow_create(port_id, &attrs, items, actions, &error);

Rte_flow命令被锚定到传入端口。可以创建流条目组并将其链接。即使流条目不是链中的第一个,也不是 0 组中的第一个,它仍然必须锚定到传入端口。group-0存在性能限制。

流量插入率在group-0中受到限制。要绕过该限制,您可以在group-0中安装一个默认流,以“跳转到group-1”,然后在group-1中编程应用程序的转向流。

流删除

流创建 API 返回一个流指针,该指针必须被缓存以进行后续的流删除。

rc = rte_flow_destroy(port_id, flow_ptr, &error);

FRR-PBR 守护进程管理状态机以解析和添加或删除 PBR 流。因此,我不必使用 DPDK 本机函数使它们老化。

流量统计

在创建流时,我将计数操作附加到流。可用于查询流量统计信息和点击率。

struct rte_flow_query_count query; rte_flow_query(port_id, flow_ptr, actions, &query, &error);

为了便于测试和验证,我将该统计显示插入了 FRR 的vtyshCLI 。

测试应用程序

我以 root 用户的身份启动了 FRR ,并通过/etc/frr/daemons文件启用了新添加的 DPDK 插件:

zebra_options= " -M dplane_dpdk -A 127.0.0.1"

DPDK-port映射表的 FRR 接口已填充:

root@dpu-arm:~# systemctl restart frr
root@dpu-arm:~# vtysh -c "show dplane dpdk port"
Port Device IfName IfIndex sw,domain,port
0 0000:03:00.0 p0 4 0000:03:00.0,0,65535
1 0000:03:00.0 pf0hpf 6 0000:03:00.0,0,4095
2 0000:03:00.0 pf0vf0 15 0000:03:00.0,0,4096
3 0000:03:00.0 pf0vf1 16 0000:03:00.0,0,4097
4 0000:03:00.1 p1 5 0000:03:00.1,1,65535
5 0000:03:00.1 pf1hpf 7 0000:03:00.1,1,20479
root@dpu-arm:~#

接下来,我将 PBR 规则配置为匹配来自 VM1 的 DNS 流量,并使用frr.conf将其重定向到 leaf2 。

!
interface pf0vf0
pbr-policy test
!
pbr-map test seq 1
match src-ip 172.20.0.8/32
match dst-ip 172.30.0.8/32
match dst-port 53
match ip-protocol udp
set nexthop 192.168.20.250
!

我将 DNS 查询从 VM1 发送到 anycast DNS 服务器。

root@dpu-arm:~# vtysh -c "show dplane dpdk pbr flows"
Rules if pf0vf0
 Seq 1 pri 300
 SRC IP Match 172.20.0.8/32
 DST IP Match 172.30.0.8/32
 DST Port Match 53
 Tableid: 10000
 Action: nh: 192.168.20.250 intf: p0
 Action: mac: 00:00:5e:00:01:fa
 DPDK: installed 0x40
 DPDK stats: packets 14 bytes 1708
root@dpu-arm:~#

匹配流,并使用修改后的数据包头将流量转发到目的地leaf2/server2。这可以通过连接到流的计数器和使用mlx_steering_dump的硬件转储进行验证。

root@dpu-arm:~# ./mlx_steering_dump/mlx_steering_dump_parser.py -p `pidof zebra` -f /tmp/dpdkDump
domain 0x32744e02, table 0xaaab07849cf0, matcher 0xffff20011010, rule 0xffff20012420
 match: outer_l3_type: 0x1, outer_ip_dst_addr: 172.30.0.8, outer_l4_type: 0x2, metadata_reg_c_0: 0x00030000, outer_l4_dport: 0x0035, outer_ip_src_addr: 172.20.0.8
 action: MODIFY_HDR(hdr(dec_ip4_ttl,smac=04:3f:72:bf:ae:38,dmac=00:00:5e:00:01:fa)), rewrite index 0x0 & VPORT, num 0xffff & CTR(hits(33), bytes(4026)), index 0x806200

FRR 现在有一个功能齐全的 DPDK 数据平面插件,可以在 DPU 硬件上卸载 PBR 规则。

总结

这篇文章回顾了使用 DPDK rte _流库在 BlueField 上硬件加速 PBR 规则的 FRR 数据平面插件的创建。在下一篇文章中,我将带您了解FRR DOCA 数据平面插件并向您展示如何使用新的 DOCA 流库卸载 PBR 规则。

关于作者

Anuradha Karuppiah 是 NVIDIA 网络的首席软件工程师。 Anuradha 使用 FRR (自由范围路由软件套件)设计和实现 EVPN 解决方案。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19274

    浏览量

    229734
  • 服务器
    +关注

    关注

    12

    文章

    9139

    浏览量

    85377
  • 虚拟机
    +关注

    关注

    1

    文章

    914

    浏览量

    28173
收藏 人收藏

    评论

    相关推荐

    SSM框架在Java开发中的应用 如何使用SSM进行web开发

    (full-stack)的应用程序框架,它提供了全面的基础设施建设支持,能够帮助开发者构建出企业级的应用程序。Spring的核心是控制反转(I
    的头像 发表于 12-16 17:28 451次阅读

    android手机上emulate应用程序的方法

    在Android手机上模拟(emulate)应用程序的方法通常涉及到使用Android模拟器(Emulator)或类似的工具来模拟Android环境,以便在没有实际物理设备的情况下运行和测试应用程序
    的头像 发表于 12-05 15:33 253次阅读

    AWTK-WEB 快速入门(2) - JS 应用程序

    导读AWTK可以使用相同的技术栈开发各种平台的应用程序。有时我们需要使用Web界面与设备进行交互,本文介绍一下如何使用JS语言开发AWTK-WEB
    的头像 发表于 12-05 01:04 100次阅读
    AWTK-WEB 快速入门(2) - JS <b class='flag-5'>应用程序</b>

    AWTK-WEB 快速入门(1) - C 语言应用程序

    导读AWTK可以使用相同的技术栈开发各种平台的应用程序。有时我们需要使用Web界面与设备进行交互,本文介绍一下如何使用C语言开发AWTK-WEB应用
    的头像 发表于 11-27 11:46 197次阅读
    AWTK-WEB 快速入门(1) - C 语言<b class='flag-5'>应用程序</b>

    在TM4C MCU上用FreeRTOS开发通用应用程序应用说明

    电子发烧友网站提供《在TM4C MCU上用FreeRTOS开发通用应用程序应用说明.pdf》资料免费下载
    发表于 09-11 14:15 0次下载
    在TM4C MCU上用FreeRTOS<b class='flag-5'>开发</b>通用<b class='flag-5'>应用程序</b>应用说明

    何进行电源供应设计

    电子发烧友网站提供《如何进行电源供应设计.pdf》资料免费下载
    发表于 09-09 10:33 0次下载
    如<b class='flag-5'>何进行</b>电源供应设计

    IaaS+on+DPU(IoD)+下一代高性能算力底座技术白皮书

    ,在其上挂载了各种计算、存储资源的节点,对于系统的资源弹性、运行效率、性能都大有益处。但是这种使用方式的变化,需要对现有云计算架构进行一定程度的变革,才能充分发挥出 DPU的优势。云计算中的头部企业
    发表于 07-24 15:32

    NVIDIA BlueField-3 DPU助力思科提高工作负载安全性和运营效率

    、位置和外形尺寸的应用程序工作负载。 思科最近发布了Cisco Secure Workload 3.9 版,将企业的安全性和运营效率提升到了新的水平。它提供了新的功能来缓解威胁和漏洞,并为部署微分段(microsegmentation)提供了更大的灵活性。它现在还扩展到NVIDIA
    的头像 发表于 06-27 17:31 765次阅读

    借助NVIDIA DOCA 2.7增强AI 云数据中心和NVIDIA Spectrum-X

    NVIDIA DOCA 加速框架为开发者提供了丰富的库、驱动和 API,以便为 NVIDIA BlueField DPU 和 SuperNIC 创建高性能的应用程序和服务。
    的头像 发表于 05-29 09:22 487次阅读

    下载了ModusToolbox 3.1.0并成功添加了CYBT0243053的模板应用程序,如何使用USB串口线进行调试?

    我下载了 Modus Toolbox 3.1.0 并成功添加了 CYBT0243053 的模板应用程序。 但我在调试模板代码时遇到了错误。 我正在使用 USB 串口线进行调试。 我该如何进行调试
    发表于 05-20 08:19

    何进行RF PA Ruggedness的测试和评估呢?

    关于PA ruggedness设计测试问题,先介绍一下原理,如何进行ruggedness的测试和评估。
    的头像 发表于 03-27 10:19 2397次阅读
    如<b class='flag-5'>何进行</b>RF PA Ruggedness的测试和评估呢?

    关于DPDK的一些常见问题

    对于单核多CPU部署,一个CPU分配给操作系统,另一个分配给基于DPDK应用程序。对于多核部署,无论是否使用超线程,都可以为每个端口分配多个内核。
    的头像 发表于 03-05 11:44 835次阅读
    关于<b class='flag-5'>DPDK</b>的一些常见问题

    基于NVIDIA DOCA 2.6实现高性能和安全的AI云设计

    网络平台上快速创建应用程序和服务,并启用 NVIDIA BlueField DPU 和 NVIDIA BlueField SuperNIC 的强大功能,提供突破性的网络、安全和存储性
    的头像 发表于 02-23 10:02 471次阅读

    请问如何使用ModusToolbox™估计应用程序使用的堆栈和堆空间量?

    我正在使用 PSoC63 进行 ModusToolbox™ 开发。 运行我的应用程序时,MTB上是否有任何方法可以确定或估计我的应用程序将使用的最大堆栈和堆大小? 谢谢。
    发表于 01-18 08:04

    如何构建linux开发环境和编译软件工程、应用程序

    前文介绍了如何使用官方提供的镜像文件启动开发板,本文将说明如何构建linux开发环境和编译软件工程、应用程序
    的头像 发表于 01-03 12:31 2045次阅读
    如何构建linux<b class='flag-5'>开发</b>环境和编译软件工程、<b class='flag-5'>应用程序</b>