【问题标题】:DPDK KNI sample applicationDPDK KNI 示例应用程序
【发布时间】:2015-07-03 01:00:54
【问题描述】:

我的应用程序从 NFS 客户端接收数据到 NFS 服务器(用户空间 NFS 服务器 - NFS Ganesha),一旦服务器接收到数据包,应用程序就会开始处理数据包并发送出去。

我是 DPDK 的新手,我正在分析其中的功能以了解和适应我的应用程序,从而通过避免从/向内核/用户空间复制一些数据来提高性能。

我发现 KNI 很有用,在启动 KNI 示例应用程序后,我看到了以下输出。 我还可以看到新接口 vEth0_0 和 vEth1_0。但是在分配 IP 后,我什至无法对这些接口执行 ping 操作。

$$ ./examples/kni/build/kni -n 4 -c 0xf0 -- -P -p 0x3 --config="(0,4,6,8),(1,5,7,9 )"

*Checking link status
.done
Port 0 Link Up - speed 10000 Mbps - full-duplex
Port 1 Link Up - speed 10000 Mbps - full-duplex
APP: Lcore 5 is reading from port 1
APP: Lcore 6 is writing to port 0
APP: Lcore 7 is writing to port 1
APP: Lcore 4 is reading from port 0
APP: Configure network interface of 0 up
PMD: ixgbe_set_rx_function(): Vector rx enabled, please make sure RX burst size no less than 32.
APP: Configure network interface of 1 up
PMD: ixgbe_set_rx_function(): Vector rx enabled, please make sure RX burst size no less than 32.*

所以我的问题是 DPDK 中 KNI 示例应用程序的预期输出是什么? 以及如何用于我的应用程序? (我是否可以使用 vEth0_0 接口进行操作,这样我就可以避免多个内核/用户空间复制)

更新: 通过将正确的 GRUB 选项设置为 iommu=pt, intel_iommu=on

在主机中解决了上述问题

问题 2: 如何在 VM 中使用 KNI? VM 内的 KNI 启动存在问题。

KNI: /dev/kni opened
KNI: Creating kni...
KNI: tx_phys:      0x000000017a6af140, tx_q addr:      0xffff88017a6af140
KNI: rx_phys:      0x000000017a6b1180, rx_q addr:      0xffff88017a6b1180
KNI: alloc_phys:   0x000000017a6b31c0, alloc_q addr:   0xffff88017a6b31c0
KNI: free_phys:    0x000000017a6b5200, free_q addr:    0xffff88017a6b5200
KNI: req_phys:     0x000000017a6b7240, req_q addr:     0xffff88017a6b7240
KNI: resp_phys:    0x000000017a6b9280, resp_q addr:    0xffff88017a6b9280
KNI: mbuf_phys:    0x0000000187c00000, mbuf_kva:       0xffff880187c00000
KNI: mbuf_va:      0x00002aaa32800000
KNI: mbuf_size:    2048
KNI: pci_bus: 00:03:00
KNI: Error: Device not supported by ethtool

【问题讨论】:

  • 请任何专家帮助我
  • 经过进一步分析,我发现数据包是由 vEth0_0 接口发送的(通过 tcpdump 检查 vEth0_0 接口)。因此,似乎没有从内核 NIC 接口读取并将其写入物理 NIC 接口。有人遇到过这个问题吗?

标签: network-programming dpdk


【解决方案1】:

KNI 应用程序的问题是,如果 DMA 映射出现问题,它不会直接显示错误。主机系统中的“dmesg”显示 DMA 映射与网络设备存在问题。

后来发现igb_uio驱动需要设置内核选项“iommu=pt, intel_iommu=on”。所以在 /etc/default/grub 文件中设置它并执行 "update-grub" 之后,我可以使用 igb_uio 驱动程序启动 KNI 接口,并且网络堆栈是工作正常。

Guest VM 内的 KNI 仍然无法正常工作。正在检查这个。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 2012-10-31
    相关资源
    最近更新 更多