]> xenbits.xensource.com Git - people/aperard/linux.git/commitdiff
ynl: samples: fix recycling rate calculation
authorJakub Kicinski <kuba@kernel.org>
Thu, 7 Mar 2024 22:11:22 +0000 (14:11 -0800)
committerDavid S. Miller <davem@davemloft.net>
Mon, 11 Mar 2024 10:22:06 +0000 (10:22 +0000)
Running the page-pool sample on production machines under moderate
networking load shows recycling rate higher than 100%:

$ page-pool
    eth0[2] page pools: 14 (zombies: 0)
refs: 89088 bytes: 364904448 (refs: 0 bytes: 0)
recycling: 100.3% (alloc: 1392:2290247724 recycle: 469289484:1828235386)

Note that outstanding refs (89088) == slow alloc * cache size (1392 * 64)
which means this machine is recycling page pool pages perfectly, not
a single page has been released.

The extra 0.3% is because sample ignores allocations from the ptr_ring.
Treat those the same as alloc_fast, the ring vs cache alloc is
already captured accurately enough by recycling stats.

With the fix:

$ page-pool
    eth0[2] page pools: 14 (zombies: 0)
refs: 89088 bytes: 364904448 (refs: 0 bytes: 0)
recycling: 100.0% (alloc: 1392:2331141604 recycle: 473625579:1857460661)

Signed-off-by: Jakub Kicinski <kuba@kernel.org>
Signed-off-by: David S. Miller <davem@davemloft.net>
tools/net/ynl/samples/page-pool.c

index 098b5190d0e5bec1a398f5873601ca5a0794c8ab..332f281ee5cb326cf9b01d7ace59fc7b998281d5 100644 (file)
@@ -95,6 +95,8 @@ int main(int argc, char **argv)
 
                if (pp->_present.alloc_fast)
                        s->alloc_fast += pp->alloc_fast;
+               if (pp->_present.alloc_refill)
+                       s->alloc_fast += pp->alloc_refill;
                if (pp->_present.alloc_slow)
                        s->alloc_slow += pp->alloc_slow;
                if (pp->_present.recycle_ring)