]> xenbits.xensource.com Git - legacy/linux-2.6.18-xen.git/commitdiff
netback: optionally return TX responses out-of-order
authorKeir Fraser <keir.fraser@citrix.com>
Wed, 27 May 2009 10:21:00 +0000 (11:21 +0100)
committerKeir Fraser <keir.fraser@citrix.com>
Wed, 27 May 2009 10:21:00 +0000 (11:21 +0100)
Add a mode to netback in which it tries to return TX responses in a
slightly less predictable order.  This can make some otherwise
hardware-specific frontend bugs reproduce much more easily, which is
obviously rather useful when trying to fix them.  It'd also be quite
useful for making sure they didn't happen in the first place.

Randomisation is only done if a module parameter is set, and defaults
to off.  It certainly isn't something you'd ever want to run with in
production, but it might be useful for other people developing
frontend drivers.  I don't know if that's considered an adequate
reason to apply it, but, if anyone wants it, here it is.

Signed-off-by: Steven Smith <steven.smith@eu.citrix.com>
drivers/xen/netback/netback.c

index df84dad073a8b71b73b2d94f9d4c1b3e6f2dcfd4..bc5853a5ec4a00d51689af299b305730d4f6ceee 100644 (file)
@@ -142,6 +142,9 @@ static unsigned int alloc_index = 0;
 static int MODPARM_copy_skb = 1;
 module_param_named(copy_skb, MODPARM_copy_skb, bool, 0);
 MODULE_PARM_DESC(copy_skb, "Copy data received from netfront without netloop");
+static int MODPARM_permute_returns = 0;
+module_param_named(permute_returns, MODPARM_permute_returns, bool, S_IRUSR|S_IWUSR);
+MODULE_PARM_DESC(permute_returns, "Randomly permute the order in which TX responses are sent to the frontend");
 
 int netbk_copy_skb_mode;
 
@@ -866,6 +869,25 @@ static inline int copy_pending_req(PEND_RING_IDX pending_idx)
                                      &mmap_pages[pending_idx]);
 }
 
+static void permute_dealloc_ring(PEND_RING_IDX dc, PEND_RING_IDX dp)
+{
+       static unsigned random_src = 0x12345678;
+       unsigned dst_offset;
+       PEND_RING_IDX dest;
+       u16 tmp;
+
+       while (dc != dp) {
+               dst_offset = (random_src / 256) % (dp - dc);
+               dest = dc + dst_offset;
+               tmp = dealloc_ring[MASK_PEND_IDX(dest)];
+               dealloc_ring[MASK_PEND_IDX(dest)] =
+                       dealloc_ring[MASK_PEND_IDX(dc)];
+               dealloc_ring[MASK_PEND_IDX(dc)] = tmp;
+               dc++;
+               random_src *= 68389;
+       }
+}
+
 inline static void net_tx_action_dealloc(void)
 {
        struct netbk_tx_pending_inuse *inuse, *n;
@@ -888,6 +910,9 @@ inline static void net_tx_action_dealloc(void)
                /* Ensure we see all indices enqueued by netif_idx_release(). */
                smp_rmb();
 
+               if (MODPARM_permute_returns)
+                       permute_dealloc_ring(dc, dp);
+
                while (dc != dp) {
                        unsigned long pfn;