]> xenbits.xensource.com Git - people/vhanquez/xen.git/commitdiff
x86_64: Ensure frame-table compression leaves MAX_ORDER aligned
authorKeir Fraser <keir.fraser@citrix.com>
Wed, 1 Sep 2010 09:21:41 +0000 (10:21 +0100)
committerKeir Fraser <keir.fraser@citrix.com>
Wed, 1 Sep 2010 09:21:41 +0000 (10:21 +0100)
contiguous ranges of page_info structs. This allows page-pointer
arithmetic in places like our buddy allocator.

This restriction was already implicitly guaranteed, but it is good to
make it explicit in the pdx-related initialisation.

Signed-off-by: Keir Fraser <keir.fraser@citrix.com>
xen-unstable changeset:   972d90ff3134
xen-unstable date:        Wed Sep 01 10:17:49 2010 +0100

xen/arch/x86/x86_64/mm.c

index 47b2f8bc9804ab0d263d0b9c7435b306188e5db4..7f46fbef6af50d878795fa94d3fd9c195214c0cf 100644 (file)
@@ -163,9 +163,15 @@ void *do_page_walk(struct vcpu *v, unsigned long addr)
 
 void __init pfn_pdx_hole_setup(unsigned long mask)
 {
-    unsigned int i, j, bottom_shift, hole_shift;
+    unsigned int i, j, bottom_shift = 0, hole_shift = 0;
 
-    for ( hole_shift = bottom_shift = j = 0; ; )
+    /*
+     * We skip the first MAX_ORDER bits, as we never want to compress them.
+     * This guarantees that page-pointer arithmetic remains valid within
+     * contiguous aligned ranges of 2^MAX_ORDER pages. Among others, our
+     * buddy allocator relies on this assumption.
+     */
+    for ( j = MAX_ORDER-1; ; )
     {
         i = find_next_zero_bit(&mask, BITS_PER_LONG, j);
         j = find_next_bit(&mask, BITS_PER_LONG, i);