]> xenbits.xensource.com Git - legacy/linux-2.6.18-xen.git/commitdiff
linux: more users of __pte_val/__p[mug]d_val
authorKeir Fraser <keir@xensource.com>
Thu, 25 Oct 2007 15:07:39 +0000 (16:07 +0100)
committerKeir Fraser <keir@xensource.com>
Thu, 25 Oct 2007 15:07:39 +0000 (16:07 +0100)
Use __pXX_val() instead of pXX_val() when only flags are accessed.

Signed-off-by: Jan Beulich <jbeulich@novell.com>
arch/i386/mm/fault-xen.c
arch/x86_64/mm/fault-xen.c
arch/x86_64/mm/init-xen.c
arch/x86_64/mm/pageattr-xen.c
include/asm-x86_64/mach-xen/asm/pgtable.h

index 4ff209413642f9a11d8d9fe2df8e65b0cfdd2d32..97f5a5a59d7d9aa92f3aac520e076ba2f417b19d 100644 (file)
@@ -346,7 +346,7 @@ static int spurious_fault(struct pt_regs *regs,
        if ((error_code & 0x02) && !pte_write(*pte))
                return 0;
 #ifdef CONFIG_X86_PAE
-       if ((error_code & 0x10) && (pte_val(*pte) & _PAGE_NX))
+       if ((error_code & 0x10) && (__pte_val(*pte) & _PAGE_NX))
                return 0;
 #endif
 
index 5c832c8bebd750f0cf6524d12b6e2095baca6da4..7a12f4a50cc0d631bfb506527d5db225f7fc5bab 100644 (file)
@@ -380,7 +380,7 @@ static int spurious_fault(struct pt_regs *regs,
                return 0;
        if ((error_code & PF_WRITE) && !pte_write(*pte))
                return 0;
-       if ((error_code & PF_INSTR) && (pte_val(*pte) & _PAGE_NX))
+       if ((error_code & PF_INSTR) && (__pte_val(*pte) & _PAGE_NX))
                return 0;
 
        return 1;
index 20d4a74534f03dcf6b9d124231dbd745828ad837..d965018840957772579d8e133b107d9e34d3bb64 100644 (file)
@@ -272,7 +272,7 @@ static __init void set_pte_phys(unsigned long vaddr,
 
        pte = pte_offset_kernel(pmd, vaddr);
        if (!pte_none(*pte) &&
-           pte_val(*pte) != (pte_val(new_pte) & __supported_pte_mask))
+           __pte_val(*pte) != (__pte_val(new_pte) & __supported_pte_mask))
                pte_ERROR(*pte);
        set_pte(pte, new_pte);
 
@@ -868,7 +868,7 @@ void __init clear_kernel_mapping(unsigned long address, unsigned long size)
                pmd = pmd_offset(pud, address);
                if (!pmd || pmd_none(*pmd))
                        continue; 
-               if (0 == (pmd_val(*pmd) & _PAGE_PSE)) { 
+               if (0 == (__pmd_val(*pmd) & _PAGE_PSE)) {
                        /* Could handle this, but it should not happen currently. */
                        printk(KERN_ERR 
               "clear_kernel_mapping: mapping has been split. will leak memory\n"); 
index 6597b48ce7743c640ca89b4b414a7096ac6ce97e..ff1d7b4ccf1f05b294b8a3e11af97ba9197aa592 100644 (file)
@@ -370,7 +370,7 @@ static void revert_page(unsigned long address, pgprot_t ref_prot)
        pud = pud_offset(pgd,address);
        BUG_ON(pud_none(*pud));
        pmd = pmd_offset(pud, address);
-       BUG_ON(pmd_val(*pmd) & _PAGE_PSE);
+       BUG_ON(__pmd_val(*pmd) & _PAGE_PSE);
        pgprot_val(ref_prot) |= _PAGE_PSE;
        large_pte = mk_pte_phys(__pa(address) & LARGE_PAGE_MASK, ref_prot);
        set_pte((pte_t *)pmd, large_pte);
index 6ab63dbcbb710f4c4b71ceb430f43900265e8066..86b51cb71f9bbfddfc95c5373b2e45a4c5023324 100644 (file)
@@ -505,7 +505,7 @@ static inline pte_t pte_modify(pte_t pte, pgprot_t newprot)
 #define __swp_type(x)                  (((x).val >> 1) & 0x3f)
 #define __swp_offset(x)                        ((x).val >> 8)
 #define __swp_entry(type, offset)      ((swp_entry_t) { ((type) << 1) | ((offset) << 8) })
-#define __pte_to_swp_entry(pte)                ((swp_entry_t) { pte_val(pte) })
+#define __pte_to_swp_entry(pte)                ((swp_entry_t) { __pte_val(pte) })
 #define __swp_entry_to_pte(x)          ((pte_t) { (x).val })
 
 extern spinlock_t pgd_lock;