]> xenbits.xensource.com Git - xen.git/commitdiff
x86+Arm: drop (rename) __virt_to_maddr() / __maddr_to_virt()
authorJan Beulich <jbeulich@suse.com>
Wed, 31 Jul 2024 10:36:14 +0000 (12:36 +0200)
committerJan Beulich <jbeulich@suse.com>
Wed, 31 Jul 2024 10:36:14 +0000 (12:36 +0200)
There's no use of them anymore except in the definitions of the non-
underscore-prefixed aliases.

On Arm convert the (renamed) inline function to a macro.

On x86 rename the inline functions, adjust the virt_to_maddr() #define,
and purge the maddr_to_virt() one, thus eliminating a bogus cast which
would have allowed the passing of a pointer type variable into
maddr_to_virt() to go silently.

No functional change intended.

Signed-off-by: Jan Beulich <jbeulich@suse.com>
Reviewed-by: Oleksii Kurochko <oleksii.kurochko@gmail.com>
Acked-by: Julien Grall <jgrall@amazon.com>
xen/arch/arm/include/asm/mm.h
xen/arch/x86/hvm/nestedhvm.c
xen/arch/x86/include/asm/page.h
xen/arch/x86/include/asm/x86_64/page.h

index 48538b5337aa83846ca5153b46a94d21a5c30c4b..f6ba611f01f71ba9e6d3fbd41ad1d543a9e99c36 100644 (file)
@@ -256,12 +256,10 @@ static inline void __iomem *ioremap_wc(paddr_t start, size_t len)
 /* Page-align address and convert to frame number format */
 #define paddr_to_pfn_aligned(paddr)    paddr_to_pfn(PAGE_ALIGN(paddr))
 
-static inline paddr_t __virt_to_maddr(vaddr_t va)
-{
-    uint64_t par = va_to_par(va);
-    return (par & PADDR_MASK & PAGE_MASK) | (va & ~PAGE_MASK);
-}
-#define virt_to_maddr(va)   __virt_to_maddr((vaddr_t)(va))
+#define virt_to_maddr(va) ({                                        \
+    vaddr_t va_ = (vaddr_t)(va);                                    \
+    (va_to_par(va_) & PADDR_MASK & PAGE_MASK) | (va_ & ~PAGE_MASK); \
+})
 
 #ifdef CONFIG_ARM_32
 /**
index 451c4da6d444c04d4d5e05ff7318a274e259ad8c..d895a738448ccdeba11ef7b0724d7e8edf253110 100644 (file)
@@ -125,7 +125,7 @@ static int __init cf_check nestedhvm_setup(void)
     /* shadow_io_bitmaps can't be declared static because
      *   they must fulfill hw requirements (page aligned section)
      *   and doing so triggers the ASSERT(va >= XEN_VIRT_START)
-     *   in __virt_to_maddr()
+     *   in virt_to_maddr()
      *
      * So as a compromise pre-allocate them when xen boots.
      * This function must be called from within start_xen() when
index e48571de9332dcd7716a2e86d2a13b73c20b6537..e01af28916b0b96e0bf1c6efd4e166887d17a00d 100644 (file)
@@ -256,8 +256,6 @@ void copy_page_sse2(void *to, const void *from);
 #define mfn_valid(mfn)      __mfn_valid(mfn_x(mfn))
 #define virt_to_mfn(va)     __virt_to_mfn(va)
 #define mfn_to_virt(mfn)    __mfn_to_virt(mfn)
-#define virt_to_maddr(va)   __virt_to_maddr((unsigned long)(va))
-#define maddr_to_virt(ma)   __maddr_to_virt((unsigned long)(ma))
 #define maddr_to_page(ma)   __maddr_to_page(ma)
 #define page_to_maddr(pg)   __page_to_maddr(pg)
 #define virt_to_page(va)    __virt_to_page(va)
index 465a707312144f85bb8f86f0f2ea73555c609911..201b79f99e575ee0176485f4a29a2ec1e4c2b276 100644 (file)
@@ -34,7 +34,7 @@ static inline unsigned long canonicalise_addr(unsigned long addr)
 #define pdx_to_virt(pdx) ((void *)(DIRECTMAP_VIRT_START + \
                                    ((unsigned long)(pdx) << PAGE_SHIFT)))
 
-static inline unsigned long __virt_to_maddr(unsigned long va)
+static inline unsigned long virt_to_maddr(unsigned long va)
 {
     ASSERT(va < DIRECTMAP_VIRT_END);
     if ( va >= DIRECTMAP_VIRT_START )
@@ -47,8 +47,9 @@ static inline unsigned long __virt_to_maddr(unsigned long va)
 
     return xen_phys_start + va - XEN_VIRT_START;
 }
+#define virt_to_maddr(va) virt_to_maddr((unsigned long)(va))
 
-static inline void *__maddr_to_virt(unsigned long ma)
+static inline void *maddr_to_virt(unsigned long ma)
 {
     /* Offset in the direct map, accounting for pdx compression */
     unsigned long va_offset = maddr_to_directmapoff(ma);