]> xenbits.xensource.com Git - xen.git/commitdiff
Allow control of icache invalidations when calling flush_page_to_ram()
authorPunit Agrawal <punit.agrawal@arm.com>
Fri, 26 May 2017 11:14:05 +0000 (12:14 +0100)
committerStefano Stabellini <sstabellini@kernel.org>
Fri, 7 Jul 2017 18:00:16 +0000 (11:00 -0700)
flush_page_to_ram() unconditionally drops the icache. In certain
situations this leads to execessive icache flushes when
flush_page_to_ram() ends up being repeatedly called in a loop.

Introduce a parameter to allow callers of flush_page_to_ram() to take
responsibility of synchronising the icache. This is in preparations for
adding logic to make the callers perform the necessary icache
maintenance operations.

Signed-off-by: Punit Agrawal <punit.agrawal@arm.com>
Acked-by: Jan Beulich <jbeulich@suse.com>
Reviewed-by: Stefano Stabellini <sstabellini@kernel.org>
(cherry picked from commit 54b8651066e82f04db9d9e5b0cc02c26d39ae763)

xen/arch/arm/mm.c
xen/arch/arm/p2m.c
xen/common/page_alloc.c
xen/include/asm-arm/page.h
xen/include/asm-x86/flushtlb.h

index ba3f0c69cb2e5942ce85230e2679a944241b12a0..a516dbfe4e215fc3c06a087a6dc543b9b476875f 100644 (file)
@@ -421,7 +421,7 @@ unsigned long domain_page_map_to_mfn(const void *ptr)
 }
 #endif
 
-void flush_page_to_ram(unsigned long mfn)
+void flush_page_to_ram(unsigned long mfn, bool sync_icache)
 {
     void *v = map_domain_page(_mfn(mfn));
 
@@ -436,7 +436,8 @@ void flush_page_to_ram(unsigned long mfn)
      * I-Cache (See D4.9.2 in ARM DDI 0487A.k_iss10775). Instead of using flush
      * by VA on select platforms, we just flush the entire cache here.
      */
-    invalidate_icache();
+    if ( sync_icache )
+        invalidate_icache();
 }
 
 void __init arch_init_memory(void)
index c0b3de00342c69c2f8745210f562741bca9fb56c..8b6b150cab201de7f9c2e30395babf56549db8cb 100644 (file)
@@ -1469,7 +1469,7 @@ int p2m_cache_flush(struct domain *d, gfn_t start, unsigned long nr)
         /* XXX: Implement preemption */
         while ( gfn_x(start) < gfn_x(next_gfn) )
         {
-            flush_page_to_ram(mfn_x(mfn));
+            flush_page_to_ram(mfn_x(mfn), true);
 
             start = gfn_add(start, 1);
             mfn = mfn_add(mfn, 1);
index ae2476d10c1d24eda58bebdd1b44b7ab580488ec..88102d72da53a6727bbf4ffdc043a44675729f37 100644 (file)
@@ -838,7 +838,7 @@ static struct page_info *alloc_heap_pages(
         /* Ensure cache and RAM are consistent for platforms where the
          * guest can control its own visibility of/through the cache.
          */
-        flush_page_to_ram(page_to_mfn(&pg[i]));
+        flush_page_to_ram(page_to_mfn(&pg[i]), true);
     }
 
     spin_unlock(&heap_lock);
index a0f9344b9721db2f2e816ce39d8ab89c4d37dd5d..11a99d29fa403c71661208aebe28bcd1bb1a5e7a 100644 (file)
@@ -408,7 +408,7 @@ static inline void flush_xen_data_tlb_range_va(unsigned long va,
 }
 
 /* Flush the dcache for an entire page. */
-void flush_page_to_ram(unsigned long mfn);
+void flush_page_to_ram(unsigned long mfn, bool sync_icache);
 
 /*
  * Print a walk of a page table or p2m
index 2e7ed6b56204021d456af411f6d5bec325856c17..22a584b9e35edd99fc99374e17415ed16682266b 100644 (file)
@@ -118,7 +118,7 @@ void flush_area_mask(const cpumask_t *, const void *va, unsigned int flags);
 #define flush_tlb_one_all(v)                    \
     flush_tlb_one_mask(&cpu_online_map, v)
 
-static inline void flush_page_to_ram(unsigned long mfn) {}
+static inline void flush_page_to_ram(unsigned long mfn, bool sync_icache) {}
 static inline int invalidate_dcache_va_range(const void *p,
                                              unsigned long size)
 { return -EOPNOTSUPP; }