]> xenbits.xensource.com Git - xen.git/commitdiff
x86: Rename __sync_lazy_execstate() to __sync_local_execstate().
authorKeir Fraser <keir.fraser@citrix.com>
Mon, 19 Apr 2010 16:57:28 +0000 (17:57 +0100)
committerKeir Fraser <keir.fraser@citrix.com>
Mon, 19 Apr 2010 16:57:28 +0000 (17:57 +0100)
This naming scheme is more rational. Also use non-x86-specific
function sync_local_execstate() where possible.

Signed-off-by: Keir Fraser <keir.fraser@citrix.com>
xen/arch/x86/domain.c
xen/arch/x86/smp.c
xen/arch/x86/smpboot.c
xen/arch/x86/x86_32/domain_page.c
xen/include/asm-x86/mm.h

index 070810b0af5a65d82fb31f3222d576d1cac2e282..1e647b62505694f7b2b7090ffa873a2ed88ee667 100644 (file)
@@ -1429,7 +1429,7 @@ void context_switch(struct vcpu *prev, struct vcpu *next)
     ASSERT(cpus_weight(dirty_mask) <= 1);
     if ( unlikely(!cpu_isset(cpu, dirty_mask) && !cpus_empty(dirty_mask)) )
     {
-        /* Other cpus call __sync_lazy_execstate from flush ipi handler. */
+        /* Other cpus call __sync_local_execstate from flush ipi handler. */
         flush_tlb_mask(&dirty_mask);
     }
 
@@ -1489,7 +1489,7 @@ void continue_running(struct vcpu *same)
     BUG();
 }
 
-int __sync_lazy_execstate(void)
+int __sync_local_execstate(void)
 {
     unsigned long flags;
     int switch_required;
@@ -1511,15 +1511,15 @@ int __sync_lazy_execstate(void)
 
 void sync_local_execstate(void)
 {
-    (void)__sync_lazy_execstate();
+    (void)__sync_local_execstate();
 }
 
 void sync_vcpu_execstate(struct vcpu *v)
 {
     if ( cpu_isset(smp_processor_id(), v->vcpu_dirty_cpumask) )
-        (void)__sync_lazy_execstate();
+        sync_local_execstate();
 
-    /* Other cpus call __sync_lazy_execstate from flush ipi handler. */
+    /* Other cpus call __sync_local_execstate from flush ipi handler. */
     flush_tlb_mask(&v->vcpu_dirty_cpumask);
 }
 
index 2a019239005840887031bc1872a329e7b92b73d1..0483ac5f10fe8dc90cc563f377759f3df00d2f2c 100644 (file)
@@ -211,7 +211,7 @@ fastcall void smp_invalidate_interrupt(void)
     ack_APIC_irq();
     perfc_incr(ipis);
     irq_enter();
-    if ( !__sync_lazy_execstate() ||
+    if ( !__sync_local_execstate() ||
          (flush_flags & (FLUSH_TLB_GLOBAL | FLUSH_CACHE)) )
         flush_area_local(flush_va, flush_flags);
     cpu_clear(smp_processor_id(), flush_cpumask);
index 4b2f64d5fffeb44df315f43cba04e7eca453c328..b5aaa020f30614edaba882b157ee583a97e2cfd8 100644 (file)
@@ -1003,7 +1003,7 @@ void cpu_exit_clear(void)
        int cpu = raw_smp_processor_id();
 
        /* Previous non-idle state should be synchronised already. */
-       if (__sync_lazy_execstate())
+       if (__sync_local_execstate())
                BUG();
 
        cpucount --;
@@ -1304,7 +1304,7 @@ int __cpu_disable(void)
         * before changing cpu_online_map. If we are running non-idle vcpu,
         * we will synchronously sync the state in context_switch() later.
         */
-       __sync_lazy_execstate();
+       sync_local_execstate();
 
        /* It's now safe to remove this processor from the online map */
        cpu_clear(cpu, cpu_online_map);
index 516a630af517c338982ca961a822e33aecb516b5..c381a0e98f5f27ef6b32265b62bc57a5b2c7206a 100644 (file)
@@ -32,7 +32,7 @@ static inline struct vcpu *mapcache_current_vcpu(void)
     {
         /* If we really are idling, perform lazy context switch now. */
         if ( (v = idle_vcpu[smp_processor_id()]) == current )
-            __sync_lazy_execstate();
+            sync_local_execstate();
         /* We must now be running on the idle page table. */
         ASSERT(read_cr3() == __pa(idle_pg_table));
     }
index 5f8aeb5d009cbf8b3d8a7dad21ae0e37d6603af9..1cff19bb4ee48cb2202faca7cf849472a5ff2a82 100644 (file)
@@ -532,7 +532,7 @@ void update_cr3(struct vcpu *v);
 void propagate_page_fault(unsigned long addr, u16 error_code);
 void *do_page_walk(struct vcpu *v, unsigned long addr);
 
-int __sync_lazy_execstate(void);
+int __sync_local_execstate(void);
 
 /* Arch-specific portion of memory_op hypercall. */
 long arch_memory_op(int op, XEN_GUEST_HANDLE(void) arg);