]> xenbits.xensource.com Git - xen.git/commitdiff
bitkeeper revision 1.1236.34.3 (4237063cE2rat5RdEGCsTzuaC6XCcA)
authorkaf24@firebug.cl.cam.ac.uk <kaf24@firebug.cl.cam.ac.uk>
Tue, 15 Mar 2005 15:58:52 +0000 (15:58 +0000)
committerkaf24@firebug.cl.cam.ac.uk <kaf24@firebug.cl.cam.ac.uk>
Tue, 15 Mar 2005 15:58:52 +0000 (15:58 +0000)
Tidy the x86 emulator interface, and use it from within the
writable pagetable algorithm to deal with otherwise unhandleable cases.
For example: L1 mapped at multiple L2 slots; L1 that maps itself; L1
that also maps the code making the update, or the kernel stack.
This provides a proof-of-concept for the emulator that can be picked
up for the VMX code to improve the device-model emulation.
Signed-off-by: Keir Fraser <keir@xensource.com>
tools/tests/test_x86_emulator.c
xen/arch/x86/mm.c
xen/arch/x86/x86_emulate.c
xen/include/asm-x86/mm.h
xen/include/asm-x86/x86_emulate.h
xen/include/xen/perfc_defn.h

index 2ccc20f97fc75b6fe4ae9d59fc4e62398f505661..e42d5989431f9dc0136c8ce5901ebcc7627e0b60 100644 (file)
@@ -26,7 +26,7 @@ static int read_any(
     case 4: *val = *(u32 *)addr; break;
     case 8: *val = *(unsigned long *)addr; break;
     }
-    return 0;
+    return X86EMUL_CONTINUE;
 }
 
 static int write_any(
@@ -41,17 +41,15 @@ static int write_any(
     case 4: *(u32 *)addr = (u32)val; break;
     case 8: *(unsigned long *)addr = val; break;
     }
-    return 0;
+    return X86EMUL_CONTINUE;
 }
 
 static int cmpxchg_any(
     unsigned long addr,
     unsigned long old,
     unsigned long new,
-    unsigned long *seen,
     unsigned int bytes)
 {
-    *seen = old;
     switch ( bytes )
     {
     case 1: *(u8 *)addr = (u8)new; break;
@@ -59,7 +57,7 @@ static int cmpxchg_any(
     case 4: *(u32 *)addr = (u32)new; break;
     case 8: *(unsigned long *)addr = new; break;
     }
-    return 0;
+    return X86EMUL_CONTINUE;
 }
 
 static struct x86_mem_emulator emulops = {
index 83a887ed450c33e9f606ff2036d61e4e09373305..166dd8ff070b02905bcaabe8e33babb406765886 100644 (file)
 #include <asm/uaccess.h>
 #include <asm/domain_page.h>
 #include <asm/ldt.h>
+#include <asm/x86_emulate.h>
 
 #ifdef VERBOSE
 #define MEM_LOG(_f, _a...)                           \
@@ -265,8 +266,7 @@ int map_ldt_shadow_page(unsigned int off)
 #define TOGGLE_MODE() ((void)0)
 #endif
 
-    if ( unlikely(in_irq()) )
-        BUG();
+    BUG_ON(unlikely(in_irq()));
 
     TOGGLE_MODE();
     __get_user(l1e, (unsigned long *)
@@ -1939,12 +1939,13 @@ void update_shadow_va_mapping(unsigned long va,
         &shadow_linear_pg_table[l1_linear_offset(va)])))) )
     {
         /*
-         * Since L2's are guranteed RW, failure indicates either that the
+         * Since L2's are guaranteed RW, failure indicates either that the
          * page was not shadowed, or that the L2 entry has not yet been
          * updated to reflect the shadow.
          */
-        if ( shadow_mode_external(current->domain) )
-            BUG(); // can't use linear_l2_table with external tables.
+
+        /* Can't use linear_l2_table with external tables. */
+        BUG_ON(shadow_mode_external(current->domain));
 
         l2_pgentry_t gpde = linear_l2_table[l2_table_offset(va)];
         unsigned long gpfn = l2_pgentry_val(gpde) >> PAGE_SHIFT;
@@ -2294,9 +2295,7 @@ void ptwr_flush(const int which)
     int            i, cpu = smp_processor_id();
     struct exec_domain *ed = current;
     struct domain *d = ed->domain;
-#ifdef PERF_COUNTERS
     unsigned int   modified = 0;
-#endif
 
     l1va = ptwr_info[cpu].ptinfo[which].l1va;
     ptep = (unsigned long *)&linear_pg_table[l1_linear_offset(l1va)];
@@ -2344,11 +2343,7 @@ void ptwr_flush(const int which)
 
     /* Ensure that there are no stale writable mappings in any TLB. */
     /* NB. INVLPG is a serialising instruction: flushes pending updates. */
-#if 1
     __flush_tlb_one(l1va); /* XXX Multi-CPU guests? */
-#else
-    flush_tlb_all();
-#endif
     PTWR_PRINTK("[%c] disconnected_l1va at %p now %p\n",
                 PTWR_PRINT_WHICH, ptep, pte);
 
@@ -2365,10 +2360,8 @@ void ptwr_flush(const int which)
         if ( likely(l1_pgentry_val(ol1e) == l1_pgentry_val(nl1e)) )
             continue;
 
-#ifdef PERF_COUNTERS
         /* Update number of entries modified. */
         modified++;
-#endif
 
         /*
          * Fast path for PTEs that have merely been write-protected
@@ -2411,6 +2404,8 @@ void ptwr_flush(const int which)
     unmap_domain_mem(pl1e);
 
     perfc_incr_histo(wpt_updates, modified, PT_UPDATES);
+    ptwr_info[cpu].ptinfo[which].prev_exec_domain = ed;
+    ptwr_info[cpu].ptinfo[which].prev_nr_updates  = modified;
 
     /*
      * STEP 3. Reattach the L1 p.t. page into the current address space.
@@ -2435,6 +2430,133 @@ void ptwr_flush(const int which)
     }
 }
 
+static int ptwr_emulated_update(
+    unsigned long addr,
+    unsigned long old,
+    unsigned long val,
+    unsigned int bytes,
+    unsigned int do_cmpxchg)
+{
+    unsigned long sstat, pte, pfn;
+    struct pfn_info *page;
+    l1_pgentry_t ol1e, nl1e, *pl1e, *sl1e;
+    struct domain *d = current->domain;
+
+    /* Aligned access only, thank you. */
+    if ( (addr & (bytes-1)) != 0 )
+    {
+        MEM_LOG("ptwr_emulate: Unaligned or bad size ptwr access (%d, %p)\n",
+                bytes, addr);
+        return X86EMUL_UNHANDLEABLE;
+    }
+
+    /* Turn a sub-word access into a full-word access. */
+    if ( (addr & ((BITS_PER_LONG/8)-1)) != 0 )
+    {
+        int           rc;
+        unsigned long full;
+        unsigned int  mask = addr & ((BITS_PER_LONG/8)-1);
+        /* Align address; read full word. */
+        addr &= ~((BITS_PER_LONG/8)-1);
+        if ( (rc = x86_emulate_read_std(addr, &full, BITS_PER_LONG/8)) )
+            return rc;
+        /* Mask out bits provided by caller. */
+        full &= ~((1UL << (bytes*8)) - 1UL) << (mask*8);
+        /* Shift the caller value and OR in the missing bits. */
+        val  &= (1UL << (bytes*8)) - 1UL;
+        val <<= mask*8;
+        val  |= full;
+    }
+
+    /* Read the PTE that maps the page being updated. */
+    if ( __get_user(pte, (unsigned long *)
+                    &linear_pg_table[l1_linear_offset(addr)]) )
+    {
+        MEM_LOG("ptwr_emulate: Cannot read thru linear_pg_table\n");
+        return X86EMUL_UNHANDLEABLE;
+    }
+
+    pfn  = pte >> PAGE_SHIFT;
+    page = &frame_table[pfn];
+
+    /* We are looking only for read-only mappings of p.t. pages. */
+    if ( ((pte & (_PAGE_RW | _PAGE_PRESENT)) != _PAGE_PRESENT) ||
+         ((page->u.inuse.type_info & PGT_type_mask) != PGT_l1_page_table) )
+    {
+        MEM_LOG("ptwr_emulate: Page is mistyped or bad pte (%p, %x)\n",
+                pte, page->u.inuse.type_info);
+        return X86EMUL_UNHANDLEABLE;
+    }
+
+    /* Check the new PTE. */
+    nl1e = mk_l1_pgentry(val);
+    if ( unlikely(!get_page_from_l1e(nl1e, d)) )
+        return X86EMUL_UNHANDLEABLE;
+
+    /* Checked successfully: do the update (write or cmpxchg). */
+    pl1e = map_domain_mem(page_to_phys(page) + (addr & ~PAGE_MASK));
+    if ( do_cmpxchg )
+    {
+        ol1e = mk_l1_pgentry(old);
+        if ( cmpxchg((unsigned long *)pl1e, old, val) != old )
+        {
+            unmap_domain_mem(pl1e);
+            return X86EMUL_CMPXCHG_FAILED;
+        }
+    }
+    else
+    {
+        ol1e  = *pl1e;
+        *pl1e = nl1e;
+    }
+    unmap_domain_mem(pl1e);
+
+    /* Propagate update to shadow cache. */
+    if ( unlikely(shadow_mode_enabled(d)) )
+    {
+        sstat = get_shadow_status(d, page_to_pfn(page));
+        if ( sstat & PSH_shadowed )
+        {
+            sl1e = map_domain_mem(
+                ((sstat & PSH_pfn_mask) << PAGE_SHIFT) + (addr & ~PAGE_MASK));
+            l1pte_propagate_from_guest(
+                d, &l1_pgentry_val(nl1e), &l1_pgentry_val(*sl1e));
+            unmap_domain_mem(sl1e);
+        }
+    }
+
+    /* Finally, drop the old PTE. */
+    if ( unlikely(l1_pgentry_val(ol1e) & _PAGE_PRESENT) )
+        put_page_from_l1e(ol1e, d);
+
+    return X86EMUL_CONTINUE;
+}
+
+static int ptwr_emulated_write(
+    unsigned long addr,
+    unsigned long val,
+    unsigned int bytes)
+{
+    return ptwr_emulated_update(addr, 0, val, bytes, 0);
+}
+
+static int ptwr_emulated_cmpxchg(
+    unsigned long addr,
+    unsigned long old,
+    unsigned long new,
+    unsigned int bytes)
+{
+    return ptwr_emulated_update(addr, old, new, bytes, 1);
+}
+
+static struct x86_mem_emulator ptwr_mem_emulator = {
+    .read_std         = x86_emulate_read_std,
+    .write_std        = x86_emulate_write_std,
+    .read_emulated    = x86_emulate_read_std,
+    .write_emulated   = ptwr_emulated_write,
+    .cmpxchg_emulated = ptwr_emulated_cmpxchg
+};
+
 /* Write page fault handler: check if guest is trying to modify a PTE. */
 int ptwr_do_page_fault(unsigned long addr)
 {
@@ -2448,13 +2570,13 @@ int ptwr_do_page_fault(unsigned long addr)
     return 0; /* Writable pagetables need fixing for x86_64. */
 #endif
 
+    /* Can't use linear_l2_table with external tables. */
+    BUG_ON(shadow_mode_external(current->domain));
+
     /*
      * Attempt to read the PTE that maps the VA being accessed. By checking for
      * PDE validity in the L2 we avoid many expensive fixups in __get_user().
      */
-    if ( shadow_mode_external(current->domain) )
-        BUG(); // can't use linear_l2_table with external tables.
-
     if ( !(l2_pgentry_val(linear_l2_table[addr>>L2_PAGETABLE_SHIFT]) &
            _PAGE_PRESENT) ||
          __get_user(pte, (unsigned long *)
@@ -2472,47 +2594,35 @@ int ptwr_do_page_fault(unsigned long addr)
     {
         return 0;
     }
-    
+
     /* Get the L2 index at which this L1 p.t. is always mapped. */
     l2_idx = page->u.inuse.type_info & PGT_va_mask;
     if ( unlikely(l2_idx >= PGT_va_unknown) )
-    {
-        domain_crash(); /* Urk! This L1 is mapped in multiple L2 slots! */
-    }
+        goto emulate; /* Urk! This L1 is mapped in multiple L2 slots! */
     l2_idx >>= PGT_va_shift;
 
-    if ( l2_idx == (addr >> L2_PAGETABLE_SHIFT) )
-    {
-        MEM_LOG("PTWR failure! Pagetable maps itself at %p\n", addr);
-        domain_crash();
-    }
+    if ( unlikely(l2_idx == (addr >> L2_PAGETABLE_SHIFT)) )
+        goto emulate; /* Urk! Pagetable maps itself! */
 
     /*
      * Is the L1 p.t. mapped into the current address space? If so we call it
      * an ACTIVE p.t., otherwise it is INACTIVE.
      */
-    if ( shadow_mode_external(current->domain) )
-        BUG(); // can't use linear_l2_table with external tables.
-
     pl2e = &linear_l2_table[l2_idx];
     l2e  = l2_pgentry_val(*pl2e);
     which = PTWR_PT_INACTIVE;
     if ( (l2e >> PAGE_SHIFT) == pfn )
     {
-        /* Check the PRESENT bit to set ACTIVE. */
-        if ( likely(l2e & _PAGE_PRESENT) )
+        /*
+         * Check the PRESENT bit to set ACTIVE mode.
+         * If the PRESENT bit is clear, we may be conflicting with the current 
+         * ACTIVE p.t. (it may be the same p.t. mapped at another virt addr).
+         * The ptwr_flush call below will restore the PRESENT bit.
+         */
+        if ( likely(l2e & _PAGE_PRESENT) ||
+             (ptwr_info[cpu].ptinfo[PTWR_PT_ACTIVE].l1va &&
+              (l2_idx == ptwr_info[cpu].ptinfo[PTWR_PT_ACTIVE].l2_idx)) )
             which = PTWR_PT_ACTIVE;
-        else {
-            /*
-             * If the PRESENT bit is clear, we may be conflicting with
-             * the current ACTIVE p.t. (it may be the same p.t. mapped
-             * at another virt addr).
-             * The ptwr_flush call below will restore the PRESENT bit.
-             */
-            if ( ptwr_info[cpu].ptinfo[PTWR_PT_ACTIVE].l1va &&
-                 l2_idx == ptwr_info[cpu].ptinfo[PTWR_PT_ACTIVE].l2_idx )
-                which = PTWR_PT_ACTIVE;
-        }
     }
     
     PTWR_PRINTK("[%c] page_fault on l1 pt at va %p, pt for %08x, "
@@ -2526,6 +2636,18 @@ int ptwr_do_page_fault(unsigned long addr)
     if ( ptwr_info[cpu].ptinfo[which].l1va )
         ptwr_flush(which);
 
+    /*
+     * If last batch made no updates then we are probably stuck. Emulate this 
+     * update to ensure we make progress.
+     */
+    if ( (ptwr_info[cpu].ptinfo[which].prev_exec_domain == current) &&
+         (ptwr_info[cpu].ptinfo[which].prev_nr_updates  == 0) )
+    {
+        /* Force non-emul next time, or we can get stuck emulating forever. */
+        ptwr_info[cpu].ptinfo[which].prev_exec_domain = NULL;
+        goto emulate;
+    }
+
     ptwr_info[cpu].ptinfo[which].l1va   = addr | 1;
     ptwr_info[cpu].ptinfo[which].l2_idx = l2_idx;
     
@@ -2534,11 +2656,7 @@ int ptwr_do_page_fault(unsigned long addr)
          likely(!shadow_mode_enabled(current->domain)) )
     {
         *pl2e = mk_l2_pgentry(l2e & ~_PAGE_PRESENT);
-#if 1
         flush_tlb(); /* XXX Multi-CPU guests? */
-#else
-        flush_tlb_all();
-#endif
     }
     
     /* Temporarily map the L1 page, and make a copy of it. */
@@ -2563,6 +2681,13 @@ int ptwr_do_page_fault(unsigned long addr)
     }
     
     return EXCRET_fault_fixed;
+
+ emulate:
+    if ( x86_emulate_memop(get_execution_context(), addr,
+                           &ptwr_mem_emulator, BITS_PER_LONG/8) )
+        return 0;
+    perfc_incrc(ptwr_emulations);
+    return EXCRET_fault_fixed;
 }
 
 static __init int ptwr_init(void)
@@ -2762,8 +2887,7 @@ void audit_domain(struct domain *d)
         pfn = list_entry(list_ent, struct pfn_info, list) - frame_table;       
         page = &frame_table[pfn];
 
-        if ( page_get_owner(page) != d )
-            BUG();
+        BUG_ON(page_get_owner(page) != d);
 
         if ( (page->u.inuse.type_info & PGT_count_mask) >
              (page->count_info & PGC_count_mask) )
@@ -2809,8 +2933,7 @@ void audit_domain(struct domain *d)
         pfn = list_entry(list_ent, struct pfn_info, list) - frame_table;       
         page = &frame_table[pfn];
 
-        if ( page_get_owner(page) != d )
-            BUG();
+        BUG_ON(page_get_owner(page) != d);
 
         switch ( page->u.inuse.type_info & PGT_type_mask )
         {
@@ -3060,7 +3183,10 @@ void audit_domain(struct domain *d)
             d->exec_domain[0]->arch.guest_table)>>PAGE_SHIFT], 1, 1);
 
     spin_unlock(&d->page_alloc_lock);
-    printk("Audit %d: Done. ref=%d xenpages=%d pages=%d l1=%d l2=%d ctot=%d ttot=%d\n", d->id, atomic_read(&d->refcnt), d->xenheap_pages, d->tot_pages, l1, l2, ctot, ttot );
+    printk("Audit %d: Done. ref=%d xenpages=%d pages=%d l1=%d"
+           " l2=%d ctot=%d ttot=%d\n", 
+           d->id, atomic_read(&d->refcnt), d->xenheap_pages, d->tot_pages,
+           l1, l2, ctot, ttot );
 
     if ( d != current->domain )
         domain_unpause(d);
index 023f7543ba9cea742e6c9e7f54511feca3275dbe..fc1ad10122aa309f8a73c10c8bbd313b98eefd5a 100644 (file)
@@ -363,7 +363,7 @@ do{ __asm__ __volatile__ (                                              \
 /* Fetch next part of the instruction being emulated. */
 #define insn_fetch(_type, _size, _eip) \
 ({ unsigned long _x; \
-   if ( ops->read_std((unsigned long)(_eip), &_x, (_size)) ) \
+   if ( (rc = ops->read_std((unsigned long)(_eip), &_x, (_size))) != 0 ) \
        goto done; \
    (_eip) += (_size); \
    (_type)_x; \
@@ -422,6 +422,7 @@ x86_emulate_memop(
     u8 modrm, modrm_mod = 0, modrm_reg = 0, modrm_rm = 0;
     unsigned int op_bytes = (mode == 8) ? 4 : mode, ad_bytes = mode;
     unsigned int lock_prefix = 0, rep_prefix = 0, i;
+    int rc = 0;
     struct operand src, dst;
 
     /* Shadow copy of register state. Committed on successful emulation. */
@@ -556,7 +557,8 @@ x86_emulate_memop(
         dst.ptr   = (unsigned long *)cr2;
         dst.bytes = (d & ByteOp) ? 1 : op_bytes;
         if ( !(d & Mov) && /* optimisation - avoid slow emulated read */
-             ops->read_emulated((unsigned long)dst.ptr, &dst.val, dst.bytes) )
+             ((rc = ops->read_emulated((unsigned long)dst.ptr,
+                                       &dst.val, dst.bytes)) != 0) )
              goto done;
         break;
     }
@@ -590,7 +592,8 @@ x86_emulate_memop(
         src.type  = OP_MEM;
         src.ptr   = (unsigned long *)cr2;
         src.bytes = (d & ByteOp) ? 1 : op_bytes;
-        if ( ops->read_emulated((unsigned long)src.ptr, &src.val, src.bytes) )
+        if ( (rc = ops->read_emulated((unsigned long)src.ptr, 
+                                      &src.val, src.bytes)) != 0 )
             goto done;
         src.orig_val = src.val;
         break;
@@ -664,6 +667,7 @@ x86_emulate_memop(
         src.val ^= dst.val;
         dst.val ^= src.val;
         src.val ^= dst.val;
+        lock_prefix = 1;
         break;
     case 0xa0 ... 0xa1: /* mov */
         dst.ptr = (unsigned long *)&_regs.eax;
@@ -682,7 +686,7 @@ x86_emulate_memop(
         /* 64-bit mode: POP defaults to 64-bit operands. */
         if ( (mode == 8) && (dst.bytes == 4) )
             dst.bytes = 8;
-        if ( ops->read_std(_regs.esp, &dst.val, dst.bytes) )
+        if ( (rc = ops->read_std(_regs.esp, &dst.val, dst.bytes)) != 0 )
             goto done;
         _regs.esp += dst.bytes;
         break;
@@ -759,11 +763,12 @@ x86_emulate_memop(
             if ( (mode == 8) && (dst.bytes == 4) )
             {
                 dst.bytes = 8;
-                if ( ops->read_std((unsigned long)dst.ptr, &dst.val, 8) )
+                if ( (rc = ops->read_std((unsigned long)dst.ptr,
+                                         &dst.val, 8)) != 0 )
                     goto done;
             }
             _regs.esp -= dst.bytes;
-            if ( ops->write_std(_regs.esp, dst.val, dst.bytes) )
+            if ( (rc = ops->write_std(_regs.esp, dst.val, dst.bytes)) != 0 )
                 goto done;
             dst.val = dst.orig_val; /* skanky: disable writeback */
             break;
@@ -790,22 +795,13 @@ x86_emulate_memop(
             break;
         case OP_MEM:
             if ( lock_prefix )
-            {
-                unsigned long seen;
-                if ( ops->cmpxchg_emulated((unsigned long)dst.ptr,
-                                           dst.orig_val, dst.val,
-                                           &seen, dst.bytes) )
-                    goto done;
-                if ( seen != dst.orig_val )
-                    goto done; /* Try again... */
-            }
+                rc = ops->cmpxchg_emulated(
+                    (unsigned long)dst.ptr, dst.orig_val, dst.val, dst.bytes);
             else
-            {
-                if ( ops->write_emulated((unsigned long)dst.ptr,
-                                         dst.val, dst.bytes) )
-                    goto done;
-            }
-            break;
+                rc = ops->write_emulated(
+                    (unsigned long)dst.ptr, dst.val, dst.bytes);
+            if ( rc != 0 )
+                goto done;
         default:
             break;
         }
@@ -815,7 +811,7 @@ x86_emulate_memop(
     *regs = _regs;
 
  done:
-    return 0;
+    return (rc == X86EMUL_UNHANDLEABLE) ? -1 : 0;
 
  special_insn:
     if ( twobyte )
@@ -839,15 +835,15 @@ x86_emulate_memop(
         {
             /* Write fault: destination is special memory. */
             dst.ptr = (unsigned long *)cr2;
-            if ( ops->read_std(_regs.esi - _regs.edi + cr2, 
-                               &dst.val, dst.bytes) )
+            if ( (rc = ops->read_std(_regs.esi - _regs.edi + cr2, 
+                                     &dst.val, dst.bytes)) != 0 )
                 goto done;
         }
         else
         {
             /* Read fault: source is special memory. */
             dst.ptr = (unsigned long *)(_regs.edi - _regs.esi + cr2);
-            if ( ops->read_emulated(cr2, &dst.val, dst.bytes) )
+            if ( (rc = ops->read_emulated(cr2, &dst.val, dst.bytes)) != 0 )
                 goto done;
         }
         _regs.esi += (_regs.eflags & EFLG_DF) ? -dst.bytes : dst.bytes;
@@ -867,7 +863,7 @@ x86_emulate_memop(
         dst.type  = OP_REG;
         dst.bytes = (d & ByteOp) ? 1 : op_bytes;
         dst.ptr   = (unsigned long *)&_regs.eax;
-        if ( ops->read_emulated(cr2, &dst.val, dst.bytes) )
+        if ( (rc = ops->read_emulated(cr2, &dst.val, dst.bytes)) != 0 )
             goto done;
         _regs.esi += (_regs.eflags & EFLG_DF) ? -dst.bytes : dst.bytes;
         break;
@@ -971,3 +967,39 @@ x86_emulate_memop(
     DPRINTF("Cannot emulate %02x\n", b);
     return -1;
 }
+
+#ifndef __TEST_HARNESS__
+
+#include <asm/mm.h>
+#include <asm/uaccess.h>
+
+int
+x86_emulate_read_std(
+    unsigned long addr,
+    unsigned long *val,
+    unsigned int bytes)
+{
+    *val = 0;
+    if ( copy_from_user((void *)val, (void *)addr, bytes) )
+    {
+        propagate_page_fault(addr, 4); /* user mode, read fault */
+        return X86EMUL_PROPAGATE_FAULT;
+    }
+    return X86EMUL_CONTINUE;
+}
+
+int
+x86_emulate_write_std(
+    unsigned long addr,
+    unsigned long val,
+    unsigned int bytes)
+{
+    if ( copy_to_user((void *)addr, (void *)&val, bytes) )
+    {
+        propagate_page_fault(addr, 6); /* user mode, write fault */
+        return X86EMUL_PROPAGATE_FAULT;
+    }
+    return X86EMUL_CONTINUE;
+}
+
+#endif
index 99cfee4e22d04e418d4cd2ef9ec1c7515743f6d6..8ba43abc69b718f7eb68f9c34e639196d748bbd7 100644 (file)
@@ -289,6 +289,9 @@ typedef struct {
     l1_pgentry_t *pl1e;
     /* Index in L2 page table where this L1 p.t. is always hooked. */
     unsigned int l2_idx; /* NB. Only used for PTWR_PT_ACTIVE. */
+    /* Info about last ptwr update batch. */
+    struct exec_domain *prev_exec_domain; /* domain making the update */
+    unsigned int        prev_nr_updates;  /* size of update batch */
 } ptwr_ptinfo_t;
 
 typedef struct {
index fc2301d376e51d4446ff55690f7c5203e8616217..895e22a20984e9cb40f4c117c61b6c90669d978c 100644 (file)
  *  2. If the access fails (cannot emulate, or a standard access faults) then
  *     it is up to the memop to propagate the fault to the guest VM via
  *     some out-of-band mechanism, unknown to the emulator. The memop signals
- *     failure by returning a non-zero value to the emulator, which will then
- *     immediately bail.
+ *     failure by returning X86EMUL_PROPAGATE_FAULT to the emulator, which will
+ *     then immediately bail.
  */
+/* Access completed successfully: continue emulation as normal. */
+#define X86EMUL_CONTINUE        0
+/* Access is unhandleable: bail from emulation and return error to caller. */
+#define X86EMUL_UNHANDLEABLE    1
+/* Terminate emulation but return success to the caller. */
+#define X86EMUL_PROPAGATE_FAULT 2 /* propagate a generated fault to guest */
+#define X86EMUL_RETRY_INSTR     2 /* retry the instruction for some reason */
+#define X86EMUL_CMPXCHG_FAILED  2 /* cmpxchg did not see expected value */
 struct x86_mem_emulator
 {
     /*
@@ -89,17 +97,26 @@ struct x86_mem_emulator
      *  @addr:  [IN ] Linear address to access.
      *  @old:   [IN ] Value expected to be current at @addr.
      *  @new:   [IN ] Value to write to @addr.
-     *  @seen:  [OUT] Value actually seen at @addr, zero-extended to 'u_long'.
      *  @bytes: [IN ] Number of bytes to access using CMPXCHG.
      */
     int (*cmpxchg_emulated)(
         unsigned long addr,
-        unsigned long old, 
+        unsigned long old,
         unsigned long new,
-        unsigned long *seen,
         unsigned int bytes);
 };
 
+/* Standard reader/writer functions that callers may wish to use. */
+extern int
+x86_emulate_read_std(
+    unsigned long addr,
+    unsigned long *val,
+    unsigned int bytes);
+extern int
+x86_emulate_write_std(
+    unsigned long addr,
+    unsigned long val,
+    unsigned int bytes);
 
 struct xen_regs;
 
index c67c5f46b961364e738bc587259decf603399e4c..e5a4e4640f076eedd585760c30f215d4068432f1 100644 (file)
@@ -20,6 +20,7 @@ PERFCOUNTER_CPU( calls_to_update_va, "calls_to_update_va_map" )
 PERFCOUNTER_CPU( page_faults, "page faults" )
 PERFCOUNTER_CPU( copy_user_faults, "copy_user faults" )
 PERFCOUNTER_CPU( map_domain_mem_count, "map_domain_mem count" )
+PERFCOUNTER_CPU( ptwr_emulations, "writable pt emulations" )
 
 PERFCOUNTER_CPU( shadow_l2_table_count, "shadow_l2_table count" )
 PERFCOUNTER_CPU( shadow_l1_table_count, "shadow_l1_table count" )