]> xenbits.xensource.com Git - people/royger/xen.git/commitdiff
mem_access: switch to plain bool
authorWei Liu <wei.liu2@citrix.com>
Mon, 11 Sep 2017 11:16:28 +0000 (12:16 +0100)
committerWei Liu <wei.liu2@citrix.com>
Mon, 11 Sep 2017 16:11:20 +0000 (17:11 +0100)
Signed-off-by: Wei Liu <wei.liu2@citrix.com>
Acked-by: Razvan Cojocaru <rcojocaru@bitdefender.com>
xen/arch/arm/mem_access.c
xen/arch/x86/mm/mem_access.c
xen/include/asm-arm/mem_access.h
xen/include/asm-x86/mem_access.h

index db9ad3f3c943b389a321f0a643bf9470021b9fa4..0f2cbb81d3ff2212ca8a2b1401fc3179615f7f24 100644 (file)
@@ -219,10 +219,10 @@ err:
     return page;
 }
 
-bool_t p2m_mem_access_check(paddr_t gpa, vaddr_t gla, const struct npfec npfec)
+bool p2m_mem_access_check(paddr_t gpa, vaddr_t gla, const struct npfec npfec)
 {
     int rc;
-    bool_t violation;
+    bool violation;
     xenmem_access_t xma;
     vm_event_request_t *req;
     struct vcpu *v = current;
index 414e38f9983d3f7afee03fff240909cedcd27812..9211fc0abed0159051ea260b9688b799be24bc86 100644 (file)
@@ -83,7 +83,7 @@ bool p2m_mem_access_emulate_check(struct vcpu *v,
                                   const vm_event_response_t *rsp)
 {
     xenmem_access_t access;
-    bool violation = 1;
+    bool violation = true;
     const struct vm_event_mem_access *data = &rsp->u.mem_access;
     struct domain *d = v->domain;
     struct p2m_domain *p2m = NULL;
@@ -129,7 +129,7 @@ bool p2m_mem_access_emulate_check(struct vcpu *v,
             break;
 
         case XENMEM_access_rwx:
-            violation = 0;
+            violation = false;
             break;
         }
     }
@@ -137,9 +137,9 @@ bool p2m_mem_access_emulate_check(struct vcpu *v,
     return violation;
 }
 
-bool_t p2m_mem_access_check(paddr_t gpa, unsigned long gla,
-                            struct npfec npfec,
-                            vm_event_request_t **req_ptr)
+bool p2m_mem_access_check(paddr_t gpa, unsigned long gla,
+                          struct npfec npfec,
+                          vm_event_request_t **req_ptr)
 {
     struct vcpu *v = current;
     unsigned long gfn = gpa >> PAGE_SHIFT;
@@ -167,7 +167,7 @@ bool_t p2m_mem_access_check(paddr_t gpa, unsigned long gla,
         rc = p2m->set_entry(p2m, gfn, mfn, PAGE_ORDER_4K, p2mt, p2m_access_rw, -1);
         ASSERT(rc == 0);
         gfn_unlock(p2m, gfn, 0);
-        return 1;
+        return true;
     }
     else if ( p2ma == p2m_access_n2rwx )
     {
@@ -188,7 +188,7 @@ bool_t p2m_mem_access_check(paddr_t gpa, unsigned long gla,
                                   "no vm_event listener VCPU %d, dom %d\n",
                                   v->vcpu_id, d->domain_id);
             domain_crash(v->domain);
-            return 0;
+            return false;
         }
         else
         {
@@ -204,7 +204,7 @@ bool_t p2m_mem_access_check(paddr_t gpa, unsigned long gla,
                 ASSERT(rc == 0);
             }
             gfn_unlock(p2m, gfn, 0);
-            return 1;
+            return true;
         }
     }
 
index 3a155f84eb267f88315411c894a3b51ba3be3aa9..1610635c5b35a750840e3d4b0669bbd8df252703 100644 (file)
@@ -22,20 +22,20 @@ bool p2m_mem_access_emulate_check(struct vcpu *v,
                                   const vm_event_response_t *rsp)
 {
     /* Not supported on ARM. */
-    return 0;
+    return false;
 }
 
 /* vm_event and mem_access are supported on any ARM guest */
-static inline bool_t p2m_mem_access_sanity_check(struct domain *d)
+static inline bool p2m_mem_access_sanity_check(struct domain *d)
 {
-    return 1;
+    return true;
 }
 
 /*
  * Send mem event based on the access. Boolean return value indicates if trap
  * needs to be injected into guest.
  */
-bool_t p2m_mem_access_check(paddr_t gpa, vaddr_t gla, const struct npfec npfec);
+bool p2m_mem_access_check(paddr_t gpa, vaddr_t gla, const struct npfec npfec);
 
 struct page_info*
 p2m_mem_access_check_and_get_page(vaddr_t gva, unsigned long flag,
index 9f7b409b4e35f89d6070c3f0b9d601e9e6cef7c8..4043c9fb4db086580360b69b3a016e50b107d7dc 100644 (file)
@@ -34,9 +34,9 @@
  * ring. Once having released get_gfn* locks caller must also xfree the
  * request.
  */
-bool_t p2m_mem_access_check(paddr_t gpa, unsigned long gla,
-                            struct npfec npfec,
-                            vm_event_request_t **req_ptr);
+bool p2m_mem_access_check(paddr_t gpa, unsigned long gla,
+                          struct npfec npfec,
+                          vm_event_request_t **req_ptr);
 
 /* Check for emulation and mark vcpu for skipping one instruction
  * upon rescheduling if required. */
@@ -44,7 +44,7 @@ bool p2m_mem_access_emulate_check(struct vcpu *v,
                                   const vm_event_response_t *rsp);
 
 /* Sanity check for mem_access hardware support */
-static inline bool_t p2m_mem_access_sanity_check(struct domain *d)
+static inline bool p2m_mem_access_sanity_check(struct domain *d)
 {
     return is_hvm_domain(d) && cpu_has_vmx && hap_enabled(d);
 }