Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Refactoring and additions to direct paging (nested and passthrough)
[palacios.git] / palacios / src / palacios / vmm_direct_paging_32.h
index 42da5b1..435c3b0 100644 (file)
@@ -18,7 +18,6 @@
  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
  */
 
-
 #ifndef __VMM_DIRECT_PAGING_32_H__
 #define __VMM_DIRECT_PAGING_32_H__
 
 #include <palacios/vmm.h>
 #include <palacios/vm_guest_mem.h>
 #include <palacios/vm_guest.h>
+#include <palacios/vmm_ctrl_regs.h>
+
 
+/* This always build 2 level page tables - no large pages are used */
 
 static inline int handle_passthrough_pagefault_32(struct guest_info * info, 
                                                  addr_t fault_addr, 
-                                                 pf_error_t error_code) {
+                                                 pf_error_t error_code,
+                                                 addr_t *actual_start, addr_t *actual_end) {
+
     // Check to see if pde and pte exist (create them if not)
     pde32_t * pde = NULL;
     pte32_t * pte = NULL;
@@ -40,16 +44,14 @@ static inline int handle_passthrough_pagefault_32(struct guest_info * info,
     int pde_index = PDE32_INDEX(fault_addr);
     int pte_index = PTE32_INDEX(fault_addr);
     
-    struct v3_shadow_region * region = v3_get_shadow_region(info, fault_addr);
-    
+    struct v3_mem_region * region = v3_get_mem_region(info->vm_info, info->vcpu_id, fault_addr);
+
     if (region == NULL) {
-       PrintError("Invalid region in passthrough page fault 32, addr=%p\n", 
+        PrintError(info->vm_info, info, "Invalid region in passthrough page fault 32, addr=%p\n", 
                   (void *)fault_addr);
        return -1;
     }
     
-    host_addr = v3_get_shadow_addr(region, fault_addr);
-    
     // Lookup the correct PDE address based on the PAGING MODE
     if (info->shdw_pg_mode == SHADOW_PAGING) {
        pde = CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
@@ -58,9 +60,12 @@ static inline int handle_passthrough_pagefault_32(struct guest_info * info,
     }
 
 
+    *actual_start = BASE_TO_PAGE_ADDR_4KB(PAGE_BASE_ADDR_4KB(fault_addr));
+    *actual_end = BASE_TO_PAGE_ADDR_4KB(PAGE_BASE_ADDR_4KB(fault_addr)+1)-1;
+
     // Fix up the PDE entry
     if (pde[pde_index].present == 0) {
-       pte = (pte32_t *)create_generic_pt_page();
+       pte = (pte32_t *)create_generic_pt_page(info);
        
        pde[pde_index].present = 1;
        pde[pde_index].writable = 1;
@@ -74,37 +79,125 @@ static inline int handle_passthrough_pagefault_32(struct guest_info * info,
     // Fix up the PTE entry
     if (pte[pte_index].present == 0) {
        
-       pte[pte_index].user_page = 1;
        
-       if (region->host_type == SHDW_REGION_ALLOCATED) {
-           // Full access
-           pte[pte_index].present = 1;
-           pte[pte_index].writable = 1;
-           
-           pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
-       } else if (region->host_type == SHDW_REGION_WRITE_HOOK) {
-           // Only trap writes
+       if ((region->flags.alloced == 1) && 
+           (region->flags.read == 1)) {
+
+           pte[pte_index].user_page = 1;
+
            pte[pte_index].present = 1;
-           pte[pte_index].writable = 0;
+
+           if (region->flags.write == 1) {
+               pte[pte_index].writable = 1;
+           } else {
+               pte[pte_index].writable = 0;
+           }
+
+           if (v3_gpa_to_hpa(info, fault_addr, &host_addr) == -1) {
+               PrintError(info->vm_info, info, "Could not translate fault address (%p)\n", (void *)fault_addr);
+               return -1;
+           }
            
            pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
-       } else if (region->host_type == SHDW_REGION_FULL_HOOK) {
-           // trap all accesses
-           return v3_handle_mem_full_hook(info, fault_addr, fault_addr, region, error_code);
        } else {
-           PrintError("Unknown Region Type...\n");
-           return -1;
+           return region->unhandled(info, fault_addr, fault_addr, region, error_code);
        }
+    } else {
+       // We fix all permissions on the first pass, 
+       // so we only get here if its an unhandled exception
+       return region->unhandled(info, fault_addr, fault_addr, region, error_code);         
     }
+
+    return 0;
+}
+
+
+
+
+static inline int invalidate_addr_32_internal(struct guest_info * info, addr_t inv_addr,
+                                             addr_t *actual_start, uint64_t *actual_size) {
+    pde32_t * pde = NULL;
+    pte32_t * pte = NULL;
+
+    // TODO:
+    // Call INVLPGA
+
+    // clear the page table entry
+    int pde_index = PDE32_INDEX(inv_addr);
+    int pte_index = PTE32_INDEX(inv_addr);
+
     
-    if ( (region->host_type == SHDW_REGION_WRITE_HOOK) && 
-        (error_code.write == 1) ) {
-       return v3_handle_mem_wr_hook(info, fault_addr, fault_addr, region, error_code);
+    // Lookup the correct PDE address based on the PAGING MODE
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       pde = CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
+    } else {
+       pde = CR3_TO_PDE32_VA(info->direct_map_pt);
+    }    
+
+    if (pde[pde_index].present == 0) {
+        *actual_start = BASE_TO_PAGE_ADDR_4MB(PAGE_BASE_ADDR_4MB(inv_addr));
+        *actual_size = PAGE_SIZE_4MB;
+       return 0;
+    } else if (pde[pde_index].large_page) {
+       pde[pde_index].present = 0;
+       pde[pde_index].writable = 0;
+       pde[pde_index].user_page = 0;
+        *actual_start = BASE_TO_PAGE_ADDR_4MB(PAGE_BASE_ADDR_4MB(inv_addr));
+        *actual_size = PAGE_SIZE_4MB;
+       return 0;
     }
 
-    
+    pte = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pde[pde_index].pt_base_addr));
+
+    pte[pte_index].present = 0;
+    pte[pte_index].writable = 0;
+    pte[pte_index].user_page = 0;
+
+    *actual_start = BASE_TO_PAGE_ADDR_4KB(PAGE_BASE_ADDR_4KB(inv_addr));
+    *actual_size = PAGE_SIZE_4KB;
+
     return 0;
 }
 
 
+static inline int invalidate_addr_32(struct guest_info * core, addr_t inv_addr,
+                                    addr_t *actual_start, addr_t *actual_end)
+{
+  uint64_t len;
+  int rc;
+
+  rc = invalidate_addr_32_internal(core,inv_addr,actual_start,&len);
+
+  *actual_end = *actual_start + len - 1;
+
+  return rc;
+}
+   
+static inline int invalidate_addr_32_range(struct guest_info * core, addr_t inv_addr_start, addr_t inv_addr_end,
+                                          addr_t *actual_start, addr_t *actual_end)
+{
+  addr_t next;
+  addr_t start;
+  uint64_t len;
+  int rc;
+  
+  for (next=inv_addr_start; next<=inv_addr_end; ) {
+    rc = invalidate_addr_32_internal(core,next,&start, &len);
+     if (next==inv_addr_start) { 
+      // first iteration, capture where we start invalidating
+      *actual_start = start;
+    }
+   if (rc) { 
+      return rc;
+    }
+    next = start + len;
+    *actual_end = next;
+  }
+  // last iteration, actual_end is off by one
+  (*actual_end)--;
+  return 0;
+}
+
+
+
 #endif