Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Convert shadow paging to use 32 PAE (Direct Paging)
[palacios.git] / palacios / src / palacios / vmm_direct_paging_32pae.h
index d681969..7414a02 100644 (file)
@@ -39,16 +39,17 @@ static inline int handle_passthrough_pagefault_32pae(struct guest_info * info,
     int pdpe_index = PDPE32PAE_INDEX(fault_addr);
     int pde_index = PDE32PAE_INDEX(fault_addr);
     int pte_index = PTE32PAE_INDEX(fault_addr);
+    
 
-    struct v3_shadow_region * region =  v3_get_shadow_region(info, fault_addr);
+    struct v3_mem_region * region =  v3_get_mem_region(info->vm_info, info->vcpu_id, fault_addr);
   
     if (region == NULL) {
-       PrintError("Invalid region in passthrough page fault 32PAE, addr=%p\n", 
+       PrintError(info->vm_info, info, "Invalid region in passthrough page fault 32PAE, addr=%p\n", 
                   (void *)fault_addr);
        return -1;
     }
 
-    host_addr = v3_get_shadow_addr(region, fault_addr);
+    PrintDebug(info->vm_info, info, "Direct Paging 32PAE page fault handler=%p\n", (void *)fault_addr);
 
     // Lookup the correct PDPE address based on the PAGING MODE
     if (info->shdw_pg_mode == SHADOW_PAGING) {
@@ -56,23 +57,24 @@ static inline int handle_passthrough_pagefault_32pae(struct guest_info * info,
     } else {
        pdpe = CR3_TO_PDPE32PAE_VA(info->direct_map_pt);
     }
-
+    PrintDebug(info->vm_info, info, "Top level pdpe error pdp address=%p\n", (void *)pdpe);
     // Fix up the PDPE entry
     if (pdpe[pdpe_index].present == 0) {
-       pde = (pde32pae_t *)create_generic_pt_page();
-   
+       pde = (pde32pae_t *)create_generic_pt_page(info);
+        PrintDebug(info->vm_info, info, "Creating a new pd page=%p\n", (void *)pde);
        pdpe[pdpe_index].present = 1;
        // Set default PDPE Flags...
        pdpe[pdpe_index].pd_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(pde));    
     } else {
        pde = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pdpe[pdpe_index].pd_base_addr));
     }
-
+    PrintDebug(info->vm_info, info, "Handling pde error pd base address =%p\n", (void *)pde);
 
     // Fix up the PDE entry
     if (pde[pde_index].present == 0) {
-       pte = (pte32pae_t *)create_generic_pt_page();
-
+       pte = (pte32pae_t *)create_generic_pt_page(info);
+        PrintDebug(info->vm_info, info, "Creating a new pt page=%p\n", (void *)pte);
        pde[pde_index].present = 1;
        pde[pde_index].writable = 1;
        pde[pde_index].user_page = 1;
@@ -82,42 +84,120 @@ static inline int handle_passthrough_pagefault_32pae(struct guest_info * info,
        pte = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pde[pde_index].pt_base_addr));
     }
 
-
+    PrintDebug(info->vm_info, info, "Handling pte error pt base address=%p\n", (void *)pte);
     // Fix up the PTE entry
     if (pte[pte_index].present == 0) {
        pte[pte_index].user_page = 1;
 
-       if (region->host_type == SHDW_REGION_ALLOCATED) {
-           // Full access
+       if ((region->flags.alloced == 1) && 
+           (region->flags.read == 1)) {
+
            pte[pte_index].present = 1;
-           pte[pte_index].writable = 1;
 
-           pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
+           if (region->flags.write == 1) {
+               pte[pte_index].writable = 1;
+           } else {
+               pte[pte_index].writable = 0;
+           }
 
-       } else if (region->host_type == SHDW_REGION_WRITE_HOOK) {
-           // Only trap writes
-           pte[pte_index].present = 1; 
-           pte[pte_index].writable = 0;
+           if (v3_gpa_to_hpa(info, fault_addr, &host_addr) == -1) {
+               PrintError(info->vm_info, info, "Could not translate fault address (%p)\n", (void *)fault_addr);
+               return -1;
+           }
 
            pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
-
-       } else if (region->host_type == SHDW_REGION_FULL_HOOK) {
-           // trap all accesses
-           return v3_handle_mem_full_hook(info, fault_addr, fault_addr, region, error_code);
-
+            PrintDebug(info->vm_info, info, "PTE mapped to =%p\n", (void *)host_addr);
+            PrintDebug(info->vm_info, info, "PTE is =%llx\n", *(uint64_t *)&(pte[pte_index]));
        } else {
-           PrintError("Unknown Region Type...\n");
-           return -1;
+           return region->unhandled(info, fault_addr, fault_addr, region, error_code);
        }
+    } else {
+       return region->unhandled(info, fault_addr, fault_addr, region, error_code);
     }
    
-    if ( (region->host_type == SHDW_REGION_WRITE_HOOK) && 
-        (error_code.write == 1) ) {
-       return v3_handle_mem_wr_hook(info, fault_addr, fault_addr, region, error_code);
+    PrintDebug(info->vm_info, info, "Handler ends with fault address=%p\n", (void *)fault_addr);
+
+    return 0;
+}
+
+
+static inline int invalidate_addr_32pae_internal(struct guest_info * info, addr_t inv_addr,
+                                                addr_t *actual_start, uint64_t *actual_size) {
+    pdpe32pae_t * pdpe = NULL;
+    pde32pae_t * pde = NULL;
+    pte32pae_t * pte = NULL;
+
+
+    // TODO:
+    // Call INVLPGA
+
+    // clear the page table entry
+    int pdpe_index = PDPE32PAE_INDEX(inv_addr);
+    int pde_index = PDE32PAE_INDEX(inv_addr);
+    int pte_index = PTE32PAE_INDEX(inv_addr);
+
+    
+    // Lookup the correct PDE address based on the PAGING MODE
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       pdpe = CR3_TO_PDPE32PAE_VA(info->ctrl_regs.cr3);
+    } else {
+       pdpe = CR3_TO_PDPE32PAE_VA(info->direct_map_pt);
+    }    
+
+
+    if (pdpe[pdpe_index].present == 0) {
+        *actual_start = BASE_TO_PAGE_ADDR_1GB(PAGE_BASE_ADDR_1GB(inv_addr));
+        *actual_size = PAGE_SIZE_1GB;
+       return 0;
+    }
+
+    pde = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pdpe[pdpe_index].pd_base_addr));
+
+    if (pde[pde_index].present == 0) {
+        *actual_start = BASE_TO_PAGE_ADDR_2MB(PAGE_BASE_ADDR_2MB(inv_addr));
+        *actual_size = PAGE_SIZE_2MB;
+       return 0;
+    } else if (pde[pde_index].large_page) {
+       pde[pde_index].present = 0;
+        *actual_start = BASE_TO_PAGE_ADDR_2MB(PAGE_BASE_ADDR_2MB(inv_addr));
+        *actual_size = PAGE_SIZE_2MB;
+       return 0;
     }
 
+    pte = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pde[pde_index].pt_base_addr));
+
+    pte[pte_index].present = 0;
+
+    *actual_start = BASE_TO_PAGE_ADDR_4KB(PAGE_BASE_ADDR_4KB(inv_addr));
+    *actual_size = PAGE_SIZE_4KB;
     return 0;
 }
 
 
+
+static inline int invalidate_addr_32pae(struct guest_info * core, addr_t inv_addr)
+{
+  addr_t start;
+  uint64_t len;
+  
+  return invalidate_addr_32pae_internal(core,inv_addr,&start,&len);
+}
+   
+static inline int invalidate_addr_32pae_range(struct guest_info * core, addr_t inv_addr_start, addr_t inv_addr_end)
+{
+  addr_t next;
+  addr_t start;
+  uint64_t len;
+  int rc;
+  
+  for (next=inv_addr_start; next<=inv_addr_end; ) {
+    rc = invalidate_addr_32pae_internal(core,next,&start, &len);
+    if (rc) { 
+      return rc;
+    }
+    next = start + len;
+  }
+  return 0;
+}
+
 #endif