Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


various fixes. Hopefully this fixes the transient shutdown bug...
Jack Lange [Thu, 23 Apr 2009 22:55:52 +0000 (17:55 -0500)]
The fix is to move the exception injection above the pending irq injection.
More might be needed to handle stacking exceptions...

palacios/build/Makefile
palacios/src/palacios/svm.c
palacios/src/palacios/svm_handler.c
palacios/src/palacios/vmm_ctrl_regs.c
palacios/src/palacios/vmm_direct_paging.c
palacios/src/palacios/vmm_mem.c
palacios/src/palacios/vmm_shadow_paging.c
palacios/src/palacios/vmm_shadow_paging_32.h
palacios/src/palacios/vmm_shadow_paging_64.h

index 7319a6f..b1a0b4e 100644 (file)
@@ -342,8 +342,8 @@ DEVICES_OBJS := \
        devices/ram_hd.o \
        devices/i440fx.o \
        devices/piix3.o \
-       devices/ne2k.o  \
 
+#      devices/ne2k.o  \
 #      devices/cdrom.o \
 #      devices/ramdisk.o \
 #      devices/vnic.o \
index 0a9dc55..d617b61 100644 (file)
@@ -205,6 +205,9 @@ static void Init_VMCB_BIOS(vmcb_t * vmcb, struct guest_info *vm_info) {
     if (vm_info->shdw_pg_mode == SHADOW_PAGING) {
        PrintDebug("Creating initial shadow page table\n");
        
+       /* JRL: This is a performance killer, and a simplistic solution */
+       /* We need to fix this */
+       ctrl_area->TLB_CONTROL = 1;
        ctrl_area->guest_ASID = 1;
        
        
@@ -237,9 +240,7 @@ static void Init_VMCB_BIOS(vmcb_t * vmcb, struct guest_info *vm_info) {
 
        ctrl_area->exceptions.pf = 1;
 
-       /* JRL: This is a performance killer, and a simplistic solution */
-       /* We need to fix this */
-       ctrl_area->TLB_CONTROL = 1;
+
 
        guest_state->g_pat = 0x7040600070406ULL;
 
index 7d6b61b..5535a6f 100644 (file)
@@ -71,6 +71,8 @@ int v3_handle_svm_exit(struct guest_info * info) {
     exit_code = guest_ctrl->exit_code;
 
 
+    //  PrintDebug("SVM Exit: %s (rip=%p)\n", vmexit_code_to_str(exit_code), (void *)info->rip);
+
     if ((info->intr_state.irq_pending == 1) && (guest_ctrl->guest_ctrl.V_IRQ == 0)) {
 
 #ifdef DEBUG_INTERRUPTS
@@ -342,7 +344,7 @@ int v3_handle_svm_exit(struct guest_info * info) {
            
            
            if (info->shdw_pg_mode == SHADOW_PAGING) {
-               PrintHostPageTables(info, info->ctrl_regs.cr3);
+               //      PrintHostPageTables(info, info->ctrl_regs.cr3);
                //PrintGuestPageTables(info, info->shdw_pg_state.guest_cr3);
            }
            
@@ -356,20 +358,12 @@ int v3_handle_svm_exit(struct guest_info * info) {
        rdtscll(info->profiler.end_time);
        v3_profile_exit(info, exit_code);
     }
-      
 
 
     // Update the low level state
-    if (info->intr_state.irq_pending == 1) {
-
-       guest_ctrl->guest_ctrl.V_IRQ = 1;
-       guest_ctrl->guest_ctrl.V_INTR_VECTOR = info->intr_state.irq_vector;
-       guest_ctrl->guest_ctrl.V_IGN_TPR = 1;
-       guest_ctrl->guest_ctrl.V_INTR_PRIO = 0xf;
-
-    } else if (v3_excp_pending(info)) {
+    if (v3_excp_pending(info)) {
        uint_t excp = v3_get_excp_number(info);
-               
+       
        guest_ctrl->EVENTINJ.type = SVM_INJECTION_EXCEPTION;
        
        if (info->excp_state.excp_error_code_valid) {
@@ -389,6 +383,15 @@ int v3_handle_svm_exit(struct guest_info * info) {
                   (void *)(addr_t)info->rip);
 #endif
        v3_injecting_excp(info, excp);
+    } else if (info->intr_state.irq_pending == 1) {
+#ifdef DEBUG_INTERRUPTS
+       PrintDebug("IRQ pending from previous injection\n");
+#endif
+       guest_ctrl->guest_ctrl.V_IRQ = 1;
+       guest_ctrl->guest_ctrl.V_INTR_VECTOR = info->intr_state.irq_vector;
+       guest_ctrl->guest_ctrl.V_IGN_TPR = 1;
+       guest_ctrl->guest_ctrl.V_INTR_PRIO = 0xf;
+
     } else if (v3_intr_pending(info)) {
 
        switch (v3_get_intr_type(info)) {
@@ -430,6 +433,8 @@ int v3_handle_svm_exit(struct guest_info * info) {
                return -1;
        }
        
+    } else {
+       //PrintDebug("Not interrupts or exceptions pending\n");
     }
 
 
index bdb6e12..bc768ac 100644 (file)
@@ -140,7 +140,7 @@ static int handle_mov_to_cr0(struct guest_info * info, struct x86_instr * dec_in
                PrintError("Failed to activate shadow page tables\n");
                return -1;
            }
-       } else  {
+       } else {
            
            if (v3_activate_passthrough_pt(info) == -1) {
                PrintError("Failed to activate passthrough page tables\n");
@@ -495,6 +495,7 @@ int v3_handle_cr4_write(struct guest_info * info) {
                    
                } else if ((cr4->pae == 1) && (new_cr4->pae == 0)) {
                    // Create passthrough standard 32bit pagetables
+                   PrintError("Switching From PAE to Protected mode not supported\n");
                    return -1;
                } 
            }
@@ -512,7 +513,7 @@ int v3_handle_cr4_write(struct guest_info * info) {
        
        if (new_cr4->pae == 0) {
            // cannot turn off PAE in long mode GPF the guest
-           PrintError("Cannot disable PAE in long mode, sending GPF\n");
+           PrintError("Cannot disable PAE in long mode, should send GPF\n");
            return -1;
        }
        
index e50a458..674fc56 100644 (file)
@@ -111,10 +111,10 @@ int v3_handle_passthrough_pagefault(struct guest_info * info, addr_t fault_addr,
 
 
 int v3_handle_nested_pagefault(struct guest_info * info, addr_t fault_addr, pf_error_t error_code) {
-    v3_cpu_mode_t mode = v3_get_host_cpu_mode()
+    v3_cpu_mode_t mode = v3_get_host_cpu_mode();
 
 
-    PrintDebug("Nested PageFault: fault_addr=%p, error_code=%u\n",(void*)fault_addr, *(uint_t *)&error_code);
+    PrintDebug("Nested PageFault: fault_addr=%p, error_code=%u\n", (void *)fault_addr, *(uint_t *)&error_code);
 
     switch(mode) {
        case REAL:
index 2bdf5aa..182e563 100644 (file)
@@ -49,11 +49,15 @@ void v3_init_shadow_map(struct guest_info * info) {
     map->hook_hva = (addr_t)V3_VAddr(V3_AllocPages(1));
 
     // There is an underlying region that contains all of the guest memory
+    // PrintDebug("Mapping %d pages of memory (%u bytes)\n", (int)mem_pages, (uint_t)info->mem_size);
+
     map->base_region.guest_start = 0;
-    map->base_region.guest_end = info->mem_size;
+    map->base_region.guest_end = mem_pages * PAGE_SIZE_4KB;
     map->base_region.host_type = SHDW_REGION_ALLOCATED;
     map->base_region.host_addr = (addr_t)V3_AllocPages(mem_pages);
 
+    //memset(V3_VAddr((void *)map->base_region.host_addr), 0xffffffff, map->base_region.guest_end);
+
     v3_register_hypercall(info, MEM_OFFSET_HCALL, mem_offset_hypercall, NULL);
 }
 
@@ -381,7 +385,7 @@ addr_t v3_get_shadow_addr(struct v3_shadow_region * reg, addr_t guest_addr) {
          (reg->host_type != SHDW_REGION_FULL_HOOK)) {
         return (guest_addr - reg->guest_start) + reg->host_addr;
     } else {
-        PrintDebug("MEM Region Invalid\n");
+        PrintError("MEM Region Invalid\n");
         return 0;
     }
 
index b2d3b6c..0cc5dc5 100644 (file)
@@ -51,7 +51,7 @@ struct shadow_page_data {
 
 
 static struct shadow_page_data * create_new_shadow_pt(struct guest_info * info);
-static void inject_guest_pf(struct guest_info * info, addr_t fault_addr, pf_error_t error_code);
+static int inject_guest_pf(struct guest_info * info, addr_t fault_addr, pf_error_t error_code);
 static int is_guest_pf(pt_access_status_t guest_access, pt_access_status_t shadow_access);
 
 
@@ -235,13 +235,13 @@ static struct shadow_page_data * create_new_shadow_pt(struct guest_info * info)
 }
 
 
-static void inject_guest_pf(struct guest_info * info, addr_t fault_addr, pf_error_t error_code) {
+static int inject_guest_pf(struct guest_info * info, addr_t fault_addr, pf_error_t error_code) {
     if (info->enable_profiler) {
        info->profiler.guest_pf_cnt++;
     }
 
     info->ctrl_regs.cr2 = fault_addr;
-    v3_raise_exception_with_error(info, PF_EXCEPTION, *(uint_t *)&error_code);
+    return v3_raise_exception_with_error(info, PF_EXCEPTION, *(uint_t *)&error_code);
 }
 
 
index d60eb9f..bc83a7c 100644 (file)
@@ -27,7 +27,7 @@ static inline int activate_shadow_pt_32(struct guest_info * info) {
 
     shdw_page->cr3 = shdw_page->page_pa;
     
-    shadow_cr3->pdt_base_addr = PAGE_BASE_ADDR(shdw_page->page_pa);
+    shadow_cr3->pdt_base_addr = PAGE_BASE_ADDR_4KB(shdw_page->page_pa);
     PrintDebug( "Created new shadow page table %p\n", (void *)BASE_TO_PAGE_ADDR(shadow_cr3->pdt_base_addr));
   
     shadow_cr3->pwt = guest_cr3->pwt;
@@ -43,15 +43,11 @@ static inline int activate_shadow_pt_32(struct guest_info * info) {
  * *
  * *
  */
-static int handle_large_pagefault_32(struct guest_info * info, 
-                                    addr_t fault_addr, pf_error_t error_code, 
-                                    pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde);
+static int handle_4MB_shadow_pagefault_32(struct guest_info * info,  addr_t fault_addr, pf_error_t error_code, 
+                                         pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde);
 
-static int handle_shadow_pte32_fault(struct guest_info * info, 
-                                    addr_t fault_addr, 
-                                    pf_error_t error_code,
-                                    pte32_t * shadow_pt, 
-                                    pte32_t * guest_pt);
+static int handle_pte_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code,
+                                         pte32_t * shadow_pt,  pte32_t * guest_pt);
 
 
 static inline int handle_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code) {
@@ -64,6 +60,7 @@ static inline int handle_shadow_pagefault_32(struct guest_info * info, addr_t fa
     pde32_t * shadow_pde = (pde32_t *)&(shadow_pd[PDE32_INDEX(fault_addr)]);
 
     PrintDebug("Shadow page fault handler: %p\n", (void*) fault_addr );
+    PrintDebug("Handling PDE32 Fault\n");
 
     if (guest_pa_to_host_va(info, guest_cr3, (addr_t*)&guest_pd) == -1) {
        PrintError("Invalid Guest PDE Address: 0x%p\n",  (void *)guest_cr3);
@@ -83,235 +80,119 @@ static inline int handle_shadow_pagefault_32(struct guest_info * info, addr_t fa
     if (is_guest_pf(guest_pde_access, shadow_pde_access) == 1) {
        PrintDebug("Injecting PDE pf to guest: (guest access error=%d) (pf error code=%d)\n", 
                   *(uint_t *)&guest_pde_access, *(uint_t *)&error_code);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     }
 
-  
-    if (shadow_pde_access == PT_ACCESS_NOT_PRESENT) 
-       {
-           struct shadow_page_data * shdw_page =  create_new_shadow_pt(info);
-           pte32_t * shadow_pt = (pte32_t *)V3_VAddr((void *)shdw_page->page_pa);
-
-           shadow_pde->present = 1;
-           shadow_pde->user_page = guest_pde->user_page;
-           //    shadow_pde->large_page = guest_pde->large_page;
-           shadow_pde->large_page = 0;
-      
-
-           // VMM Specific options
-           shadow_pde->write_through = guest_pde->write_through;
-           shadow_pde->cache_disable = guest_pde->cache_disable;
-           shadow_pde->global_page = guest_pde->global_page;
-           //
-      
-           guest_pde->accessed = 1;
-      
-           shadow_pde->pt_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(shadow_pt));
-      
-           if (guest_pde->large_page == 0) {
-               pte32_t * guest_pt = NULL;
-               shadow_pde->writable = guest_pde->writable;
-
-               if (guest_pa_to_host_va(info, BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr), (addr_t*)&guest_pt) == -1) {
-                   // Machine check the guest
-                   PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
-                   v3_raise_exception(info, MC_EXCEPTION);
-                   return 0;
-               }
-
-               if (handle_shadow_pte32_fault(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
-                   PrintError("Error handling Page fault caused by PTE\n");
-                   return -1;
-               }
-           } else {
-               // ??  What if guest pde is dirty a this point?
-               ((pde32_4MB_t *)guest_pde)->dirty = 0;
-               shadow_pde->writable = 0;
-
-               if (handle_large_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
-                   PrintError("Error handling large pagefault\n");
-                   return -1;
-               }       
 
-           }
-       }
-    else if (shadow_pde_access == PT_ACCESS_OK) 
-       {
-           //
-           // PTE fault
-           //
-           pte32_t * shadow_pt = (pte32_t *)V3_VAddr( (void*)(addr_t) BASE_TO_PAGE_ADDR(shadow_pde->pt_base_addr) );
-
-           if (guest_pde->large_page == 0) {
-               pte32_t * guest_pt = NULL;
 
-               if (guest_pa_to_host_va(info, BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr), (addr_t*)&guest_pt) == -1) {
-                   // Machine check the guest
-                   PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
-                   v3_raise_exception(info, MC_EXCEPTION);
-                   return 0;
-               }
+    if (shadow_pde_access == PT_ACCESS_USER_ERROR) {
+       // 
+       // PDE Entry marked non user
+       //
+       PrintDebug("Shadow Paging User access error (shadow_pde_access=0x%x, guest_pde_access=0x%x)\n", 
+                  shadow_pde_access, guest_pde_access);
        
-               if (handle_shadow_pte32_fault(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
-                   PrintError("Error handling Page fault caused by PTE\n");
-                   return -1;
-               }
-           } else if (guest_pde->large_page == 1) {
-               if (handle_large_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
-                   PrintError("Error handling large pagefault\n");
-                   return -1;
-               }
-           }
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
        }
-    else if ((shadow_pde_access == PT_ACCESS_WRITE_ERROR) && 
-            (guest_pde->large_page == 1)) 
-       {
-           //
-           // Page Directory Entry marked read-only
-           // Its a large page and we need to update the dirty bit in the guest
-           //
-
-           PrintDebug("Large page write error... Setting dirty bit and returning\n");
-           ((pde32_4MB_t *)guest_pde)->dirty = 1;
-           shadow_pde->writable = guest_pde->writable;
-           return 0;
-      
-       } 
-    else if (shadow_pde_access == PT_ACCESS_USER_ERROR) 
-       {
-           //
-           // Page Directory Entry marked non-user
-           //      
-           PrintDebug("Shadow Paging User access error (shadow_pde_access=0x%x, guest_pde_access=0x%x)\n", 
-                      shadow_pde_access, guest_pde_access);
-           inject_guest_pf(info, fault_addr, error_code);
-           return 0;
-       }
-    else 
-       {
-           // inject page fault in guest
-           inject_guest_pf(info, fault_addr, error_code);
-           PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pde_access);
-           PrintDebug("Manual Says to inject page fault into guest\n");
-#ifdef DEBUG_SHADOW_PAGING
-           PrintDebug("Guest PDE: (access=%d)\n\t", guest_pde_access);
-           PrintPTEntry(info, PAGE_PD32, fault_addr, guest_pde);
-           PrintDebug("Shadow PDE: (access=%d)\n\t", shadow_pde_access);
-           PrintPTEntry(info, PAGE_PD32, fault_addr, shadow_pde);
-#endif
-
-           return 0; 
+       return 0;
+    } else if ((shadow_pde_access == PT_ACCESS_WRITE_ERROR) && 
+              (guest_pde->large_page == 1)) {
+       
+       ((pde32_4MB_t *)guest_pde)->dirty = 1;
+       shadow_pde->writable = guest_pde->writable;
+       return 0;
+    } else if ((shadow_pde_access != PT_ACCESS_NOT_PRESENT) &&
+              (shadow_pde_access != PT_ACCESS_OK)) {
+       // inject page fault in guest
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
        }
-
-    PrintDebug("Returning end of PDE function (rip=%p)\n", (void *)(addr_t)(info->rip));
-    return 0;
-}
-
-
-
-/* The guest status checks have already been done,
- * only special case shadow checks remain
- */
-static int handle_large_pagefault_32(struct guest_info * info, 
-                                    addr_t fault_addr, pf_error_t error_code, 
-                                    pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde) 
-{
-    pt_access_status_t shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
-    pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
-    addr_t guest_fault_pa = BASE_TO_PAGE_ADDR_4MB(large_guest_pde->page_base_addr) + PAGE_OFFSET_4MB(fault_addr);  
-
-    struct v3_shadow_region * shdw_reg = v3_get_shadow_region(info, guest_fault_pa);
-
-    if (shdw_reg == NULL) {
-       // Inject a machine check in the guest
-       PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_fault_pa);
-       v3_raise_exception(info, MC_EXCEPTION);
-       return -1;
-    }
-
-    if (shadow_pte_access == PT_ACCESS_OK) {
-       // Inconsistent state...
-       // Guest Re-Entry will flush tables and everything should now workd
-       PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
+       PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pde_access);
+       PrintDebug("Manual Says to inject page fault into guest\n");
        return 0;
     }
 
   
-    if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
-       // Get the guest physical address of the fault
+    pte32_t * shadow_pt = NULL;
+    pte32_t * guest_pt = NULL;
 
-       if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) || 
-           (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
-           addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_fault_pa);
+    // Get the next shadow page level, allocate if not present
 
-           shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
-
-           shadow_pte->present = 1;
+    if (shadow_pde_access == PT_ACCESS_NOT_PRESENT) {
+       struct shadow_page_data * shdw_page =  create_new_shadow_pt(info);
+       shadow_pt = (pte32_t *)V3_VAddr((void *)shdw_page->page_pa);
 
-           /* We are assuming that the PDE entry has precedence
-            * so the Shadow PDE will mirror the guest PDE settings, 
-            * and we don't have to worry about them here
-            * Allow everything
-            */
-           shadow_pte->user_page = 1;
+       shadow_pde->present = 1;
+       shadow_pde->user_page = guest_pde->user_page;
 
-           if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
-               shadow_pte->writable = 0;
-           } else {
-               shadow_pte->writable = 1;
-           }
 
-           //set according to VMM policy
-           shadow_pte->write_through = large_guest_pde->write_through;
-           shadow_pte->cache_disable = large_guest_pde->cache_disable;
-           shadow_pte->global_page = large_guest_pde->global_page;
-           //
-      
+       if (guest_pde->large_page == 0) {
+           shadow_pde->writable = guest_pde->writable;
        } else {
-           // Handle hooked pages as well as other special pages
-           //      if (handle_special_page_fault(info, fault_addr, guest_fault_pa, error_code) == -1) {
+           // This large page flag is temporary until we can get a working cache....
+           ((pde32_4MB_t *)guest_pde)->vmm_info = V3_LARGE_PG;
 
-           if (v3_handle_mem_full_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
-               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
-               return -1;
+           if (error_code.write) {
+               shadow_pde->writable = guest_pde->writable;
+               ((pde32_4MB_t *)guest_pde)->dirty = 1;
+           } else {
+               shadow_pde->writable = 0;
+               ((pde32_4MB_t *)guest_pde)->dirty = 0;
            }
        }
-    } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
+      
 
-       if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+       // VMM Specific options
+       shadow_pde->write_through = guest_pde->write_through;
+       shadow_pde->cache_disable = guest_pde->cache_disable;
+       shadow_pde->global_page = guest_pde->global_page;
+       //
+      
+       guest_pde->accessed = 1;
+      
 
-           if (v3_handle_mem_wr_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
-               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
-               return -1;
-           }
-       }
 
 
+       shadow_pde->pt_base_addr = PAGE_BASE_ADDR(shdw_page->page_pa);
+    } else {
+       shadow_pt = (pte32_t *)V3_VAddr((void *)BASE_TO_PAGE_ADDR(shadow_pde->pt_base_addr));
+    }
+
 
+      
+    if (guest_pde->large_page == 0) {
+       if (guest_pa_to_host_va(info, BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr), (addr_t*)&guest_pt) == -1) {
+           // Machine check the guest
+           PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
+           v3_raise_exception(info, MC_EXCEPTION);
+           return 0;
+       }
 
+       if (handle_pte_shadow_pagefault_32(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
+           PrintError("Error handling Page fault caused by PTE\n");
+           return -1;
+       }
     } else {
-       PrintError("Error in large page fault handler...\n");
-       PrintError("This case should have been handled at the top level handler\n");
-       return -1;
+       if (handle_4MB_shadow_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
+           PrintError("Error handling large pagefault\n");
+           return -1;
+       }       
     }
 
-    PrintDebug("Returning from large page fault handler\n");
     return 0;
 }
 
 
 
-
-/* 
- * We assume the the guest pte pointer has already been translated to a host virtual address
- */
-static int handle_shadow_pte32_fault(struct guest_info * info, 
-                                    addr_t fault_addr, 
-                                    pf_error_t error_code,
-                                    pte32_t * shadow_pt, 
-                                    pte32_t * guest_pt) {
+static int handle_pte_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code,
+                                         pte32_t * shadow_pt, pte32_t * guest_pt) {
 
     pt_access_status_t guest_pte_access;
     pt_access_status_t shadow_pte_access;
@@ -334,18 +215,18 @@ static int handle_shadow_pte32_fault(struct guest_info * info,
     // Check the shadow page permissions
     shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
   
-#ifdef DEBUG_SHADOW_PAGING
-    PrintDebug("Guest PTE: (access=%d)\n\t", guest_pte_access);
-    PrintPTEntry(info, PAGE_PT32, fault_addr, guest_pte);
-    PrintDebug("Shadow PTE: (access=%d)\n\t", shadow_pte_access);
-    PrintPTEntry(info, PAGE_PT32, fault_addr, shadow_pte);
-#endif
   
     /* Was the page fault caused by the Guest's page tables? */
     if (is_guest_pf(guest_pte_access, shadow_pte_access) == 1) {
+
        PrintDebug("Access error injecting pf to guest (guest access error=%d) (pf error code=%d)\n", 
-                  guest_pte_access, *(uint_t*)&error_code);    
-       inject_guest_pf(info, fault_addr, error_code);
+                  guest_pte_access, *(uint_t*)&error_code);
+
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+
        return 0; 
     }
 
@@ -368,6 +249,8 @@ static int handle_shadow_pte32_fault(struct guest_info * info,
            addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_pa);
       
            shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
+
+           PrintDebug("\tMapping shadow page (%p)\n", (void *)BASE_TO_PAGE_ADDR(shadow_pte->page_base_addr));
       
            shadow_pte->present = guest_pte->present;
            shadow_pte->user_page = guest_pte->user_page;
@@ -422,18 +305,120 @@ static int handle_shadow_pte32_fault(struct guest_info * info,
 
     } else {
        // Inject page fault into the guest     
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+
        PrintError("PTE Page fault fell through... Not sure if this should ever happen\n");
        PrintError("Manual Says to inject page fault into guest\n");
        return -1;
     }
 
-    PrintDebug("Returning end of function\n");
     return 0;
 }
 
 
 
+static int handle_4MB_shadow_pagefault_32(struct guest_info * info, 
+                                    addr_t fault_addr, pf_error_t error_code, 
+                                    pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde) 
+{
+    pt_access_status_t shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
+    pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
+    addr_t guest_fault_pa = BASE_TO_PAGE_ADDR_4MB(large_guest_pde->page_base_addr) + PAGE_OFFSET_4MB(fault_addr);  
+
+
+    PrintDebug("Handling 4MB fault (guest_fault_pa=%p) (error_code=%x)\n", (void *)guest_fault_pa, *(uint_t*)&error_code);
+    PrintDebug("ShadowPT=%p, LargeGuestPDE=%p\n", shadow_pt, large_guest_pde);
+
+    struct v3_shadow_region * shdw_reg = v3_get_shadow_region(info, guest_fault_pa);
+
+    if (shdw_reg == NULL) {
+       // Inject a machine check in the guest
+       PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_fault_pa);
+       v3_raise_exception(info, MC_EXCEPTION);
+       return -1;
+    }
+
+    if (shadow_pte_access == PT_ACCESS_OK) {
+       // Inconsistent state...
+       // Guest Re-Entry will flush tables and everything should now workd
+       PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
+       return 0;
+    }
+
+  
+    if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
+       // Get the guest physical address of the fault
+
+       if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) || 
+           (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
+           addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_fault_pa);
+
+           shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
+
+           PrintDebug("\tMapping shadow page (%p)\n", (void *)BASE_TO_PAGE_ADDR(shadow_pte->page_base_addr));
+
+           shadow_pte->present = 1;
+
+           /* We are assuming that the PDE entry has precedence
+            * so the Shadow PDE will mirror the guest PDE settings, 
+            * and we don't have to worry about them here
+            * Allow everything
+            */
+           shadow_pte->user_page = 1;
+
+           if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+               shadow_pte->writable = 0;
+           } else {
+               shadow_pte->writable = 1;
+           }
+
+           //set according to VMM policy
+           shadow_pte->write_through = large_guest_pde->write_through;
+           shadow_pte->cache_disable = large_guest_pde->cache_disable;
+           shadow_pte->global_page = large_guest_pde->global_page;
+           //
+      
+       } else {
+           if (v3_handle_mem_full_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
+               return -1;
+           }
+       }
+    } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
+
+       if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+
+           if (v3_handle_mem_wr_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
+               return -1;
+           }
+       }
+
+    } else {
+       PrintError("Error in large page fault handler...\n");
+       PrintError("This case should have been handled at the top level handler\n");
+       return -1;
+    }
+
+    PrintDebug("Returning from large page fault handler\n");
+    return 0;
+}
+
+
+
+
+
+
+
+
+
+
+
+
 /* If we start to optimize we should look up the guest pages in the cache... */
 static inline int handle_shadow_invlpg_32(struct guest_info * info, addr_t vaddr) {
     pde32_t * shadow_pd = (pde32_t *)CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
index 5bcf9c9..8ba9841 100644 (file)
@@ -96,7 +96,10 @@ static inline int handle_shadow_pagefault_64(struct guest_info * info, addr_t fa
     if (is_guest_pf(guest_pml4e_access, shadow_pml4e_access) == 1) {
        PrintDebug("Injecting PML4E pf to guest: (guest access error=%d) (pf error code=%d)\n", 
                   *(uint_t *)&guest_pml4e_access, *(uint_t *)&error_code);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     }
 
@@ -106,12 +109,18 @@ static inline int handle_shadow_pagefault_64(struct guest_info * info, addr_t fa
        //      
        PrintDebug("Shadow Paging User access error (shadow_pml4e_access=0x%x, guest_pml4e_access=0x%x)\n", 
                   shadow_pml4e_access, guest_pml4e_access);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     } else if ((shadow_pml4e_access != PT_ACCESS_NOT_PRESENT) &&
               (shadow_pml4e_access != PT_ACCESS_OK)) {
        // inject page fault in guest
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pml4e_access);
        PrintDebug("Manual Says to inject page fault into guest\n");
        return 0;
@@ -187,7 +196,10 @@ static int handle_pdpe_shadow_pagefault_64(struct guest_info * info, addr_t faul
     if (is_guest_pf(guest_pdpe_access, shadow_pdpe_access) == 1) {
        PrintDebug("Injecting PDPE pf to guest: (guest access error=%d) (pf error code=%d)\n", 
                   *(uint_t *)&guest_pdpe_access, *(uint_t *)&error_code);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     }
 
@@ -197,12 +209,18 @@ static int handle_pdpe_shadow_pagefault_64(struct guest_info * info, addr_t faul
        //      
        PrintDebug("Shadow Paging User access error (shadow_pdpe_access=0x%x, guest_pdpe_access=0x%x)\n", 
                   shadow_pdpe_access, guest_pdpe_access);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     } else if ((shadow_pdpe_access != PT_ACCESS_NOT_PRESENT) &&
               (shadow_pdpe_access != PT_ACCESS_OK)) {
        // inject page fault in guest
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pdpe_access);
        PrintDebug("Manual Says to inject page fault into guest\n");
        return 0;
@@ -270,7 +288,10 @@ static int handle_pde_shadow_pagefault_64(struct guest_info * info, addr_t fault
     if (is_guest_pf(guest_pde_access, shadow_pde_access) == 1) {
        PrintDebug("Injecting PDE pf to guest: (guest access error=%d) (pf error code=%d)\n", 
                   *(uint_t *)&guest_pde_access, *(uint_t *)&error_code);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
     }
 
@@ -280,7 +301,10 @@ static int handle_pde_shadow_pagefault_64(struct guest_info * info, addr_t fault
        //      
        PrintDebug("Shadow Paging User access error (shadow_pdpe_access=0x%x, guest_pdpe_access=0x%x)\n", 
                   shadow_pde_access, guest_pde_access);
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        return 0;
 
     } else if ((shadow_pde_access == PT_ACCESS_WRITE_ERROR) && 
@@ -296,7 +320,10 @@ static int handle_pde_shadow_pagefault_64(struct guest_info * info, addr_t fault
     } else if ((shadow_pde_access != PT_ACCESS_NOT_PRESENT) &&
               (shadow_pde_access != PT_ACCESS_OK)) {
        // inject page fault in guest
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pde_access);
        PrintDebug("Manual Says to inject page fault into guest\n");
        return 0;
@@ -400,9 +427,15 @@ static int handle_pte_shadow_pagefault_64(struct guest_info * info, addr_t fault
 
     /* Was the page fault caused by the Guest's page tables? */
     if (is_guest_pf(guest_pte_access, shadow_pte_access) == 1) {
+
        PrintDebug("Access error injecting pf to guest (guest access error=%d) (pf error code=%d)\n", 
                   guest_pte_access, *(uint_t*)&error_code);    
-       inject_guest_pf(info, fault_addr, error_code);
+
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+
        return 0; 
     }
 
@@ -445,15 +478,6 @@ static int handle_pte_shadow_pagefault_64(struct guest_info * info, addr_t fault
                shadow_pte->writable = 0;
            }
 
-           // dirty flag has been set, check if its in the cache
-           /*       if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_pa)) != NULL) { */
-           /*  if (error_code.write == 1) { */
-           /*    state->cached_cr3 = 0; */
-           /*    shadow_pte->writable = guest_pte->writable; */
-           /*  } else { */
-           /*    shadow_pte->writable = 0; */
-           /*  } */
-           /*       } */
 
            // Write hooks trump all, and are set Read Only
            if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
@@ -481,17 +505,15 @@ static int handle_pte_shadow_pagefault_64(struct guest_info * info, addr_t fault
            shadow_pte->writable = guest_pte->writable;
        }
 
-       /*     if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_pa)) != NULL) { */
-       /*       struct shadow_page_state * state = &(info->shdw_pg_state); */
-       /*       PrintDebug("Write operation on Guest PAge Table Page\n"); */
-       /*       state->cached_cr3 = 0; */
-       /*     } */
 
        return 0;
 
     } else {
        // Inject page fault into the guest     
-       inject_guest_pf(info, fault_addr, error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
        PrintError("PTE Page fault fell through... Not sure if this should ever happen\n");
        PrintError("Manual Says to inject page fault into guest\n");
        return -1;
@@ -540,10 +562,7 @@ static int handle_2MB_shadow_pagefault_64(struct guest_info * info,
            (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
            addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_fault_pa);
 
-           PrintDebug("Shadow PA=%p, ShadowPTE=%p\n", (void *)shadow_pa, (void *)shadow_pte);
-
            shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
-           PrintDebug("Test1\n");
 
            shadow_pte->present = 1;
 
@@ -554,13 +573,7 @@ static int handle_2MB_shadow_pagefault_64(struct guest_info * info,
             */
            shadow_pte->user_page = 1;
 
-
-
-           /*       if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_fault_pa)) != NULL) { */
-           /*  // Check if the entry is a page table... */
-                /*     PrintDebug("Marking page as Guest Page Table (large page)\n"); */
-                /*     shadow_pte->writable = 0; */
-                /*       } else */ if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+           if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
                shadow_pte->writable = 0;
            } else {
                shadow_pte->writable = 1;
@@ -573,9 +586,6 @@ static int handle_2MB_shadow_pagefault_64(struct guest_info * info,
            //
       
        } else {
-           // Handle hooked pages as well as other special pages
-           //      if (handle_special_page_fault(info, fault_addr, guest_fault_pa, error_code) == -1) {
-
            if (v3_handle_mem_full_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
                PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
                return -1;
@@ -591,14 +601,6 @@ static int handle_2MB_shadow_pagefault_64(struct guest_info * info,
            }
        }
 
-
-       /*     if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_fault_pa)) != NULL) { */
-       /*       struct shadow_page_state * state = &(info->shdw_pg_state); */
-       /*       PrintDebug("Write operation on Guest PAge Table Page (large page)\n"); */
-       /*       state->cached_cr3 = 0; */
-       /*       shadow_pte->writable = 1; */
-       /*     } */
-
     } else {
        PrintError("Error in large page fault handler...\n");
        PrintError("This case should have been handled at the top level handler\n");