Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


symbiotic swap updates
[palacios.git] / palacios / src / palacios / vmm_shadow_paging_32.h
index 28e718e..03e1f7a 100644 (file)
@@ -1,84 +1,48 @@
+/* 
+ * This file is part of the Palacios Virtual Machine Monitor developed
+ * by the V3VEE Project with funding from the United States National 
+ * Science Foundation and the Department of Energy.  
+ *
+ * The V3VEE Project is a joint project between Northwestern University
+ * and the University of New Mexico.  You can find out more at 
+ * http://www.v3vee.org
+ *
+ * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
+ * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
+ * All rights reserved.
+ *
+ * Author: Jack Lange <jarusl@cs.northwestern.edu>
+ *
+ * This is free software.  You are permitted to use,
+ * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
+ */
 
-static int cache_page_tables_32(struct guest_info * info, addr_t pde) {
-  struct shadow_page_state * state = &(info->shdw_pg_state);
-  addr_t pde_host_addr;
-  pde32_t * tmp_pde;
-  struct hashtable * pte_cache = NULL;
-  int i = 0;
-
-  if (pde == state->cached_cr3) {
-    return 1;
-  }
-
-  if (state->cached_ptes != NULL) {
-    hashtable_destroy(state->cached_ptes, 0, 0);
-    state->cached_ptes = NULL;
-  }
-
-  state->cached_cr3 = pde;
-
-  pte_cache = create_hashtable(0, &pte_hash_fn, &pte_equals);
-  state->cached_ptes = pte_cache;
-
-  if (guest_pa_to_host_va(info, pde, &pde_host_addr) == -1) {
-    PrintError("Could not lookup host address of guest PDE\n");
-    return -1;
-  }
-
-  tmp_pde = (pde32_t *)pde_host_addr;
-
-  add_pte_map(pte_cache, pde, pde_host_addr);
-
-
-  for (i = 0; i < MAX_PDE32_ENTRIES; i++) {
-    if ((tmp_pde[i].present) && (tmp_pde[i].large_page == 0)) {
-      addr_t pte_host_addr;
-
-      if (guest_pa_to_host_va(info, (addr_t)(BASE_TO_PAGE_ADDR(tmp_pde[i].pt_base_addr)), &pte_host_addr) == -1) {
-       PrintError("Could not lookup host address of guest PDE\n");
-       return -1;
-      }
-
-      add_pte_map(pte_cache, (addr_t)(BASE_TO_PAGE_ADDR(tmp_pde[i].pt_base_addr)), pte_host_addr); 
-    }
-  }
-
-  return 0;
-
-}
 
 
 
-// We assume that shdw_pg_state.guest_cr3 is pointing to the page tables we want to activate
-// We also assume that the CPU mode has not changed during this page table transition
 static inline int activate_shadow_pt_32(struct guest_info * info) {
-  struct cr3_32 * shadow_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
-  struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-  int cached = 0;
-  
-  // Check if shadow page tables are in the cache
-  cached = cache_page_tables_32(info, CR3_TO_PDE32_PA(*(addr_t *)guest_cr3));
-  
-  if (cached == -1) {
-    PrintError("CR3 Cache failed\n");
-    return -1;
-  } else if (cached == 0) {
-    addr_t shadow_pt;
-        
-    shadow_pt = create_new_shadow_pt(info);
+    struct cr3_32 * shadow_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
+    struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+    struct shadow_page_data * shdw_page = create_new_shadow_pt(info);
+
+    shdw_page->cr3 = shdw_page->page_pa;
     
-    shadow_cr3->pdt_base_addr = (addr_t)V3_PAddr((void *)(addr_t)PAGE_BASE_ADDR(shadow_pt));
+    shadow_cr3->pdt_base_addr = PAGE_BASE_ADDR_4KB(shdw_page->page_pa);
     PrintDebug( "Created new shadow page table %p\n", (void *)BASE_TO_PAGE_ADDR(shadow_cr3->pdt_base_addr));
-  } else {
-    PrintDebug("Reusing cached shadow Page table\n");
-  }
   
-  shadow_cr3->pwt = guest_cr3->pwt;
-  shadow_cr3->pcd = guest_cr3->pcd;
+    shadow_cr3->pwt = guest_cr3->pwt;
+    shadow_cr3->pcd = guest_cr3->pcd;
   
-  return 0;
+#ifdef CONFIG_SYMBIOTIC_SWAP
+    v3_swap_flush(info);
+#endif
+
+    return 0;
 }
 
+
+
+
 /* 
  * *
  * * 
@@ -86,448 +50,450 @@ static inline int activate_shadow_pt_32(struct guest_info * info) {
  * *
  * *
  */
-static int handle_large_pagefault_32(struct guest_info * info, 
-                                   addr_t fault_addr, pf_error_t error_code, 
-                                    pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde);
+static int handle_4MB_shadow_pagefault_32(struct guest_info * info,  addr_t fault_addr, pf_error_t error_code, 
+                                         pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde);
 
-static int handle_shadow_pte32_fault(struct guest_info * info, 
-                                    addr_t fault_addr, 
-                                    pf_error_t error_code,
-                                    pte32_t * shadow_pt, 
-                                    pte32_t * guest_pt);
+static int handle_pte_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code,
+                                         pte32_t * shadow_pt,  pte32_t * guest_pt);
 
 
 static inline int handle_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code) {
-  pde32_t * guest_pd = NULL;
-  pde32_t * shadow_pd = CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
-  addr_t guest_cr3 = CR3_TO_PDE32_PA(info->shdw_pg_state.guest_cr3);
-  pt_access_status_t guest_pde_access;
-  pt_access_status_t shadow_pde_access;
-  pde32_t * guest_pde = NULL;
-  pde32_t * shadow_pde = (pde32_t *)&(shadow_pd[PDE32_INDEX(fault_addr)]);
+    pde32_t * guest_pd = NULL;
+    pde32_t * shadow_pd = CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
+    addr_t guest_cr3 = CR3_TO_PDE32_PA(info->shdw_pg_state.guest_cr3);
+    pt_access_status_t guest_pde_access;
+    pt_access_status_t shadow_pde_access;
+    pde32_t * guest_pde = NULL;
+    pde32_t * shadow_pde = (pde32_t *)&(shadow_pd[PDE32_INDEX(fault_addr)]);
+
+    PrintDebug("Shadow page fault handler: %p\n", (void*) fault_addr );
+    PrintDebug("Handling PDE32 Fault\n");
+
+    if (guest_pa_to_host_va(info, guest_cr3, (addr_t*)&guest_pd) == -1) {
+       PrintError("Invalid Guest PDE Address: 0x%p\n",  (void *)guest_cr3);
+       return -1;
+    } 
 
-  PrintDebug("Shadow page fault handler: %p\n", (void*) fault_addr );
+    guest_pde = (pde32_t *)&(guest_pd[PDE32_INDEX(fault_addr)]);
 
-  if (guest_pa_to_host_va(info, guest_cr3, (addr_t*)&guest_pd) == -1) {
-    PrintError("Invalid Guest PDE Address: 0x%p\n",  (void *)guest_cr3);
-    return -1;
-  } 
 
-  guest_pde = (pde32_t *)&(guest_pd[PDE32_INDEX(fault_addr)]);
+    // Check the guest page permissions
+    guest_pde_access = v3_can_access_pde32(guest_pd, fault_addr, error_code);
 
+    // Check the shadow page permissions
+    shadow_pde_access = v3_can_access_pde32(shadow_pd, fault_addr, error_code);
+  
+    /* Was the page fault caused by the Guest's page tables? */
+    if (is_guest_pf(guest_pde_access, shadow_pde_access) == 1) {
+       PrintDebug("Injecting PDE pf to guest: (guest access error=%d) (pf error code=%d)\n", 
+                  *(uint_t *)&guest_pde_access, *(uint_t *)&error_code);
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+       return 0;
+    }
 
-  // Check the guest page permissions
-  guest_pde_access = v3_can_access_pde32(guest_pd, fault_addr, error_code);
 
-  // Check the shadow page permissions
-  shadow_pde_access = v3_can_access_pde32(shadow_pd, fault_addr, error_code);
-  
-  /* Was the page fault caused by the Guest's page tables? */
-  if (is_guest_pf(guest_pde_access, shadow_pde_access) == 1) {
-    PrintDebug("Injecting PDE pf to guest: (guest access error=%d) (pf error code=%d)\n", 
-              *(uint_t *)&guest_pde_access, *(uint_t *)&error_code);
-    inject_guest_pf(info, fault_addr, error_code);
-    return 0;
-  }
+
+    if (shadow_pde_access == PT_ACCESS_USER_ERROR) {
+       // 
+       // PDE Entry marked non user
+       //
+       PrintDebug("Shadow Paging User access error (shadow_pde_access=0x%x, guest_pde_access=0x%x)\n", 
+                  shadow_pde_access, guest_pde_access);
+       
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+       return 0;
+    } else if ((shadow_pde_access == PT_ACCESS_WRITE_ERROR) && 
+              (guest_pde->large_page == 1)) {
+       
+       ((pde32_4MB_t *)guest_pde)->dirty = 1;
+       shadow_pde->writable = guest_pde->writable;
+       return 0;
+    } else if ((shadow_pde_access != PT_ACCESS_NOT_PRESENT) &&
+              (shadow_pde_access != PT_ACCESS_OK)) {
+       // inject page fault in guest
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+       PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pde_access);
+       PrintDebug("Manual Says to inject page fault into guest\n");
+       return 0;
+    }
 
   
-  if (shadow_pde_access == PT_ACCESS_NOT_PRESENT) 
-    {
-      pte32_t * shadow_pt =  (pte32_t *)create_new_shadow_pt(info);
-
-      shadow_pde->present = 1;
-      shadow_pde->user_page = guest_pde->user_page;
-      //    shadow_pde->large_page = guest_pde->large_page;
-      shadow_pde->large_page = 0;
-      
+    pte32_t * shadow_pt = NULL;
+    pte32_t * guest_pt = NULL;
+
+    // Get the next shadow page level, allocate if not present
 
-      // VMM Specific options
-      shadow_pde->write_through = 0;
-      shadow_pde->cache_disable = 0;
-      shadow_pde->global_page = 0;
-      //
+    if (shadow_pde_access == PT_ACCESS_NOT_PRESENT) {
+       struct shadow_page_data * shdw_page =  create_new_shadow_pt(info);
+       shadow_pt = (pte32_t *)V3_VAddr((void *)shdw_page->page_pa);
+
+       shadow_pde->present = 1;
+       shadow_pde->user_page = guest_pde->user_page;
+
+
+       if (guest_pde->large_page == 0) {
+           shadow_pde->writable = guest_pde->writable;
+       } else {
+           // This large page flag is temporary until we can get a working cache....
+           ((pde32_4MB_t *)guest_pde)->vmm_info = V3_LARGE_PG;
+
+           if (error_code.write) {
+               shadow_pde->writable = guest_pde->writable;
+               ((pde32_4MB_t *)guest_pde)->dirty = 1;
+           } else {
+               shadow_pde->writable = 0;
+               ((pde32_4MB_t *)guest_pde)->dirty = 0;
+           }
+       }
       
-      guest_pde->accessed = 1;
+
+       // VMM Specific options
+       shadow_pde->write_through = guest_pde->write_through;
+       shadow_pde->cache_disable = guest_pde->cache_disable;
+       shadow_pde->global_page = guest_pde->global_page;
+       //
       
-      shadow_pde->pt_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(shadow_pt));
+       guest_pde->accessed = 1;
       
-      if (guest_pde->large_page == 0) {
-       pte32_t * guest_pt = NULL;
-       shadow_pde->writable = guest_pde->writable;
 
+
+
+       shadow_pde->pt_base_addr = PAGE_BASE_ADDR(shdw_page->page_pa);
+    } else {
+       shadow_pt = (pte32_t *)V3_VAddr((void *)BASE_TO_PAGE_ADDR(shadow_pde->pt_base_addr));
+    }
+
+
+      
+    if (guest_pde->large_page == 0) {
        if (guest_pa_to_host_va(info, BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr), (addr_t*)&guest_pt) == -1) {
-         // Machine check the guest
-         PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
-         v3_raise_exception(info, MC_EXCEPTION);
-         return 0;
+           // Machine check the guest
+           PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
+           v3_raise_exception(info, MC_EXCEPTION);
+           return 0;
        }
 
-       if (handle_shadow_pte32_fault(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
-         PrintError("Error handling Page fault caused by PTE\n");
-         return -1;
+       if (handle_pte_shadow_pagefault_32(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
+           PrintError("Error handling Page fault caused by PTE\n");
+           return -1;
        }
-      } else {
-       // ??  What if guest pde is dirty a this point?
-       ((pde32_4MB_t *)guest_pde)->dirty = 0;
-       shadow_pde->writable = 0;
-
-       if (handle_large_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
-         PrintError("Error handling large pagefault\n");
-         return -1;
+    } else {
+       if (handle_4MB_shadow_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
+           PrintError("Error handling large pagefault\n");
+           return -1;
        }       
+    }
+
+    return 0;
+}
+
+
+
+static int handle_pte_shadow_pagefault_32(struct guest_info * info, addr_t fault_addr, pf_error_t error_code,
+                                         pte32_t * shadow_pt, pte32_t * guest_pt) {
+
+    pt_access_status_t guest_pte_access;
+    pt_access_status_t shadow_pte_access;
+    pte32_t * guest_pte = (pte32_t *)&(guest_pt[PTE32_INDEX(fault_addr)]);;
+    pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
+    addr_t guest_pa = BASE_TO_PAGE_ADDR((addr_t)(guest_pte->page_base_addr)) +  PAGE_OFFSET(fault_addr);
+
+    struct v3_shadow_region * shdw_reg =  v3_get_shadow_region(info, guest_pa);
 
-      }
+    if (shdw_reg == NULL) {
+       // Inject a machine check in the guest
+       PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_pa);
+       v3_raise_exception(info, MC_EXCEPTION);
+       return 0;
     }
-  else if (shadow_pde_access == PT_ACCESS_OK) 
-    {
-      //
-      // PTE fault
-      //
-      pte32_t * shadow_pt = (pte32_t *)V3_VAddr( (void*)(addr_t) BASE_TO_PAGE_ADDR(shadow_pde->pt_base_addr) );
 
-      if (guest_pde->large_page == 0) {
-       pte32_t * guest_pt = NULL;
+    // Check the guest page permissions
+    guest_pte_access = v3_can_access_pte32(guest_pt, fault_addr, error_code);
 
-       if (guest_pa_to_host_va(info, BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr), (addr_t*)&guest_pt) == -1) {
-         // Machine check the guest
-         PrintDebug("Invalid Guest PTE Address: 0x%p\n", (void *)BASE_TO_PAGE_ADDR(guest_pde->pt_base_addr));
-         v3_raise_exception(info, MC_EXCEPTION);
-         return 0;
-       }
+    // Check the shadow page permissions
+    shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
+  
+  
+    /* Was the page fault caused by the Guest's page tables? */
+    if (is_guest_pf(guest_pte_access, shadow_pte_access) == 1) {
+
+       PrintDebug("Access error injecting pf to guest (guest access error=%d) (pf error code=%d)\n", 
+                  guest_pte_access, *(uint_t*)&error_code);
+#ifdef CONFIG_SYMBIOTIC_SWAP
+       if ((error_code.write == 0) && (is_swapped_pte32(guest_pte))) {
+           PrintError("Page fault on swapped out page (pte=%x)\n", *(uint32_t *)guest_pte);
+
+           addr_t swp_pg_addr = v3_get_swapped_pg_addr(info, shadow_pte, guest_pte);
+
+           if (swp_pg_addr == 0) {
+               if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+                   PrintError("Could not inject guest page fault\n");
+                   return -1;
+               }
+           } else {
+               /* 
+                *  Setup shadow paging state
+                */
+               
+               /* We need some way to check permissions.... */
+               
+               shadow_pte->accessed = 1;
+               shadow_pte->writable = 0;
+
+               if (fault_addr & 0xc0000000) {
+                   shadow_pte->user_page = 0;
+               } else {
+                   shadow_pte->user_page = 1;
+               }
+
+               shadow_pte->write_through = 0;
+               shadow_pte->cache_disable = 0;
+               shadow_pte->global_page = 0;
        
-       if (handle_shadow_pte32_fault(info, fault_addr, error_code, shadow_pt, guest_pt)  == -1) {
-         PrintError("Error handling Page fault caused by PTE\n");
-         return -1;
+               shadow_pte->present = 1;
+               
+               shadow_pte->page_base_addr = swp_pg_addr;
+           }
+       } else {
+           if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+               PrintError("Could not inject guest page fault\n");
+               return -1;
+           }
        }
-      } else if (guest_pde->large_page == 1) {
-       if (handle_large_pagefault_32(info, fault_addr, error_code, shadow_pt, (pde32_4MB_t *)guest_pde) == -1) {
-         PrintError("Error handling large pagefault\n");
-         return -1;
+#else
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
        }
-      }
-    }
-  else if ((shadow_pde_access == PT_ACCESS_WRITE_ERROR) && 
-          (guest_pde->large_page == 1) && 
-          (((pde32_4MB_t *)guest_pde)->dirty == 0)) 
-    {
-      //
-      // Page Directory Entry marked read-only
-      // Its a large page and we need to update the dirty bit in the guest
-      //
-
-      PrintDebug("Large page write error... Setting dirty bit and returning\n");
-      ((pde32_4MB_t *)guest_pde)->dirty = 1;
-      shadow_pde->writable = guest_pde->writable;
-      return 0;
-      
-    } 
-  else if (shadow_pde_access == PT_ACCESS_USER_ERROR) 
-    {
-      //
-      // Page Directory Entry marked non-user
-      //      
-      PrintDebug("Shadow Paging User access error (shadow_pde_access=0x%x, guest_pde_access=0x%x)\n", 
-                shadow_pde_access, guest_pde_access);
-      inject_guest_pf(info, fault_addr, error_code);
-      return 0;
-    }
-  else 
-    {
-      // inject page fault in guest
-      inject_guest_pf(info, fault_addr, error_code);
-      PrintDebug("Unknown Error occurred (shadow_pde_access=%d)\n", shadow_pde_access);
-      PrintDebug("Manual Says to inject page fault into guest\n");
-#ifdef DEBUG_SHADOW_PAGING
-      PrintDebug("Guest PDE: (access=%d)\n\t", guest_pde_access);
-      PrintPTEntry(PAGE_PD32, fault_addr, guest_pde);
-      PrintDebug("Shadow PDE: (access=%d)\n\t", shadow_pde_access);
-      PrintPTEntry(PAGE_PD32, fault_addr, shadow_pde);
 #endif
 
-      return 0; 
+       return 0; 
     }
 
-  PrintDebug("Returning end of PDE function (rip=%p)\n", (void *)(addr_t)(info->rip));
-  return 0;
-}
+  
+  
+    if (shadow_pte_access == PT_ACCESS_OK) {
+       // Inconsistent state...
+       // Guest Re-Entry will flush page tables and everything should now work
+       PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
+       return 0;
+    }
 
 
+    if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
+       // Page Table Entry Not Present
+       PrintDebug("guest_pa =%p\n", (void *)guest_pa);
 
-/* The guest status checks have already been done,
- * only special case shadow checks remain
- */
-static int handle_large_pagefault_32(struct guest_info * info, 
-                                   addr_t fault_addr, pf_error_t error_code, 
-                                   pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde) 
-{
-  pt_access_status_t shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
-  pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
-  addr_t guest_fault_pa = BASE_TO_PAGE_ADDR_4MB(large_guest_pde->page_base_addr) + PAGE_OFFSET_4MB(fault_addr);  
-  struct shadow_page_state * state = &(info->shdw_pg_state);
+       if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) ||
+           (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
+           addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_pa);
+      
+           shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
 
-  struct v3_shadow_region * shdw_reg = v3_get_shadow_region(info, guest_fault_pa);
+           PrintDebug("\tMapping shadow page (%p)\n", (void *)BASE_TO_PAGE_ADDR(shadow_pte->page_base_addr));
+      
+           shadow_pte->present = guest_pte->present;
+           shadow_pte->user_page = guest_pte->user_page;
+      
+           //set according to VMM policy
+           shadow_pte->write_through = guest_pte->write_through;
+           shadow_pte->cache_disable = guest_pte->cache_disable;
+           shadow_pte->global_page = guest_pte->global_page;
+           //
+      
+           guest_pte->accessed = 1;
+      
+           if (guest_pte->dirty == 1) {
+               shadow_pte->writable = guest_pte->writable;
+           } else if ((guest_pte->dirty == 0) && (error_code.write == 1)) {
+               shadow_pte->writable = guest_pte->writable;
+               guest_pte->dirty = 1;
+           } else if ((guest_pte->dirty == 0) && (error_code.write == 0)) {
+               shadow_pte->writable = 0;
+           }
 
-  if ((shdw_reg == NULL) || 
-      (shdw_reg->host_type == SHDW_REGION_INVALID)) {
-    // Inject a machine check in the guest
-    PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_fault_pa);
-    v3_raise_exception(info, MC_EXCEPTION);
-    return -1;
-  }
-
-  if (shadow_pte_access == PT_ACCESS_OK) {
-    // Inconsistent state...
-    // Guest Re-Entry will flush tables and everything should now workd
-    PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
-    return 0;
-  }
 
-  
-  if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
-    // Get the guest physical address of the fault
-
-    if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) || 
-       (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
-      addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_fault_pa);
-
-      shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
-
-      shadow_pte->present = 1;
-
-      /* We are assuming that the PDE entry has precedence
-       * so the Shadow PDE will mirror the guest PDE settings, 
-       * and we don't have to worry about them here
-       * Allow everything
-       */
-      shadow_pte->user_page = 1;
-
-      if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_fault_pa)) != NULL) {
-       // Check if the entry is a page table...
-       PrintDebug("Marking page as Guest Page Table (large page)\n");
-       shadow_pte->writable = 0;
-      } else if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
-       shadow_pte->writable = 0;
-      } else {
-       shadow_pte->writable = 1;
-      }
-
-      //set according to VMM policy
-      shadow_pte->write_through = 0;
-      shadow_pte->cache_disable = 0;
-      shadow_pte->global_page = 0;
-      //
-      
-    } else {
-      // Handle hooked pages as well as other special pages
-      //      if (handle_special_page_fault(info, fault_addr, guest_fault_pa, error_code) == -1) {
 
-      if (v3_handle_mem_full_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
-       PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
-       return -1;
-      }
-    }
-  } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
+           // Write hooks trump all, and are set Read Only
+           if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+               shadow_pte->writable = 0;
+           }
+
+       } else {
+           // Page fault handled by hook functions
+
+           if (v3_handle_mem_full_hook(info, fault_addr, guest_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page fault handler returned error for address: %p\n",  (void *)fault_addr);
+               return -1;
+           }
+       }
+    } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
+       guest_pte->dirty = 1;
+
+       if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+           if (v3_handle_mem_wr_hook(info, fault_addr, guest_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page fault handler returned error for address: %p\n",  (void *)fault_addr);
+               return -1;
+           }
+       } else {
+           PrintDebug("Shadow PTE Write Error\n");
+           shadow_pte->writable = guest_pte->writable;
+       }
+
 
-    if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+       return 0;
 
-      if (v3_handle_mem_wr_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
-       PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
+    } else {
+       // Inject page fault into the guest     
+       if (inject_guest_pf(info, fault_addr, error_code) == -1) {
+           PrintError("Could not inject guest page fault\n");
+           return -1;
+       }
+
+       PrintError("PTE Page fault fell through... Not sure if this should ever happen\n");
+       PrintError("Manual Says to inject page fault into guest\n");
        return -1;
-      }
     }
 
+    return 0;
+}
 
-    if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_fault_pa)) != NULL) {
-      struct shadow_page_state * state = &(info->shdw_pg_state);
-      PrintDebug("Write operation on Guest PAge Table Page (large page)\n");
-      state->cached_cr3 = 0;
-      shadow_pte->writable = 1;
-    }
 
-  } else {
-    PrintError("Error in large page fault handler...\n");
-    PrintError("This case should have been handled at the top level handler\n");
-    return -1;
-  }
 
-  PrintDebug("Returning from large page fault handler\n");
-  return 0;
-}
+static int handle_4MB_shadow_pagefault_32(struct guest_info * info, 
+                                    addr_t fault_addr, pf_error_t error_code, 
+                                    pte32_t * shadow_pt, pde32_4MB_t * large_guest_pde) 
+{
+    pt_access_status_t shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
+    pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
+    addr_t guest_fault_pa = BASE_TO_PAGE_ADDR_4MB(large_guest_pde->page_base_addr) + PAGE_OFFSET_4MB(fault_addr);  
 
 
+    PrintDebug("Handling 4MB fault (guest_fault_pa=%p) (error_code=%x)\n", (void *)guest_fault_pa, *(uint_t*)&error_code);
+    PrintDebug("ShadowPT=%p, LargeGuestPDE=%p\n", shadow_pt, large_guest_pde);
 
+    struct v3_shadow_region * shdw_reg = v3_get_shadow_region(info, guest_fault_pa);
 
-/* 
- * We assume the the guest pte pointer has already been translated to a host virtual address
- */
-static int handle_shadow_pte32_fault(struct guest_info * info, 
-                                    addr_t fault_addr, 
-                                    pf_error_t error_code,
-                                    pte32_t * shadow_pt, 
-                                    pte32_t * guest_pt) {
-
-  pt_access_status_t guest_pte_access;
-  pt_access_status_t shadow_pte_access;
-  pte32_t * guest_pte = (pte32_t *)&(guest_pt[PTE32_INDEX(fault_addr)]);;
-  pte32_t * shadow_pte = (pte32_t *)&(shadow_pt[PTE32_INDEX(fault_addr)]);
-  addr_t guest_pa = BASE_TO_PAGE_ADDR((addr_t)(guest_pte->page_base_addr)) +  PAGE_OFFSET(fault_addr);
-  struct shadow_page_state * state = &(info->shdw_pg_state);
-
-  struct v3_shadow_region * shdw_reg =  v3_get_shadow_region(info, guest_pa);
-
-  if ((shdw_reg == NULL) || 
-      (shdw_reg->host_type == SHDW_REGION_INVALID)) {
-    // Inject a machine check in the guest
-    PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_pa);
-    v3_raise_exception(info, MC_EXCEPTION);
-    return 0;
-  }
+    if (shdw_reg == NULL) {
+       // Inject a machine check in the guest
+       PrintDebug("Invalid Guest Address in page table (0x%p)\n", (void *)guest_fault_pa);
+       v3_raise_exception(info, MC_EXCEPTION);
+       return -1;
+    }
 
-  // Check the guest page permissions
-  guest_pte_access = v3_can_access_pte32(guest_pt, fault_addr, error_code);
+    if (shadow_pte_access == PT_ACCESS_OK) {
+       // Inconsistent state...
+       // Guest Re-Entry will flush tables and everything should now workd
+       PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
+       return 0;
+    }
 
-  // Check the shadow page permissions
-  shadow_pte_access = v3_can_access_pte32(shadow_pt, fault_addr, error_code);
-  
-#ifdef DEBUG_SHADOW_PAGING
-  PrintDebug("Guest PTE: (access=%d)\n\t", guest_pte_access);
-  PrintPTEntry(PAGE_PT32, fault_addr, guest_pte);
-  PrintDebug("Shadow PTE: (access=%d)\n\t", shadow_pte_access);
-  PrintPTEntry(PAGE_PT32, fault_addr, shadow_pte);
-#endif
-  
-  /* Was the page fault caused by the Guest's page tables? */
-  if (is_guest_pf(guest_pte_access, shadow_pte_access) == 1) {
-    PrintDebug("Access error injecting pf to guest (guest access error=%d) (pf error code=%d)\n", 
-              guest_pte_access, *(uint_t*)&error_code);    
-    inject_guest_pf(info, fault_addr, error_code);
-    return 0; 
-  }
-  
   
-  if (shadow_pte_access == PT_ACCESS_OK) {
-    // Inconsistent state...
-    // Guest Re-Entry will flush page tables and everything should now work
-    PrintDebug("Inconsistent state... Guest re-entry should flush tlb\n");
-    return 0;
-  }
+    if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
+       // Get the guest physical address of the fault
 
+       if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) || 
+           (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
+           addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_fault_pa);
 
-  if (shadow_pte_access == PT_ACCESS_NOT_PRESENT) {
-    // Page Table Entry Not Present
-    PrintDebug("guest_pa =%p\n", (void *)guest_pa);
+           shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
 
-    if ((shdw_reg->host_type == SHDW_REGION_ALLOCATED) ||
-       (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK)) {
-      addr_t shadow_pa = v3_get_shadow_addr(shdw_reg, guest_pa);
-      
-      shadow_pte->page_base_addr = PAGE_BASE_ADDR(shadow_pa);
-      
-      shadow_pte->present = guest_pte->present;
-      shadow_pte->user_page = guest_pte->user_page;
-      
-      //set according to VMM policy
-      shadow_pte->write_through = 0;
-      shadow_pte->cache_disable = 0;
-      shadow_pte->global_page = 0;
-      //
-      
-      guest_pte->accessed = 1;
+           PrintDebug("\tMapping shadow page (%p)\n", (void *)BASE_TO_PAGE_ADDR(shadow_pte->page_base_addr));
+
+           shadow_pte->present = 1;
+
+           /* We are assuming that the PDE entry has precedence
+            * so the Shadow PDE will mirror the guest PDE settings, 
+            * and we don't have to worry about them here
+            * Allow everything
+            */
+           shadow_pte->user_page = 1;
+
+           if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
+               shadow_pte->writable = 0;
+           } else {
+               shadow_pte->writable = 1;
+           }
+
+           //set according to VMM policy
+           shadow_pte->write_through = large_guest_pde->write_through;
+           shadow_pte->cache_disable = large_guest_pde->cache_disable;
+           shadow_pte->global_page = large_guest_pde->global_page;
+           //
       
-      if (guest_pte->dirty == 1) {
-       shadow_pte->writable = guest_pte->writable;
-      } else if ((guest_pte->dirty == 0) && (error_code.write == 1)) {
-       shadow_pte->writable = guest_pte->writable;
-       guest_pte->dirty = 1;
-      } else if ((guest_pte->dirty == 0) && (error_code.write == 0)) {
-       shadow_pte->writable = 0;
-      }
-
-      // dirty flag has been set, check if its in the cache
-      if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_pa)) != NULL) {
-       if (error_code.write == 1) {
-         state->cached_cr3 = 0;
-         shadow_pte->writable = guest_pte->writable;
        } else {
-         shadow_pte->writable = 0;
+           if (v3_handle_mem_full_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
+               return -1;
+           }
        }
-      }
+    } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
 
-      // Write hooks trump all, and are set Read Only
-      if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
-       shadow_pte->writable = 0;
-      }
+       if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
 
-    } else {
-      // Page fault handled by hook functions
+           if (v3_handle_mem_wr_hook(info, fault_addr, guest_fault_pa, shdw_reg, error_code) == -1) {
+               PrintError("Special Page Fault handler returned error for address: %p\n", (void *)fault_addr);
+               return -1;
+           }
+       }
 
-      if (v3_handle_mem_full_hook(info, fault_addr, guest_pa, shdw_reg, error_code) == -1) {
-       PrintError("Special Page fault handler returned error for address: %p\n",  (void *)fault_addr);
+    } else {
+       PrintError("Error in large page fault handler...\n");
+       PrintError("This case should have been handled at the top level handler\n");
        return -1;
-      }
     }
-  } else if (shadow_pte_access == PT_ACCESS_WRITE_ERROR) {
-    guest_pte->dirty = 1;
 
-    if (shdw_reg->host_type == SHDW_REGION_WRITE_HOOK) {
-      if (v3_handle_mem_wr_hook(info, fault_addr, guest_pa, shdw_reg, error_code) == -1) {
-       PrintError("Special Page fault handler returned error for address: %p\n",  (void *)fault_addr);
-       return -1;
-      }
-    } else {
-      PrintDebug("Shadow PTE Write Error\n");
-      shadow_pte->writable = guest_pte->writable;
-    }
+    PrintDebug("Returning from large page fault handler\n");
+    return 0;
+}
+
+
+
+
+
 
-    if (find_pte_map(state->cached_ptes, PAGE_ADDR(guest_pa)) != NULL) {
-      struct shadow_page_state * state = &(info->shdw_pg_state);
-      PrintDebug("Write operation on Guest PAge Table Page\n");
-      state->cached_cr3 = 0;
-    }
 
-    return 0;
 
-  } else {
-    // Inject page fault into the guest        
-    inject_guest_pf(info, fault_addr, error_code);
-    PrintError("PTE Page fault fell through... Not sure if this should ever happen\n");
-    PrintError("Manual Says to inject page fault into guest\n");
-    return -1;
-  }
 
-  PrintDebug("Returning end of function\n");
-  return 0;
-}
 
 
 
 /* If we start to optimize we should look up the guest pages in the cache... */
 static inline int handle_shadow_invlpg_32(struct guest_info * info, addr_t vaddr) {
-  pde32_t * shadow_pd = (pde32_t *)CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
-  pde32_t * shadow_pde = (pde32_t *)&shadow_pd[PDE32_INDEX(vaddr)];
+    pde32_t * shadow_pd = (pde32_t *)CR3_TO_PDE32_VA(info->ctrl_regs.cr3);
+    pde32_t * shadow_pde = (pde32_t *)&shadow_pd[PDE32_INDEX(vaddr)];
 
-  addr_t guest_cr3 =  CR3_TO_PDE32_PA(info->shdw_pg_state.guest_cr3);
-  pde32_t * guest_pd = NULL;
-  pde32_t * guest_pde;
+    addr_t guest_cr3 =  CR3_TO_PDE32_PA(info->shdw_pg_state.guest_cr3);
+    pde32_t * guest_pd = NULL;
+    pde32_t * guest_pde;
 
-  if (guest_pa_to_host_va(info, guest_cr3, (addr_t*)&guest_pd) == -1) {
-    PrintError("Invalid Guest PDE Address: 0x%p\n",  (void *)guest_cr3);
-    return -1;
-  }
+    if (guest_pa_to_host_va(info, guest_cr3, (addr_t*)&guest_pd) == -1) {
+       PrintError("Invalid Guest PDE Address: 0x%p\n",  (void *)guest_cr3);
+       return -1;
+    }
   
-  guest_pde = (pde32_t *)&(guest_pd[PDE32_INDEX(vaddr)]);
+    guest_pde = (pde32_t *)&(guest_pd[PDE32_INDEX(vaddr)]);
   
-  if (guest_pde->large_page == 1) {
-    shadow_pde->present = 0;
-    PrintDebug("Invalidating Large Page\n");
-  } else if (shadow_pde->present == 1) {
-    pte32_t * shadow_pt = (pte32_t *)(addr_t)BASE_TO_PAGE_ADDR_4KB(shadow_pde->pt_base_addr);
-    pte32_t * shadow_pte = (pte32_t *) V3_VAddr( (void*) &shadow_pt[PTE32_INDEX(vaddr)] );
+    if (guest_pde->large_page == 1) {
+       shadow_pde->present = 0;
+       PrintDebug("Invalidating Large Page\n");
+    } else if (shadow_pde->present == 1) {
+       pte32_t * shadow_pt = (pte32_t *)(addr_t)BASE_TO_PAGE_ADDR_4KB(shadow_pde->pt_base_addr);
+       pte32_t * shadow_pte = (pte32_t *) V3_VAddr( (void*) &shadow_pt[PTE32_INDEX(vaddr)] );
     
-    PrintDebug("Setting not present\n");
+       PrintDebug("Setting not present\n");
     
-    shadow_pte->present = 0;
-  }
-  return 0;
+       shadow_pte->present = 0;
+    }
+    return 0;
 }