Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


various changes...
[palacios.git] / palacios / src / palacios / vmm_ctrl_regs.c
index 0fb2e2c..d3e9360 100644 (file)
 #include <palacios/vmm_decoder.h>
 #include <palacios/vm_guest_mem.h>
 #include <palacios/vmm_ctrl_regs.h>
+#include <palacios/vmm_direct_paging.h>
 
-
-
-/* Segmentation is a problem here...
- *
- * When we get a memory operand, presumably we use the default segment (which is?) 
- * unless an alternate segment was specfied in the prefix...
- */
-
-
-#ifndef DEBUG_CTRL_REGS
+#ifndef CONFIG_DEBUG_CTRL_REGS
 #undef PrintDebug
 #define PrintDebug(fmt, args...)
 #endif
 
 static int handle_lmsw(struct guest_info * info, struct x86_instr * dec_instr);
 static int handle_clts(struct guest_info * info, struct x86_instr * dec_instr);
-
 static int handle_mov_to_cr0(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_32(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_32pae(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_64(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_64compat(struct guest_info * info, struct x86_instr * dec_instr);
-
-static int handle_mov_to_cr3_32(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_32pae(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_64(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_64compat(struct guest_info * info, struct x86_instr * dec_instr);
-
-
 
 
 // First Attempt = 494 lines
 // current = 106 lines
 int v3_handle_cr0_write(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-    if (ret != 15) {
-    // I think we should inject a GPF into the guest
-    PrintError("Could not read instruction (ret=%d)\n", ret);
-    return -1;
-    }
-  */
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_LMSW, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_lmsw(info, &dec_instr) == -1) {
-      return -1;
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
     }
-
-  } else if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_mov_to_cr0(info, &dec_instr) == -1) {
-      return -1;
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError("Could not decode instruction\n");
+       return -1;
     }
 
-  } else if (v3_opcode_cmp(V3_OPCODE_CLTS, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_clts(info, &dec_instr) == -1) {
-      return -1;
+    
+    if (dec_instr.op_type == V3_OP_LMSW) {
+       if (handle_lmsw(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else if (dec_instr.op_type == V3_OP_MOV2CR) {
+       if (handle_mov_to_cr0(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else if (dec_instr.op_type == V3_OP_CLTS) {
+       if (handle_clts(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else {
+       PrintError("Unhandled opcode in handle_cr0_write\n");
+       return -1;
     }
-
-  } else {
-    PrintError("Unhandled opcode in handle_cr0_write\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-
-  return 0;
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
 }
 
 
 
 
+// The CR0 register only has flags in the low 32 bits
+// The hardware does a format check to make sure the high bits are zero
+// Because of this we can ignore the high 32 bits here
 static int handle_mov_to_cr0(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintDebug("MOV2CR0\n");
-
-  switch (info->cpu_mode) {
-  case REAL:
-  case PROTECTED:
-    return handle_mov_to_cr0_32(info, dec_instr);    
-  case PROTECTED_PAE:
-    return handle_mov_to_cr0_32pae(info, dec_instr);
-  case LONG:
-    return handle_mov_to_cr0_64(info, dec_instr);
-  case LONG_32_COMPAT:
-    return handle_mov_to_cr0_64compat(info, dec_instr);
-  default:
-    PrintError("Invalid CPU Operating Mode: %d\n", info->cpu_mode);
-    return -1;
-
-  }
-}
-
-static int handle_mov_to_cr0_32pae(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("32 bit PAE mov to CR0 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr0_64(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("64 bit mov to CR0 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr0_64compat(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("64 bit compatibility mode move to CR0 not implemented\n");
-  return -1;
-}
-
-
-static int handle_mov_to_cr0_32(struct guest_info * info, struct x86_instr * dec_instr) {
-  // 32 bit registers
-  struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
-  struct cr0_32 * new_cr0 = (struct cr0_32 *)(dec_instr->src_operand.operand);
-  struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
-  
-  PrintDebug("OperandVal = %x, length=%d\n", *(uint_t *)new_cr0, dec_instr->src_operand.size);
-  
-  PrintDebug("Old CR0=%x\n", *(uint_t *)shadow_cr0);
-  PrintDebug("Old Guest CR0=%x\n", *(uint_t *)guest_cr0);      
-
-  // Guest always sees the value they wrote
-  *guest_cr0 = *new_cr0;
-
-  // This value must always be set to 1 
-  guest_cr0->et = 1;    
-
-  // Set the shadow register to catch non-virtualized flags
-  *shadow_cr0 = *guest_cr0;
-  
-
-  if (v3_get_mem_mode(info) == VIRTUAL_MEM) {
-    struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-    PrintDebug("Setting up Guest Page Table\n");
-    info->ctrl_regs.cr3 = *(addr_t*)guest_cr3;
-  } else  {
-    info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
-    shadow_cr0->pg = 1;
-  }
-  
-  PrintDebug("New Guest CR0=%x\n",*(uint_t *)guest_cr0);
-  
-  PrintDebug("New CR0=%x\n", *(uint_t *)shadow_cr0);
-  
-  return 0;
+    // 32 bit registers
+    struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
+    struct cr0_32 * new_cr0 = (struct cr0_32 *)(dec_instr->src_operand.operand);
+    struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+    uint_t paging_transition = 0;
+    
+    PrintDebug("MOV2CR0 (MODE=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+    
+    PrintDebug("OperandVal = %x, length=%d\n", *(uint_t *)new_cr0, dec_instr->src_operand.size);
+    
+    PrintDebug("Old CR0=%x\n", *(uint_t *)shadow_cr0);
+    PrintDebug("Old Guest CR0=%x\n", *(uint_t *)guest_cr0);    
+    
+    
+    // We detect if this is a paging transition
+    if (guest_cr0->pg != new_cr0->pg) {
+       paging_transition = 1;
+    }  
+    
+    // Guest always sees the value they wrote
+    *guest_cr0 = *new_cr0;
+    
+    // This value must always be set to 1 
+    guest_cr0->et = 1;    
+    
+    // Set the shadow register to catch non-virtualized flags
+    *shadow_cr0 = *guest_cr0;
+    
+    // Paging is always enabled
+    shadow_cr0->pg = 1;  
+    
+    // Was there a paging transition
+    // Meaning we need to change the page tables
+    if (paging_transition) {
+       if (v3_get_vm_mem_mode(info) == VIRTUAL_MEM) {
+           
+           struct efer_64 * guest_efer  = (struct efer_64 *)&(info->shdw_pg_state.guest_efer);
+           struct efer_64 * shadow_efer = (struct efer_64 *)&(info->ctrl_regs.efer);
+           
+           // Check long mode LME to set LME
+           if (guest_efer->lme == 1) {
+               PrintDebug("Enabing Long Mode\n");
+               guest_efer->lma = 1;
+               
+               shadow_efer->lma = 1;
+               shadow_efer->lme = 1;
+               
+               PrintDebug("New EFER %p\n", (void *)*(addr_t *)(shadow_efer));
+           }
+           
+           PrintDebug("Activating Shadow Page Tables\n");
+           
+           if (v3_activate_shadow_pt(info) == -1) {
+               PrintError("Failed to activate shadow page tables\n");
+               return -1;
+           }
+       } else {
+
+           shadow_cr0->wp = 1;
+           
+           if (v3_activate_passthrough_pt(info) == -1) {
+               PrintError("Failed to activate passthrough page tables\n");
+               return -1;
+           }
+       }
+    }
+    
+    
+    PrintDebug("New Guest CR0=%x\n",*(uint_t *)guest_cr0);  
+    PrintDebug("New CR0=%x\n", *(uint_t *)shadow_cr0);
+    
+    return 0;
 }
 
 
 
 
 static int handle_clts(struct guest_info * info, struct x86_instr * dec_instr) {
-  // CLTS
-  struct cr0_32 * real_cr0 = (struct cr0_32*)&(info->ctrl_regs.cr0);
-  
-  real_cr0->ts = 0;
-  
-  if (info->shdw_pg_mode == SHADOW_PAGING) {
-    struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
-    guest_cr0->ts = 0;
-  }
-  return 0;
+    // CLTS
+    struct cr0_32 * real_cr0 = (struct cr0_32*)&(info->ctrl_regs.cr0);
+    
+    real_cr0->ts = 0;
+    
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+       guest_cr0->ts = 0;
+    }
+    return 0;
 }
 
 
 static int handle_lmsw(struct guest_info * info, struct x86_instr * dec_instr) {
- struct cr0_real * real_cr0  = (struct cr0_real*)&(info->ctrl_regs.cr0);
- struct cr0_real * new_cr0 = (struct cr0_real *)(dec_instr->src_operand.operand);      
- uchar_t new_cr0_val;
- PrintDebug("LMSW\n");
- new_cr0_val = (*(char*)(new_cr0)) & 0x0f;
- PrintDebug("OperandVal = %x\n", new_cr0_val);
- // We can just copy the new value through
- // we don't need to virtualize the lower 4 bits
- PrintDebug("Old CR0=%x\n", *(uint_t *)real_cr0);      
- *(uchar_t*)real_cr0 &= 0xf0;
- *(uchar_t*)real_cr0 |= new_cr0_val;
- PrintDebug("New CR0=%x\n", *(uint_t *)real_cr0);      
- // If Shadow paging is enabled we push the changes to the virtualized copy of cr0
- if (info->shdw_pg_mode == SHADOW_PAGING) {
-   struct cr0_real * guest_cr0 = (struct cr0_real*)&(info->shdw_pg_state.guest_cr0);
-   
-   PrintDebug("Old Guest CR0=%x\n", *(uint_t *)guest_cr0);     
-   *(uchar_t*)guest_cr0 &= 0xf0;
-   *(uchar_t*)guest_cr0 |= new_cr0_val;
-   PrintDebug("New Guest CR0=%x\n", *(uint_t *)guest_cr0);     
- }
- return 0;
+    struct cr0_real * real_cr0  = (struct cr0_real *)&(info->ctrl_regs.cr0);
+    // XED is a mess, and basically reverses the operand order for an LMSW
+    struct cr0_real * new_cr0 = (struct cr0_real *)(dec_instr->dst_operand.operand);   
+    uchar_t new_cr0_val;
+    
+    PrintDebug("LMSW\n");
+    
+    new_cr0_val = (*(char*)(new_cr0)) & 0x0f;
+    
+    PrintDebug("OperandVal = %x\n", new_cr0_val);
+    
+    // We can just copy the new value through
+    // we don't need to virtualize the lower 4 bits
+    PrintDebug("Old CR0=%x\n", *(uint_t *)real_cr0);   
+    *(uchar_t*)real_cr0 &= 0xf0;
+    *(uchar_t*)real_cr0 |= new_cr0_val;
+    PrintDebug("New CR0=%x\n", *(uint_t *)real_cr0);   
+    
+    
+    // If Shadow paging is enabled we push the changes to the virtualized copy of cr0
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       struct cr0_real * guest_cr0 = (struct cr0_real*)&(info->shdw_pg_state.guest_cr0);
+       
+       PrintDebug("Old Guest CR0=%x\n", *(uint_t *)guest_cr0); 
+       *(uchar_t*)guest_cr0 &= 0xf0;
+       *(uchar_t*)guest_cr0 |= new_cr0_val;
+       PrintDebug("New Guest CR0=%x\n", *(uint_t *)guest_cr0); 
+    }
+    return 0;
 }
 
 
@@ -241,64 +214,72 @@ static int handle_lmsw(struct guest_info * info, struct x86_instr * dec_instr) {
 // First attempt = 253 lines
 // current = 51 lines
 int v3_handle_cr0_read(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-     if (ret != 15) {
-     // I think we should inject a GPF into the guest
-     PrintError("Could not read instruction (ret=%d)\n", ret);
-     return -1;
-     }
-  */
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-  
-  if (v3_opcode_cmp(V3_OPCODE_MOVCR2, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    struct cr0_32 * dst_reg = (struct cr0_32 *)(dec_instr.dst_operand.operand);
-    struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
-
-    PrintDebug("MOVCR2\n");
-
-    if (info->shdw_pg_mode == SHADOW_PAGING) {
-      struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
-      *dst_reg = *guest_cr0;
-    } else {
-      *dst_reg = *shadow_cr0;
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
     }
-
-    PrintDebug("Shadow CR0: %x\n", *(uint_t*)shadow_cr0);    
-    PrintDebug("returned CR0: %x\n", *(uint_t*)dst_reg);
-  } else if (v3_opcode_cmp(V3_OPCODE_SMSW, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    struct cr0_real * shadow_cr0 = (struct cr0_real *)&(info->ctrl_regs.cr0);
-    struct cr0_real * dst_reg = (struct cr0_real *)(dec_instr.dst_operand.operand);
-    char cr0_val = *(char*)shadow_cr0 & 0x0f;
     
-    PrintDebug("SMSW\n");
-
-    // The lower 4 bits of the guest/shadow CR0 are mapped through
-    // We can treat nested and shadow paging the same here
-    *(char *)dst_reg &= 0xf0;
-    *(char *)dst_reg |= cr0_val;
     
-  } else {
-    PrintError("Unhandled opcode in handle_cr0_read\n");
-    return -1;
-  }
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError("Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type == V3_OP_MOVCR2) {
+       PrintDebug("MOVCR2 (mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+
+       if ((v3_get_vm_cpu_mode(info) == LONG) || 
+           (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+           struct cr0_64 * dst_reg = (struct cr0_64 *)(dec_instr.dst_operand.operand);
+       
+           if (info->shdw_pg_mode == SHADOW_PAGING) {
+               struct cr0_64 * guest_cr0 = (struct cr0_64 *)&(info->shdw_pg_state.guest_cr0);
+               *dst_reg = *guest_cr0;
+           } else {
+               struct cr0_64 * shadow_cr0 = (struct cr0_64 *)&(info->ctrl_regs.cr0);
+               *dst_reg = *shadow_cr0;
+           }
+
+           PrintDebug("returned CR0: %p\n", (void *)*(addr_t *)dst_reg);
+       } else {
+           struct cr0_32 * dst_reg = (struct cr0_32 *)(dec_instr.dst_operand.operand);
+       
+           if (info->shdw_pg_mode == SHADOW_PAGING) {
+               struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+               *dst_reg = *guest_cr0;
+           } else {
+               struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
+               *dst_reg = *shadow_cr0;
+           }
+
+           PrintDebug("returned CR0: %x\n", *(uint_t*)dst_reg);
+       }
 
-  info->rip += dec_instr.instr_length;
+    } else if (dec_instr.op_type == V3_OP_SMSW) {
+       struct cr0_real * shadow_cr0 = (struct cr0_real *)&(info->ctrl_regs.cr0);
+       struct cr0_real * dst_reg = (struct cr0_real *)(dec_instr.dst_operand.operand);
+       char cr0_val = *(char*)shadow_cr0 & 0x0f;
+       
+       PrintDebug("SMSW\n");
+       
+       // The lower 4 bits of the guest/shadow CR0 are mapped through
+       // We can treat nested and shadow paging the same here
+       *(char *)dst_reg &= 0xf0;
+       *(char *)dst_reg |= cr0_val;
+       
+    } else {
+       PrintError("Unhandled opcode in handle_cr0_read\n");
+       return -1;
+    }
+    
+    info->rip += dec_instr.instr_length;
 
-  return 0;
+    return 0;
 }
 
 
@@ -307,118 +288,76 @@ int v3_handle_cr0_read(struct guest_info * info) {
 // First Attempt = 256 lines
 // current = 65 lines
 int v3_handle_cr3_write(struct guest_info * info) {
-  int ret;
-  uchar_t instr[15];
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    PrintDebug("MOV2CR3\n");
-
-    if (info->mem_mode == PHYSICAL_MEM) {
-      // All we do is update the guest CR3
-
-      if (info->cpu_mode == LONG) {
-       struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
-       struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
-       *guest_cr3 = *new_cr3;
-      } else {
-       struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
-       struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-       *guest_cr3 = *new_cr3;
-      }
-
-    } else {
-
-      switch (info->cpu_mode) {
-      case PROTECTED:
-       if (handle_mov_to_cr3_32(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case PROTECTED_PAE:
-       if (handle_mov_to_cr3_32pae(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case LONG:
-       if (handle_mov_to_cr3_64(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case LONG_32_COMPAT:
-       if (handle_mov_to_cr3_64compat(info, &dec_instr) == -1) {
-         return -1;
-       }
-      default:
-       PrintError("Unhandled CPU mode: %d\n", info->cpu_mode);
+    int ret;
+    uchar_t instr[15];
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError("Could not decode instruction\n");
        return -1;
-      }
     }
-  } else {
-    PrintError("Unhandled opcode in handle_cr3_write\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-
-  return 0;
-}
-
-
-
-
-
-
-
-static int handle_mov_to_cr3_32(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintDebug("CR3 at 0x%p\n", &(info->ctrl_regs.cr3));
-
-  if (info->shdw_pg_mode == SHADOW_PAGING) {
-    struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr->src_operand.operand);       
-    struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-    //    struct cr3_32 * shadow_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
-
     
-    PrintDebug("Old Shadow CR3=%x; Old Guest CR3=%x\n", 
-              *(uint_t*)shadow_cr3, *(uint_t*)guest_cr3);
+    if (dec_instr.op_type == V3_OP_MOV2CR) {
+       PrintDebug("MOV2CR3 (cpu_mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           PrintDebug("Old Shadow CR3=%p; Old Guest CR3=%p\n", 
+                      (void *)(addr_t)(info->ctrl_regs.cr3), 
+                      (void*)(addr_t)(info->shdw_pg_state.guest_cr3));
+           
+           
+           // We update the guest CR3    
+           if (info->cpu_mode == LONG) {
+               struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
+               *guest_cr3 = *new_cr3;
+           } else {
+               struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+               *guest_cr3 = *new_cr3;
+           }
+
+
+           // If Paging is enabled in the guest then we need to change the shadow page tables
+           if (info->mem_mode == VIRTUAL_MEM) {
+               if (v3_activate_shadow_pt(info) == -1) {
+                   PrintError("Failed to activate 32 bit shadow page table\n");
+                   return -1;
+               }
+           }
+           
+           PrintDebug("New Shadow CR3=%p; New Guest CR3=%p\n", 
+                      (void *)(addr_t)(info->ctrl_regs.cr3), 
+                      (void*)(addr_t)(info->shdw_pg_state.guest_cr3));
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           
+           // This is just a passthrough operation which we probably don't need here
+           if (info->cpu_mode == LONG) {
+               struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->ctrl_regs.cr3);
+               *guest_cr3 = *new_cr3;
+           } else {
+               struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
+               *guest_cr3 = *new_cr3;
+           }
+           
+       }
+    } else {
+       PrintError("Unhandled opcode in handle_cr3_write\n");
+       return -1;
+    }
     
-
-    // Store the write value to virtualize CR3
-    *guest_cr3 = *new_cr3;    
+    info->rip += dec_instr.instr_length;
     
-    if (v3_activate_shadow_pt(info) == -1) {
-      PrintError("Failed to activate 32 bit shadow page table\n");
-      return -1;
-    }
-
-    PrintDebug("New Shadow CR3=%x; New Guest CR3=%x\n", 
-              *(uint_t*)shadow_cr3, *(uint_t*)guest_cr3);    
-  }
-  return 0;
-}
-
-
-static int handle_mov_to_cr3_32pae(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("32 Bit PAE mode Mov to CR3 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr3_64(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("Long mode Mov to CR3 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr3_64compat(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("Long compatiblity mode move to CR3 not implemented\n");
-  return -1;
+    return 0;
 }
 
 
@@ -426,189 +365,211 @@ static int handle_mov_to_cr3_64compat(struct guest_info * info, struct x86_instr
 // first attempt = 156 lines
 // current = 36 lines
 int v3_handle_cr3_read(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-     if (ret != 15) {
-     // I think we should inject a GPF into the guest
-     PrintError("Could not read instruction (ret=%d)\n", ret);
-     return -1;
-     }
-  */
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_MOVCR2, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    PrintDebug("MOVCR32\n");
-    struct cr3_32 * dst_reg = (struct cr3_32 *)(dec_instr.dst_operand.operand);
-
-    PrintDebug("CR3 at 0x%p\n", &(info->ctrl_regs.cr3));
-
-    if (info->shdw_pg_mode == SHADOW_PAGING) {
-      *dst_reg = *(struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError("Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type == V3_OP_MOVCR2) {
+       PrintDebug("MOVCR32 (mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr3_64 * dst_reg = (struct cr3_64 *)(dec_instr.dst_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
+               *dst_reg = *guest_cr3;
+           } else {
+               struct cr3_32 * dst_reg = (struct cr3_32 *)(dec_instr.dst_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+               *dst_reg = *guest_cr3;
+           }
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           
+           // This is just a passthrough operation which we probably don't need here
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr3_64 * dst_reg = (struct cr3_64 *)(dec_instr.dst_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->ctrl_regs.cr3);
+               *dst_reg = *guest_cr3;
+           } else {
+               struct cr3_32 * dst_reg = (struct cr3_32 *)(dec_instr.dst_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
+               *dst_reg = *guest_cr3;
+           }
+       }
+       
     } else {
-      *dst_reg = *(struct cr3_32 *)&(info->ctrl_regs.cr3);
+       PrintError("Unhandled opcode in handle_cr3_read\n");
+       return -1;
     }
-  } else {
-    PrintError("Unhandled opcode in handle_cr3_read\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-
-  return 0;
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
 }
 
+
+// We don't need to virtualize CR4, all we need is to detect the activation of PAE
 int v3_handle_cr4_read(struct guest_info * info) {
-  PrintError("CR4 Read not handled\n");
-  return -1;
+    //  PrintError("CR4 Read not handled\n");
+    // Do nothing...
+    return 0;
 }
 
 int v3_handle_cr4_write(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) != 0) {
-    PrintError("Invalid opcode in write to CR4\n");
-    return -1;
-  }
-
-  if ((info->cpu_mode == PROTECTED) || (info->cpu_mode == PROTECTED_PAE)) {
-    struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
-    struct cr4_32 * cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
+    uchar_t instr[15];
+    int ret;
+    int flush_tlb=0;
+    struct x86_instr dec_instr;
+    v3_cpu_mode_t cpu_mode = v3_get_vm_cpu_mode(info);
     
-    PrintDebug("OperandVal = %x, length = %d\n", *(uint_t *)new_cr4, dec_instr.src_operand.size);
-    PrintDebug("Old CR4=%x\n", *(uint_t *)cr4);
-
-    if ((info->shdw_pg_mode == SHADOW_PAGING) && 
-       (v3_get_mem_mode(info) == PHYSICAL_MEM)) {
-
-      if ((cr4->pae == 0) && (new_cr4->pae == 1)) {
-       PrintDebug("Creating PAE passthrough tables\n");
-
-       // Delete the old 32 bit direct map page tables
-       delete_page_tables_32((pde32_t *)V3_VAddr((void *)(info->direct_map_pt)));
-
-       // create 32 bit PAE direct map page table
-       info->direct_map_pt = (addr_t)V3_PAddr(create_passthrough_pts_32PAE(info));
-
-       // reset cr3 to new page tables
-       info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
-
-      } else if ((cr4->pae == 1) && (new_cr4->pae == 0)) {
-       // Create passthrough standard 32bit pagetables
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError("Could not decode instruction\n");
        return -1;
-      }
     }
+    
+    if (dec_instr.op_type != V3_OP_MOV2CR) {
+       PrintError("Invalid opcode in write to CR4\n");
+       return -1;
+    }
+    
+    // Check to see if we need to flush the tlb
+    
+    if (v3_get_vm_mem_mode(info) == VIRTUAL_MEM) { 
+       struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
+       struct cr4_32 * cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
+       
+       // if pse, pge, or pae have changed while PG (in any mode) is on
+       // the side effect is a TLB flush, which means we need to
+       // toss the current shadow page tables too
+       //
+       // 
+       // TODO - PAE FLAG needs to be special cased
+       if ((cr4->pse != new_cr4->pse) || 
+           (cr4->pge != new_cr4->pge) || 
+           (cr4->pae != new_cr4->pae)) { 
+           PrintDebug("Handling PSE/PGE/PAE -> TLBFlush case, flag set\n");
+           flush_tlb=1;
+           
+       }
+    }
+    
 
-    *cr4 = *new_cr4;
-    PrintDebug("New CR4=%x\n", *(uint_t *)cr4);
-
-  } else {
-    PrintError("CR4 write not supported in CPU_MODE: %d\n", info->cpu_mode);
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-  return 0;
+    if ((cpu_mode == PROTECTED) || (cpu_mode == PROTECTED_PAE)) {
+       struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
+       struct cr4_32 * cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
+       
+       PrintDebug("OperandVal = %x, length = %d\n", *(uint_t *)new_cr4, dec_instr.src_operand.size);
+       PrintDebug("Old CR4=%x\n", *(uint_t *)cr4);
+       
+       if ((info->shdw_pg_mode == SHADOW_PAGING)) { 
+           if (v3_get_vm_mem_mode(info) == PHYSICAL_MEM) {
+               
+               if ((cr4->pae == 0) && (new_cr4->pae == 1)) {
+                   PrintDebug("Creating PAE passthrough tables\n");
+                   
+                   // create 32 bit PAE direct map page table
+                   if (v3_reset_passthrough_pts(info) == -1) {
+                       PrintError("Could not create 32 bit PAE passthrough pages tables\n");
+                       return -1;
+                   }
+
+                   // reset cr3 to new page tables
+                   info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
+                   
+               } else if ((cr4->pae == 1) && (new_cr4->pae == 0)) {
+                   // Create passthrough standard 32bit pagetables
+                   PrintError("Switching From PAE to Protected mode not supported\n");
+                   return -1;
+               } 
+           }
+       }
+       
+       *cr4 = *new_cr4;
+       PrintDebug("New CR4=%x\n", *(uint_t *)cr4);
+       
+    } else if ((cpu_mode == LONG) || (cpu_mode == LONG_32_COMPAT)) {
+       struct cr4_64 * new_cr4 = (struct cr4_64 *)(dec_instr.src_operand.operand);
+       struct cr4_64 * cr4 = (struct cr4_64 *)&(info->ctrl_regs.cr4);
+       
+       PrintDebug("Old CR4=%p\n", (void *)*(addr_t *)cr4);
+       PrintDebug("New CR4=%p\n", (void *)*(addr_t *)new_cr4);
+       
+       if (new_cr4->pae == 0) {
+           // cannot turn off PAE in long mode GPF the guest
+           PrintError("Cannot disable PAE in long mode, should send GPF\n");
+           return -1;
+       }
+       
+       *cr4 = *new_cr4;
+       
+    } else {
+       PrintError("CR4 write not supported in CPU_MODE: %s\n", v3_cpu_mode_to_str(cpu_mode));
+       return -1;
+    }
+    
+    
+    if (flush_tlb) {
+       PrintDebug("Handling PSE/PGE/PAE -> TLBFlush (doing flush now!)\n");
+       if (v3_activate_shadow_pt(info) == -1) {
+           PrintError("Failed to activate shadow page tables when emulating TLB flush in handling cr4 write\n");
+           return -1;
+       }
+    }
+    
+    
+    info->rip += dec_instr.instr_length;
+    return 0;
 }
 
 
 int v3_handle_efer_read(uint_t msr, struct v3_msr * dst, void * priv_data) {
-  struct guest_info * info = (struct guest_info *)(priv_data);
-  PrintDebug("EFER Read\n");
-
-  dst->value = info->guest_efer.value;
-
-  info->rip += 2; // WRMSR/RDMSR are two byte operands
-  return 0;
+    struct guest_info * info = (struct guest_info *)(priv_data);
+    PrintDebug("EFER Read HI=%x LO=%x\n", info->shdw_pg_state.guest_efer.hi, info->shdw_pg_state.guest_efer.lo);
+    
+    dst->value = info->shdw_pg_state.guest_efer.value;
+    
+    return 0;
 }
 
 
-int v3_handle_efer_write(uint_t msr, struct v3_msr src, void * priv_data) {
-  struct guest_info * info = (struct guest_info *)(priv_data);
-  struct efer_64 * new_efer = (struct efer_64 *)&(src.value);
-  struct efer_64 * shadow_efer = (struct efer_64 *)&(info->ctrl_regs.efer);
-  struct v3_msr * guest_efer = &(info->guest_efer);
-
-  PrintDebug("EFER Write\n");
-  PrintDebug("Old EFER=%p\n", (void *)*(addr_t*)(shadow_efer));
-
-  // We virtualize the guests efer to hide the SVME and LMA bits
-  guest_efer->value = src.value;
-
-  if ((info->shdw_pg_mode == SHADOW_PAGING) && 
-      (v3_get_mem_mode(info) == PHYSICAL_MEM)) {
-    
-    if ((shadow_efer->lme == 0) && (new_efer->lme == 1)) {
-      PrintDebug("Transition to longmode\n");
-      PrintDebug("Creating Passthrough 64 bit page tables\n");
-      
-      // Delete the old 32 bit direct map page tables
-      /* 
-       * JRL BUG? 
-       * Will these page tables always be in PAE format?? 
-       */
-      PrintDebug("Deleting old PAE Page tables\n");
-      PrintError("JRL BUG?: Will the old page tables always be in PAE format??\n");
-      delete_page_tables_32PAE((pdpe32pae_t *)V3_VAddr((void *)(info->direct_map_pt)));
-      
-      // create 64 bit direct map page table
-      info->direct_map_pt = (addr_t)V3_PAddr(create_passthrough_pts_64(info));
-      
-      // reset cr3 to new page tables
-      info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
-      
-      // We mark the Long Mode active  because we have paging enabled
-      // We do this in new_efer because we copy the msr in full below
-      new_efer->lma = 1;
-      
-    } else if ((shadow_efer->lme == 1) && (new_efer->lme == 0)) {
-      // transition out of long mode
-      //((struct efer_64 *)&(info->guest_efer.value))->lme = 0;
-      //((struct efer_64 *)&(info->guest_efer.value))->lma = 0;
-      
-      return -1;
-    }
 
-    // accept all changes to the efer, but make sure that the SVME bit is set... (SVM specific)
-    *shadow_efer = *new_efer;
-    shadow_efer->svme = 1;
+// TODO: this is a disaster we need to clean this up...
+int v3_handle_efer_write(uint_t msr, struct v3_msr src, void * priv_data) {
+    struct guest_info * info = (struct guest_info *)(priv_data);
+    //struct efer_64 * new_efer = (struct efer_64 *)&(src.value);
+    struct efer_64 * shadow_efer = (struct efer_64 *)&(info->ctrl_regs.efer);
+    struct v3_msr * guest_efer = &(info->shdw_pg_state.guest_efer);
     
-
-
-    PrintDebug("New EFER=%p\n", (void *)*(addr_t *)(shadow_efer));
-  } else {
-    PrintError("Write to EFER in NESTED_PAGING or VIRTUAL_MEM mode not supported\n");
-    // Should probably just check for a long mode transition, and bomb out if it is
-    return -1;
-  }
-
-  info->rip += 2; // WRMSR/RDMSR are two byte operands
-
-  return 0;
+    PrintDebug("EFER Write\n");
+    PrintDebug("EFER Write Values: HI=%x LO=%x\n", src.hi, src.lo);
+    //PrintDebug("Old EFER=%p\n", (void *)*(addr_t*)(shadow_efer));
+    
+    // We virtualize the guests efer to hide the SVME and LMA bits
+    guest_efer->value = src.value;
+    
+    
+    // Enable/Disable Syscall
+    shadow_efer->sce = src.value & 0x1;
+    
+    return 0;
 }