Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Cleanup based on cppcheck pass (Core)
[palacios.git] / palacios / src / palacios / vmm_ctrl_regs.c
index afdd374..add91ff 100644 (file)
 #include <palacios/vmm_decoder.h>
 #include <palacios/vm_guest_mem.h>
 #include <palacios/vmm_ctrl_regs.h>
+#include <palacios/vmm_direct_paging.h>
+#include <palacios/svm.h>
 
-
-
-/* Segmentation is a problem here...
- *
- * When we get a memory operand, presumably we use the default segment (which is?) 
- * unless an alternate segment was specfied in the prefix...
- */
-
-
-#ifndef DEBUG_CTRL_REGS
+#ifndef V3_CONFIG_DEBUG_CTRL_REGS
 #undef PrintDebug
 #define PrintDebug(fmt, args...)
 #endif
 
 static int handle_lmsw(struct guest_info * info, struct x86_instr * dec_instr);
 static int handle_clts(struct guest_info * info, struct x86_instr * dec_instr);
-
 static int handle_mov_to_cr0(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_32(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_32pae(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_64(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr0_64compat(struct guest_info * info, struct x86_instr * dec_instr);
-
-static int handle_mov_to_cr3_32(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_32pae(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_64(struct guest_info * info, struct x86_instr * dec_instr);
-static int handle_mov_to_cr3_64compat(struct guest_info * info, struct x86_instr * dec_instr);
-
 
 
 // First Attempt = 494 lines
 // current = 106 lines
 int v3_handle_cr0_write(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-    if (ret != 15) {
-    // I think we should inject a GPF into the guest
-    PrintError("Could not read instruction (ret=%d)\n", ret);
-    return -1;
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
     }
-  */
 
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_LMSW, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_lmsw(info, &dec_instr) == -1) {
-      return -1;
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
     }
-
-  } else if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_mov_to_cr0(info, &dec_instr) == -1) {
-      return -1;
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+        PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
     }
 
-  } else if (v3_opcode_cmp(V3_OPCODE_CLTS, (const uchar_t *)(dec_instr.opcode)) == 0) {
-
-    if (handle_clts(info, &dec_instr) == -1) {
-      return -1;
+    
+    if (dec_instr.op_type == V3_OP_LMSW) {
+       if (handle_lmsw(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else if (dec_instr.op_type == V3_OP_MOV2CR) {
+       if (handle_mov_to_cr0(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else if (dec_instr.op_type == V3_OP_CLTS) {
+       if (handle_clts(info, &dec_instr) == -1) {
+           return -1;
+       }
+    } else {
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr0_write\n");
+       return -1;
     }
-
-  } else {
-    PrintError("Unhandled opcode in handle_cr0_write\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-
-  return 0;
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
 }
 
 
 
 
+// The CR0 register only has flags in the low 32 bits
+// The hardware does a format check to make sure the high bits are zero
+// Because of this we can ignore the high 32 bits here
 static int handle_mov_to_cr0(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintDebug("MOV2CR0\n");
-
-  switch (info->cpu_mode) {
-  case REAL:
-  case PROTECTED:
-    return handle_mov_to_cr0_32(info, dec_instr);    
-  case PROTECTED_PAE:
-    return handle_mov_to_cr0_32pae(info, dec_instr);
-  case LONG:
-    return handle_mov_to_cr0_64(info, dec_instr);
-  case LONG_32_COMPAT:
-    return handle_mov_to_cr0_64compat(info, dec_instr);
-  default:
-    PrintError("Invalid CPU Operating Mode: %d\n", info->cpu_mode);
-    return -1;
-
-  }
-}
-
-static int handle_mov_to_cr0_32pae(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("32 bit PAE mov to CR0 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr0_64(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("64 bit mov to CR0 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr0_64compat(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("64 bit compatibility mode move to CR0 not implemented\n");
-  return -1;
-}
-
-
-static int handle_mov_to_cr0_32(struct guest_info * info, struct x86_instr * dec_instr) {
-
-  // 32 bit registers
-  struct cr0_32 *real_cr0 = (struct cr0_32*)&(info->ctrl_regs.cr0);
-  struct cr0_32 *new_cr0= (struct cr0_32 *)(dec_instr->src_operand.operand);
-  
-  PrintDebug("OperandVal = %x, length=%d\n", *(uint_t *)new_cr0, dec_instr->src_operand.size);
-  
-  
-  PrintDebug("Old CR0=%x\n", *(uint_t *)real_cr0);
-  *real_cr0 = *new_cr0;
-  
-  
-  if (info->shdw_pg_mode == SHADOW_PAGING) {
-    struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+    // 32 bit registers
+    struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
+    struct cr0_32 * new_cr0 = (struct cr0_32 *)(dec_instr->src_operand.operand);
+    struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+    uint_t paging_transition = 0;
+    
+    PrintDebug(info->vm_info, info, "MOV2CR0 (MODE=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+    
+    PrintDebug(info->vm_info, info, "OperandVal = %x, length=%d\n", *(uint_t *)new_cr0, dec_instr->src_operand.size);
+    
+    PrintDebug(info->vm_info, info, "Old CR0=%x\n", *(uint_t *)shadow_cr0);
+    PrintDebug(info->vm_info, info, "Old Guest CR0=%x\n", *(uint_t *)guest_cr0);       
     
-    PrintDebug("Old Shadow CR0=%x\n", *(uint_t *)shadow_cr0);  
     
-    real_cr0->et = 1;
+    // We detect if this is a paging transition
+    if (guest_cr0->pg != new_cr0->pg) {
+       paging_transition = 1;
+    }  
     
-    *shadow_cr0 = *new_cr0;
-    shadow_cr0->et = 1;
+    // Guest always sees the value they wrote
+    *guest_cr0 = *new_cr0;
     
-    if (v3_get_mem_mode(info) == VIRTUAL_MEM) {
-      struct cr3_32 * shadow_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.shadow_cr3);
-      PrintDebug("Setting up Shadow Page Table\n");
-      info->ctrl_regs.cr3 = *(addr_t*)shadow_cr3;
-    } else  {
-      info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
-      real_cr0->pg = 1;
+    // This value must always be set to 1 
+    guest_cr0->et = 1;
+    
+    // Set the shadow register to catch non-virtualized flags
+    *shadow_cr0 = *guest_cr0;
+    
+    // Paging is always enabled
+    shadow_cr0->pg = 1;
+
+    if (guest_cr0->pg == 0) {
+       // If paging is not enabled by the guest, then we always enable write-protect to catch memory hooks
+       shadow_cr0->wp = 1;
     }
     
-    PrintDebug("New Shadow CR0=%x\n",*(uint_t *)shadow_cr0);
-  }
-  PrintDebug("New CR0=%x\n", *(uint_t *)real_cr0);
-  
-  return 0;
+    // Was there a paging transition
+    // Meaning we need to change the page tables
+    if (paging_transition) {
+       if (v3_get_vm_mem_mode(info) == VIRTUAL_MEM) {
+           
+           struct efer_64 * guest_efer  = (struct efer_64 *)&(info->shdw_pg_state.guest_efer);
+           struct efer_64 * shadow_efer = (struct efer_64 *)&(info->ctrl_regs.efer);
+           
+           // Check long mode LME to set LME
+           if (guest_efer->lme == 1) {
+               PrintDebug(info->vm_info, info, "Enabing Long Mode\n");
+               guest_efer->lma = 1;
+               
+               shadow_efer->lma = 1;
+               shadow_efer->lme = 1;
+               
+               PrintDebug(info->vm_info, info, "New EFER %p\n", (void *)*(addr_t *)(shadow_efer));
+           }
+           
+           PrintDebug(info->vm_info, info, "Activating Shadow Page Tables\n");
+           
+           if (v3_activate_shadow_pt(info) == -1) {
+               PrintError(info->vm_info, info, "Failed to activate shadow page tables\n");
+               return -1;
+           }
+       } else {
+
+           shadow_cr0->wp = 1;
+           
+           if (v3_activate_passthrough_pt(info) == -1) {
+               PrintError(info->vm_info, info, "Failed to activate passthrough page tables\n");
+               return -1;
+           }
+       }
+    }
+    
+    
+    PrintDebug(info->vm_info, info, "New Guest CR0=%x\n",*(uint_t *)guest_cr0);  
+    PrintDebug(info->vm_info, info, "New CR0=%x\n", *(uint_t *)shadow_cr0);
+    
+    return 0;
 }
 
 
 
 
 static int handle_clts(struct guest_info * info, struct x86_instr * dec_instr) {
-  // CLTS
-  struct cr0_32 *real_cr0 = (struct cr0_32*)&(info->ctrl_regs.cr0);
-  
-  real_cr0->ts = 0;
-  
-  if (info->shdw_pg_mode == SHADOW_PAGING) {
-    struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
-    shadow_cr0->ts = 0;
-  }
-  return 0;
+    // CLTS
+    struct cr0_32 * real_cr0 = (struct cr0_32*)&(info->ctrl_regs.cr0);
+    
+    real_cr0->ts = 0;
+    
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+       guest_cr0->ts = 0;
+    }
+    return 0;
 }
 
 
 static int handle_lmsw(struct guest_info * info, struct x86_instr * dec_instr) {
- struct cr0_real *real_cr0  = (struct cr0_real*)&(info->ctrl_regs.cr0);
- struct cr0_real *new_cr0 = (struct cr0_real *)(dec_instr->src_operand.operand);       
- uchar_t new_cr0_val;
- PrintDebug("LMSW\n");
- new_cr0_val = (*(char*)(new_cr0)) & 0x0f;
- PrintDebug("OperandVal = %x\n", new_cr0_val);
- PrintDebug("Old CR0=%x\n", *(uint_t *)real_cr0);      
- *(uchar_t*)real_cr0 &= 0xf0;
- *(uchar_t*)real_cr0 |= new_cr0_val;
- PrintDebug("New CR0=%x\n", *(uint_t *)real_cr0);      
- if (info->shdw_pg_mode == SHADOW_PAGING) {
-   struct cr0_real * shadow_cr0 = (struct cr0_real*)&(info->shdw_pg_state.guest_cr0);
-   
-   PrintDebug(" Old Shadow CR0=%x\n", *(uint_t *)shadow_cr0);  
-   *(uchar_t*)shadow_cr0 &= 0xf0;
-   *(uchar_t*)shadow_cr0 |= new_cr0_val;
-   PrintDebug("New Shadow CR0=%x\n", *(uint_t *)shadow_cr0);   
- }
- return 0;
+    struct cr0_real * real_cr0  = (struct cr0_real *)&(info->ctrl_regs.cr0);
+    // XED is a mess, and basically reverses the operand order for an LMSW
+    struct cr0_real * new_cr0 = (struct cr0_real *)(dec_instr->dst_operand.operand);   
+    uchar_t new_cr0_val;
+    
+    PrintDebug(info->vm_info, info, "LMSW\n");
+    
+    new_cr0_val = (*(char*)(new_cr0)) & 0x0f;
+    
+    PrintDebug(info->vm_info, info, "OperandVal = %x\n", new_cr0_val);
+    
+    // We can just copy the new value through
+    // we don't need to virtualize the lower 4 bits
+    PrintDebug(info->vm_info, info, "Old CR0=%x\n", *(uint_t *)real_cr0);      
+    *(uchar_t*)real_cr0 &= 0xf0;
+    *(uchar_t*)real_cr0 |= new_cr0_val;
+    PrintDebug(info->vm_info, info, "New CR0=%x\n", *(uint_t *)real_cr0);      
+    
+    
+    // If Shadow paging is enabled we push the changes to the virtualized copy of cr0
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       struct cr0_real * guest_cr0 = (struct cr0_real*)&(info->shdw_pg_state.guest_cr0);
+       
+       PrintDebug(info->vm_info, info, "Old Guest CR0=%x\n", *(uint_t *)guest_cr0);    
+       *(uchar_t*)guest_cr0 &= 0xf0;
+       *(uchar_t*)guest_cr0 |= new_cr0_val;
+       PrintDebug(info->vm_info, info, "New Guest CR0=%x\n", *(uint_t *)guest_cr0);    
+    }
+    return 0;
 }
 
 
 
 
 
-
-
-
-
-
 // First attempt = 253 lines
 // current = 51 lines
 int v3_handle_cr0_read(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-     if (ret != 15) {
-     // I think we should inject a GPF into the guest
-     PrintError("Could not read instruction (ret=%d)\n", ret);
-     return -1;
-     }
-  */
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-  
-  if (v3_opcode_cmp(V3_OPCODE_MOVCR2, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    struct cr0_32 * virt_cr0 = (struct cr0_32 *)(dec_instr.dst_operand.operand);
-    struct cr0_32 * real_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
-    
-    PrintDebug("MOVCR2\n");
-    PrintDebug("CR0 at 0x%p\n", (void *)real_cr0);
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
 
-    if (info->shdw_pg_mode == SHADOW_PAGING) {
-      *virt_cr0 = *(struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
-    } else {
-      *virt_cr0 = *real_cr0;
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
     }
     
-    PrintDebug("real CR0: %x\n", *(uint_t*)real_cr0);
-    PrintDebug("returned CR0: %x\n", *(uint_t*)virt_cr0);
-  } else if (v3_opcode_cmp(V3_OPCODE_SMSW, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    struct cr0_real *real_cr0= (struct cr0_real*)&(info->ctrl_regs.cr0);
-    struct cr0_real *virt_cr0 = (struct cr0_real *)(dec_instr.dst_operand.operand);
-    char cr0_val = *(char*)real_cr0 & 0x0f;
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
     
-    PrintDebug("SMSW\n");
-
-    PrintDebug("CR0 at 0x%p\n", real_cr0);
+    if (dec_instr.op_type == V3_OP_MOVCR2) {
+       PrintDebug(info->vm_info, info, "MOVCR2 (mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+
+       if ((v3_get_vm_cpu_mode(info) == LONG) || 
+           (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+           struct cr0_64 * dst_reg = (struct cr0_64 *)(dec_instr.dst_operand.operand);
+       
+           if (info->shdw_pg_mode == SHADOW_PAGING) {
+               struct cr0_64 * guest_cr0 = (struct cr0_64 *)&(info->shdw_pg_state.guest_cr0);
+               *dst_reg = *guest_cr0;
+           } else {
+               struct cr0_64 * shadow_cr0 = (struct cr0_64 *)&(info->ctrl_regs.cr0);
+               *dst_reg = *shadow_cr0;
+           }
+
+           PrintDebug(info->vm_info, info, "returned CR0: %p\n", (void *)*(addr_t *)dst_reg);
+       } else {
+           struct cr0_32 * dst_reg = (struct cr0_32 *)(dec_instr.dst_operand.operand);
+       
+           if (info->shdw_pg_mode == SHADOW_PAGING) {
+               struct cr0_32 * guest_cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
+               *dst_reg = *guest_cr0;
+           } else {
+               struct cr0_32 * shadow_cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
+               *dst_reg = *shadow_cr0;
+           }
+
+           PrintDebug(info->vm_info, info, "returned CR0: %x\n", *(uint_t*)dst_reg);
+       }
 
-    *(char *)virt_cr0 &= 0xf0;
-    *(char *)virt_cr0 |= cr0_val;
+    } else if (dec_instr.op_type == V3_OP_SMSW) {
+       struct cr0_real * shadow_cr0 = (struct cr0_real *)&(info->ctrl_regs.cr0);
+       struct cr0_real * dst_reg = (struct cr0_real *)(dec_instr.dst_operand.operand);
+       char cr0_val = *(char*)shadow_cr0 & 0x0f;
+       
+       PrintDebug(info->vm_info, info, "SMSW\n");
+       
+       // The lower 4 bits of the guest/shadow CR0 are mapped through
+       // We can treat nested and shadow paging the same here
+       *(char *)dst_reg &= 0xf0;
+       *(char *)dst_reg |= cr0_val;
+       
+    } else {
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr0_read\n");
+       return -1;
+    }
     
-  } else {
-    PrintError("Unhandled opcode in handle_cr0_read\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
+    info->rip += dec_instr.instr_length;
 
-  return 0;
+    return 0;
 }
 
 
@@ -310,324 +303,531 @@ int v3_handle_cr0_read(struct guest_info * info) {
 // First Attempt = 256 lines
 // current = 65 lines
 int v3_handle_cr3_write(struct guest_info * info) {
-  int ret;
-  uchar_t instr[15];
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    PrintDebug("MOV2CR3\n");
-
-    if (info->mem_mode == PHYSICAL_MEM) {
-      // All we do is update the guest CR3
-
-      if (info->cpu_mode == LONG) {
-       struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
-       struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
-       *guest_cr3 = *new_cr3;
-      } else {
-       struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
-       struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-       *guest_cr3 = *new_cr3;
-      }
-
-    } else {
-
-      switch (info->cpu_mode) {
-      case PROTECTED:
-       if (handle_mov_to_cr3_32(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case PROTECTED_PAE:
-       if (handle_mov_to_cr3_32pae(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case LONG:
-       if (handle_mov_to_cr3_64(info, &dec_instr) == -1) {
-         return -1;
-       }
-      case LONG_32_COMPAT:
-       if (handle_mov_to_cr3_64compat(info, &dec_instr) == -1) {
-         return -1;
+    int ret;
+    uchar_t instr[15];
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type == V3_OP_MOV2CR) {
+       PrintDebug(info->vm_info, info, "MOV2CR3 (cpu_mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           PrintDebug(info->vm_info, info, "Old Shadow CR3=%p; Old Guest CR3=%p\n", 
+                      (void *)(addr_t)(info->ctrl_regs.cr3), 
+                      (void*)(addr_t)(info->shdw_pg_state.guest_cr3));
+           
+           
+           // We update the guest CR3    
+           if (info->cpu_mode == LONG) {
+               struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
+               *guest_cr3 = *new_cr3;
+           } else {
+               struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+               *guest_cr3 = *new_cr3;
+           }
+
+
+           // If Paging is enabled in the guest then we need to change the shadow page tables
+           if (info->mem_mode == VIRTUAL_MEM) {
+               if (v3_activate_shadow_pt(info) == -1) {
+                   PrintError(info->vm_info, info, "Failed to activate 32 bit shadow page table\n");
+                   return -1;
+               }
+           }
+           
+           PrintDebug(info->vm_info, info, "New Shadow CR3=%p; New Guest CR3=%p\n", 
+                      (void *)(addr_t)(info->ctrl_regs.cr3), 
+                      (void*)(addr_t)(info->shdw_pg_state.guest_cr3));
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           
+           // This is just a passthrough operation which we probably don't need here
+           if (info->cpu_mode == LONG) {
+               struct cr3_64 * new_cr3 = (struct cr3_64 *)(dec_instr.src_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->ctrl_regs.cr3);
+               *guest_cr3 = *new_cr3;
+           } else {
+               struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr.src_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
+               *guest_cr3 = *new_cr3;
+           }
+           
        }
-      default:
-       PrintError("Unhandled CPU mode: %d\n", info->cpu_mode);
+    } else {
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr3_write\n");
        return -1;
-      }
     }
-  } else {
-    PrintError("Unhandled opcode in handle_cr3_write\n");
-    return -1;
-  }
-
-  info->rip += dec_instr.instr_length;
-
-  return 0;
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
 }
 
 
 
-
-
-
-
-static int handle_mov_to_cr3_32(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintDebug("CR3 at 0x%p\n", &(info->ctrl_regs.cr3));
-
-  if (info->shdw_pg_mode == SHADOW_PAGING) {
-    struct cr3_32 * new_cr3 = (struct cr3_32 *)(dec_instr->src_operand.operand);       
-    struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
-    struct cr3_32 * shadow_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.shadow_cr3);
-    int cached = 0;
-    
-    
-    PrintDebug("Old Shadow CR3=%x; Old Guest CR3=%x\n", 
-              *(uint_t*)shadow_cr3, *(uint_t*)guest_cr3);
+// first attempt = 156 lines
+// current = 36 lines
+int v3_handle_cr3_read(struct guest_info * info) {
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
     
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
     
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
     
-    cached = v3_cache_page_tables32(info, (addr_t)V3_PAddr((void *)(addr_t)CR3_TO_PDE32((void *)*(addr_t *)new_cr3)));
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
     
-    if (cached == -1) {
-      PrintError("CR3 Cache failed\n");
-      return -1;
-    } else if (cached == 0) {
-      addr_t shadow_pt;
-      
-      if(info->mem_mode == VIRTUAL_MEM) {
-       PrintDebug("New CR3 is different - flushing shadow page table %p\n", shadow_cr3 );
-       delete_page_tables_32((pde32_t *)CR3_TO_PDE32(*(uint_t*)shadow_cr3));
-      }
-      
-      shadow_pt =  v3_create_new_shadow_pt();
-      
-      shadow_cr3->pdt_base_addr = (addr_t)V3_PAddr((void *)(addr_t)PD32_BASE_ADDR(shadow_pt));
-      PrintDebug( "Created new shadow page table %p\n", (void *)(addr_t)shadow_cr3->pdt_base_addr );
-      //PrintDebugPageTables( (pde32_t *)CR3_TO_PDE32(*(uint_t*)shadow_cr3) );
-      
-      
+    if (dec_instr.op_type == V3_OP_MOVCR2) {
+       PrintDebug(info->vm_info, info, "MOVCR32 (mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr3_64 * dst_reg = (struct cr3_64 *)(dec_instr.dst_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->shdw_pg_state.guest_cr3);
+               *dst_reg = *guest_cr3;
+           } else {
+               struct cr3_32 * dst_reg = (struct cr3_32 *)(dec_instr.dst_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+               *dst_reg = *guest_cr3;
+           }
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           
+           // This is just a passthrough operation which we probably don't need here
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr3_64 * dst_reg = (struct cr3_64 *)(dec_instr.dst_operand.operand);
+               struct cr3_64 * guest_cr3 = (struct cr3_64 *)&(info->ctrl_regs.cr3);
+               *dst_reg = *guest_cr3;
+           } else {
+               struct cr3_32 * dst_reg = (struct cr3_32 *)(dec_instr.dst_operand.operand);
+               struct cr3_32 * guest_cr3 = (struct cr3_32 *)&(info->ctrl_regs.cr3);
+               *dst_reg = *guest_cr3;
+           }
+       }
+       
     } else {
-      PrintDebug("Reusing cached shadow Page table\n");
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr3_read\n");
+       return -1;
     }
     
+    info->rip += dec_instr.instr_length;
     
-    shadow_cr3->pwt = new_cr3->pwt;
-    shadow_cr3->pcd = new_cr3->pcd;
+    return 0;
+}
+
+
+//return guest cr4 - shadow PAE is always on
+int v3_handle_cr4_read(struct guest_info * info) {
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
     
-    // What the hell...
-    *guest_cr3 = *new_cr3;
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
     
-    PrintDebug("New Shadow CR3=%x; New Guest CR3=%x\n", 
-              *(uint_t*)shadow_cr3, *(uint_t*)guest_cr3);
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
     
-    if (info->mem_mode == VIRTUAL_MEM) {
-      // If we aren't in paged mode then we have to preserve the identity mapped CR3
-      info->ctrl_regs.cr3 = *(addr_t*)shadow_cr3;
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
     }
-  }
-  return 0;
-}
-
-
-static int handle_mov_to_cr3_32pae(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("32 Bit PAE mode Mov to CR3 not implemented\n");
-  return -1;
+    if (dec_instr.op_type != V3_OP_MOVCR2) {
+       PrintError(info->vm_info, info, "Invalid opcode in read CR4\n");
+       return -1;
+    }
+       
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr4_64 * dst_reg = (struct cr4_64 *)(dec_instr.dst_operand.operand);
+               struct cr4_64 * guest_cr4 = (struct cr4_64 *)&(info->ctrl_regs.cr4);
+               *dst_reg = *guest_cr4;
+           } 
+           else {
+               struct cr4_32 * dst_reg = (struct cr4_32 *)(dec_instr.dst_operand.operand);
+               struct cr4_32 * guest_cr4 = (struct cr4_32 *)&(info->shdw_pg_state.guest_cr4);
+               *dst_reg = *guest_cr4;
+           }
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           
+           
+           if ((v3_get_vm_cpu_mode(info) == LONG) || 
+               (v3_get_vm_cpu_mode(info) == LONG_32_COMPAT)) {
+               struct cr4_64 * dst_reg = (struct cr4_64 *)(dec_instr.dst_operand.operand);
+               struct cr4_64 * guest_cr4 = (struct cr4_64 *)&(info->ctrl_regs.cr4);
+               *dst_reg = *guest_cr4;
+           } else {
+               struct cr4_32 * dst_reg = (struct cr4_32 *)(dec_instr.dst_operand.operand);
+               struct cr4_32 * guest_cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
+               *dst_reg = *guest_cr4;
+           }
+       }
+       
+       info->rip += dec_instr.instr_length;
+    return 0;
 }
 
-static int handle_mov_to_cr3_64(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("Long mode Mov to CR3 not implemented\n");
-  return -1;
-}
-
-static int handle_mov_to_cr3_64compat(struct guest_info * info, struct x86_instr * dec_instr) {
-  PrintError("Long compatiblity mode move to CR3 not implemented\n");
-  return -1;
-}
 
+int v3_handle_cr4_write(struct guest_info * info) {
+    uchar_t instr[15];
+    int ret;
+    int flush_tlb=0;
+    struct x86_instr dec_instr;
+    v3_cpu_mode_t cpu_mode = v3_get_vm_cpu_mode(info);
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
+    
 
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type != V3_OP_MOV2CR) {
+       PrintError(info->vm_info, info, "Invalid opcode in write to CR4\n");
+       return -1;
+    }
+    
+    // Check to see if we need to flush the tlb
+    
 
-// first attempt = 156 lines
-// current = 36 lines
-int v3_handle_cr3_read(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
-
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
-
-  /* The IFetch will already have faulted in the necessary bytes for the full instruction
-     if (ret != 15) {
-     // I think we should inject a GPF into the guest
-     PrintError("Could not read instruction (ret=%d)\n", ret);
-     return -1;
-     }
-  */
-
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
-
-  if (v3_opcode_cmp(V3_OPCODE_MOVCR2, (const uchar_t *)(dec_instr.opcode)) == 0) {
-    PrintDebug("MOVCR32\n");
-    struct cr3_32 * virt_cr3 = (struct cr3_32 *)(dec_instr.dst_operand.operand);
-
-    PrintDebug("CR3 at 0x%p\n", &(info->ctrl_regs.cr3));
+    if (v3_get_vm_mem_mode(info) == VIRTUAL_MEM) { 
+       struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
+       struct cr4_32 * cr4 = (struct cr4_32 *)&(info->shdw_pg_state.guest_cr4);
+       
+       // if pse, pge, or pae have changed while PG (in any mode) is on
+       // the side effect is a TLB flush, which means we need to
+       // toss the current shadow page tables too
+       //
+       // 
+       // TODO - PAE FLAG needs to be special cased
+       if ((cr4->pse != new_cr4->pse) || 
+           (cr4->pge != new_cr4->pge) || 
+           (cr4->pae != new_cr4->pae)) { 
+           PrintDebug(info->vm_info, info, "Handling PSE/PGE/PAE -> TLBFlush case, flag set\n");
+           flush_tlb = 1;
+           
+       }
+    }
+    
 
-    if (info->shdw_pg_mode == SHADOW_PAGING) {
-      *virt_cr3 = *(struct cr3_32 *)&(info->shdw_pg_state.guest_cr3);
+    if ((cpu_mode == PROTECTED) || (cpu_mode == PROTECTED_PAE)) {
+       struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
+       struct cr4_32 * shadow_cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
+       struct cr4_32 * guest_cr4 = (struct cr4_32 *)&(info->shdw_pg_state.guest_cr4);
+       PrintDebug(info->vm_info, info, "OperandVal = %x, length = %d\n", *(uint_t *)new_cr4, dec_instr.src_operand.size);
+       PrintDebug(info->vm_info, info, "Old guest CR4=%x\n", *(uint_t *)guest_cr4);
+       
+       if ((info->shdw_pg_mode == SHADOW_PAGING)) { 
+           if (v3_get_vm_mem_mode(info) == PHYSICAL_MEM) {
+               
+               if ((guest_cr4->pae == 0) && (new_cr4->pae == 1)) {
+                   PrintDebug(info->vm_info, info, "Creating PAE passthrough tables\n");
+                   
+                   // create 32 bit PAE direct map page table
+                   if (v3_reset_passthrough_pts(info) == -1) {
+                       PrintError(info->vm_info, info, "Could not create 32 bit PAE passthrough pages tables\n");
+                       return -1;
+                   }
+
+                   // reset cr3 to new page tables
+                   info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
+                   
+               } else if ((guest_cr4->pae == 1) && (new_cr4->pae == 0)) {
+                   // Create passthrough standard 32bit pagetables
+                   PrintError(info->vm_info, info, "Switching From PAE to Protected mode not supported\n");
+                   return -1;
+               } 
+           }
+       }
+       
+       *guest_cr4 = *new_cr4;
+       *shadow_cr4 = *guest_cr4;
+       shadow_cr4->pae = 1;   // always on for the shadow pager
+       PrintDebug(info->vm_info, info, "New guest CR4=%x and shadow CR4=%x\n", *(uint_t *)guest_cr4,*(uint_t*)shadow_cr4);
+       
+    } else if ((cpu_mode == LONG) || (cpu_mode == LONG_32_COMPAT)) {
+       struct cr4_64 * new_cr4 = (struct cr4_64 *)(dec_instr.src_operand.operand);
+       struct cr4_64 * cr4 = (struct cr4_64 *)&(info->ctrl_regs.cr4);
+       
+       PrintDebug(info->vm_info, info, "Old CR4=%p\n", (void *)*(addr_t *)cr4);
+       PrintDebug(info->vm_info, info, "New CR4=%p\n", (void *)*(addr_t *)new_cr4);
+       
+       if (new_cr4->pae == 0) {
+           // cannot turn off PAE in long mode GPF the guest
+           PrintError(info->vm_info, info, "Cannot disable PAE in long mode, should send GPF\n");
+           return -1;
+       }
+       
+       *cr4 = *new_cr4;
+       
     } else {
-      *virt_cr3 = *(struct cr3_32 *)&(info->ctrl_regs.cr3);
+       PrintError(info->vm_info, info, "CR4 write not supported in CPU_MODE: %s\n", v3_cpu_mode_to_str(cpu_mode));
+       return -1;
+    }
+    
+    if (info->shdw_pg_mode == SHADOW_PAGING) {
+       if (flush_tlb) {
+           PrintDebug(info->vm_info, info, "Handling PSE/PGE/PAE -> TLBFlush (doing flush now!)\n");
+           if (v3_activate_shadow_pt(info) == -1) {
+               PrintError(info->vm_info, info, "Failed to activate shadow page tables when emulating TLB flush in handling cr4 write\n");
+               return -1;
+           }
+       }
     }
-  } else {
-    PrintError("Unhandled opcode in handle_cr3_read\n");
-    return -1;
-  }
+    
+    info->rip += dec_instr.instr_length;
+    return 0;
+}
 
-  info->rip += dec_instr.instr_length;
 
-  return 0;
-}
+/*
+  The CR8 and APIC TPR interaction are kind of crazy.
 
-int v3_handle_cr4_read(struct guest_info * info) {
-  PrintError("CR4 Read not handled\n");
-  return -1;
-}
+  CR8 mandates that the priority class is in bits 3:0
 
-int v3_handle_cr4_write(struct guest_info * info) {
-  uchar_t instr[15];
-  int ret;
-  struct x86_instr dec_instr;
+  The interaction of CR8 and an actual APIC is somewhat implementation dependent, but
+  a basic current APIC has the priority class at 7:4 and the *subclass* at 3:0
 
-  if (info->mem_mode == PHYSICAL_MEM) { 
-    ret = read_guest_pa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  } else { 
-    ret = read_guest_va_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
-  }
+  The APIC TPR (both fields) can be written as the APIC register
+  A write to CR8 sets the priority class field, and should zero the subclass
+  A read from CR8 gets just the priority class field
 
-  if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
-    PrintError("Could not decode instruction\n");
-    return -1;
-  }
+  In the apic_tpr storage location, we have:
 
-  if (v3_opcode_cmp(V3_OPCODE_MOV2CR, (const uchar_t *)(dec_instr.opcode)) != 0) {
-    PrintError("Invalid opcode in write to CR4\n");
-    return -1;
-  }
+     zeros [class] [subclass]
 
-  if ((info->cpu_mode == PROTECTED) || (info->cpu_mode == PROTECTED_PAE)) {
-    struct cr4_32 * new_cr4 = (struct cr4_32 *)(dec_instr.src_operand.operand);
-    struct cr4_32 * old_cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
-    
-    PrintDebug("OperandVal = %x, length = %d\n", *(uint_t *)new_cr4, dec_instr.src_operand.size);
-    PrintDebug("Old CR4=%x\n", *(uint_t *)old_cr4);
+  Because of this, an APIC implementation should use apic_tpr to store its TPR
+  In fact, it *should* do this, otherwise its TPR may get out of sync with the architected TPR
 
+  On a CR8 read, we return just 
 
+     zeros 0000  [class]
 
+  On a CR8 write, we set the register to
 
-    if ((info->shdw_pg_mode == SHADOW_PAGING) && 
-       (v3_get_mem_mode(info) == PHYSICAL_MEM)) {
+     zeros [class] 0000
 
-      if ((old_cr4->pae == 0) && (new_cr4->pae == 1)) {
-       PrintDebug("Creating PAE passthrough tables\n");
+*/
 
-       // Delete the old 32 bit direct map page tables
-       delete_page_tables_32((pde32_t *)V3_VAddr((void *)(info->direct_map_pt)));
+int v3_handle_cr8_write(struct guest_info * info) {
+    int ret;
+    uchar_t instr[15];
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type == V3_OP_MOV2CR) {
+       PrintDebug(info->vm_info, info, "MOV2CR8 (cpu_mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if ((info->cpu_mode == LONG) ||
+           (info->cpu_mode == LONG_32_COMPAT)) {
+           uint64_t *val = (uint64_t *)(dec_instr.src_operand.operand);
 
-       // create 32 bit PAE direct map page table
-       info->direct_map_pt = (addr_t)V3_PAddr(create_passthrough_pts_32PAE(info));
+           info->ctrl_regs.apic_tpr = (*val & 0xf) << 4;
 
-       // reset cr3 to new page tables
-       info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
+           V3_Print(info->vm_info, info, "Write of CR8 sets apic_tpr to 0x%llx\n",info->ctrl_regs.apic_tpr);
 
-      } else if ((old_cr4->pae == 1) && (new_cr4->pae == 0)) {
-       // Create passthrough standard 32bit pagetables
+       }  else {
+           // probably should raise exception here
+       }
+    } else {
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr8_write\n");
        return -1;
-      }
     }
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
+}
 
-    *old_cr4 = *new_cr4;
-    PrintDebug("New CR4=%x\n", *(uint_t *)old_cr4);
 
-  } else {
-    return -1;
-  }
 
-  info->rip += dec_instr.instr_length;
-  return 0;
-}
+int v3_handle_cr8_read(struct guest_info * info) {
+    uchar_t instr[15];
+    int ret;
+    struct x86_instr dec_instr;
+    
+    if (info->mem_mode == PHYSICAL_MEM) { 
+       ret = v3_read_gpa_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    } else { 
+       ret = v3_read_gva_memory(info, get_addr_linear(info, info->rip, &(info->segments.cs)), 15, instr);
+    }
+    
+    if (ret!=15) { 
+       PrintError(info->vm_info, info, "Could not read instruction\n");
+       return -1;
+    }
+    
+    if (v3_decode(info, (addr_t)instr, &dec_instr) == -1) {
+       PrintError(info->vm_info, info, "Could not decode instruction\n");
+       return -1;
+    }
+    
+    if (dec_instr.op_type == V3_OP_MOVCR2) {
+       PrintDebug(info->vm_info, info, "MOVCR82 (mode=%s)\n", v3_cpu_mode_to_str(info->cpu_mode));
+       
+       if ((info->cpu_mode == LONG) || 
+           (info->cpu_mode == LONG_32_COMPAT)) {
+           uint64_t *dst_reg = (uint64_t *)(dec_instr.dst_operand.operand);
 
+           *dst_reg = (info->ctrl_regs.apic_tpr >> 4) & 0xf;
 
-int v3_handle_efer_read(uint_t msr, struct v3_msr * dst, void * priv_data) {
-  PrintError("EFER Read not handled\n");
-  return -1;
+           V3_Print(info->vm_info, info, "Read of CR8 (apic_tpr) returns 0x%llx\n",*dst_reg);
+
+       } else {
+           // probably should raise exception
+       }
+           
+    } else {
+       PrintError(info->vm_info, info, "Unhandled opcode in handle_cr8_read\n");
+       return -1;
+    }
+    
+    info->rip += dec_instr.instr_length;
+    
+    return 0;
 }
 
 
-int v3_handle_efer_write(uint_t msr, struct v3_msr src, void * priv_data) {
-  struct guest_info * info = (struct guest_info *)(priv_data);
-  struct efer_64 * new_efer = (struct efer_64 *)&(src.value);
-  struct efer_64 * old_efer = (struct efer_64 *)&(info->ctrl_regs.efer);
+int v3_handle_efer_read(struct guest_info * core, uint_t msr, struct v3_msr * dst, void * priv_data) {
+    PrintDebug(core->vm_info, core, "EFER Read HI=%x LO=%x\n", core->shdw_pg_state.guest_efer.hi, core->shdw_pg_state.guest_efer.lo);
+    
+    dst->value = core->shdw_pg_state.guest_efer.value;
+    
+    return 0;
+}
 
-  PrintDebug("Old EFER=%p\n", (void *)*(addr_t*)(old_efer));
 
-  if ((info->shdw_pg_mode == SHADOW_PAGING) && 
-      (v3_get_mem_mode(info) == PHYSICAL_MEM)) {
+int v3_handle_efer_write(struct guest_info * core, uint_t msr, struct v3_msr src, void * priv_data) {
+    struct v3_msr *  vm_efer     = &(core->shdw_pg_state.guest_efer);
+    struct efer_64 * hw_efer     = (struct efer_64 *)&(core->ctrl_regs.efer);
+    struct efer_64   old_hw_efer = *((struct efer_64 *)&core->ctrl_regs.efer);
     
-    if ((old_efer->lme == 0) && (new_efer->lme == 1)) {
-      PrintDebug("Transition to longmode\n");
-      PrintDebug("Creating Passthrough 64 bit page tables\n");
-      
-      // Delete the old 32 bit direct map page tables
-      /* 
-       * JRL BUG? 
-       * Will these page tables always be in PAE format?? 
-       */
-      PrintDebug("Deleting old PAE Page tables\n");
-      PrintError("JRL BUG?: Will the old page tables always be in PAE format??\n");
-      delete_page_tables_32PAE((pdpe32pae_t *)V3_VAddr((void *)(info->direct_map_pt)));
+    PrintDebug(core->vm_info, core, "EFER Write HI=%x LO=%x\n", src.hi, src.lo);
+
+    // Set EFER value seen by guest if it reads EFER
+    vm_efer->value = src.value;
+
+    // Set EFER value seen by hardware while the guest is running
+    *(uint64_t *)hw_efer = src.value;
+
+    // We have gotten here either because we are using
+    // shadow paging, or we are using nested paging on SVM
+    // In the latter case, we don't need to do anything
+    // like the following
+    if (core->shdw_pg_mode == SHADOW_PAGING) { 
+      // Catch unsupported features
+      if ((old_hw_efer.lme == 1) && (hw_efer->lme == 0)) {
+       PrintError(core->vm_info, core, "Disabling long mode once it has been enabled is not supported\n");
+       return -1;
+      }
       
-      // create 64 bit direct map page table
-      info->direct_map_pt = (addr_t)V3_PAddr(create_passthrough_pts_64(info));
+      // Set LME and LMA bits seen by hardware
+      if (old_hw_efer.lme == 0) {
+       // Long mode was not previously enabled, so the lme bit cannot
+       // be set yet. It will be set later when the guest sets CR0.PG
+       // to enable paging.
+       hw_efer->lme = 0;
+      } else {
+       // Long mode was previously enabled. Ensure LMA bit is set.
+       // VMX does not automatically set LMA, and this should not affect SVM.
+       hw_efer->lma = 1;
+      }
+    }
       
-      // reset cr3 to new page tables
-      info->ctrl_regs.cr3 = *(addr_t*)&(info->direct_map_pt);
       
+    PrintDebug(core->vm_info, core, "RIP=%p\n", (void *)core->rip);
+    PrintDebug(core->vm_info, core, "New EFER value HW(hi=%p), VM(hi=%p)\n", (void *)*(uint64_t *)hw_efer, (void *)vm_efer->value); 
 
-      // Does this mean we will have to fully virtualize a shadow  EFER?? (yes it does)
-      ((struct efer_64 *)&(info->guest_efer.value))->lme = 1;
 
-      new_efer->lma = 1;
-      
-    } else if ((old_efer->lme == 1) && (new_efer->lme == 0)) {
-      // transition out of long mode
-      //((struct efer_64 *)&(info->guest_efer.value))->lme = 0;
-      //((struct efer_64 *)&(info->guest_efer.value))->lma = 0;
-      
-      return -1;
-    }
+    return 0;
+}
 
-    *old_efer = *new_efer;
-    PrintDebug("New EFER=%p\n", (void *)*(addr_t *)(old_efer));
-  } else {
-    return -1;
-  }
+int v3_handle_vm_cr_read(struct guest_info * core, uint_t msr, struct v3_msr * dst, void * priv_data) {
+    /* tell the guest that the BIOS disabled SVM, that way it doesn't get 
+     * confused by the fact that CPUID reports SVM as available but it still
+     * cannot be used 
+     */
+    dst->value = SVM_VM_CR_MSR_lock | SVM_VM_CR_MSR_svmdis;
+    PrintDebug(core->vm_info, core, "VM_CR Read HI=%x LO=%x\n", dst->hi, dst->lo);
+    return 0;
+}
 
-  info->rip += 2; // WRMSR/RDMSR are two byte operands
+int v3_handle_vm_cr_write(struct guest_info * core, uint_t msr, struct v3_msr src, void * priv_data) {
+    PrintDebug(core->vm_info, core, "VM_CR Write\n");
+    PrintDebug(core->vm_info, core, "VM_CR Write Values: HI=%x LO=%x\n", src.hi, src.lo);
 
-  return 0;
+    /* writes to LOCK and SVMDIS are silently ignored (according to the spec), 
+     * other writes indicate the guest wants to use some feature we haven't
+     * implemented
+     */
+    if (src.value & ~(SVM_VM_CR_MSR_lock | SVM_VM_CR_MSR_svmdis)) {
+       PrintDebug(core->vm_info, core, "VM_CR write sets unsupported bits: HI=%x LO=%x\n", src.hi, src.lo);
+       return -1;
+    }
+    
+    return 0;
 }