Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


moved internal memory map routines over to new flags structure instead of the hardcod...
[palacios.releases.git] / palacios / src / palacios / vmm_mem.c
index 49586f1..cb3f144 100644 (file)
+/* 
+ * This file is part of the Palacios Virtual Machine Monitor developed
+ * by the V3VEE Project with funding from the United States National 
+ * Science Foundation and the Department of Energy.  
+ *
+ * The V3VEE Project is a joint project between Northwestern University
+ * and the University of New Mexico.  You can find out more at 
+ * http://www.v3vee.org
+ *
+ * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
+ * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
+ * All rights reserved.
+ *
+ * Author: Jack Lange <jarusl@cs.northwestern.edu>
+ *
+ * This is free software.  You are permitted to use,
+ * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
+ */
+
 #include <palacios/vmm_mem.h>
 #include <palacios/vmm.h>
 #include <palacios/vmm_util.h>
+#include <palacios/vmm_emulator.h>
+#include <palacios/vm_guest.h>
 
-extern struct vmm_os_hooks * os_hooks;
+#include <palacios/vmm_shadow_paging.h>
+#include <palacios/vmm_direct_paging.h>
 
 
-void init_shadow_region(shadow_region_t * entry,
-                       addr_t               guest_addr_start,
-                       addr_t               guest_addr_end,
-                       guest_region_type_t  guest_region_type,
-                       host_region_type_t   host_region_type)
-{
-  entry->guest_type = guest_region_type;
-  entry->guest_start = guest_addr_start;
-  entry->guest_end = guest_addr_end;
-  entry->host_type = host_region_type;
-  entry->next=entry->prev = NULL;
-}
+static inline
+struct v3_shadow_region * insert_shadow_region(struct v3_vm_info * vm, 
+                                              struct v3_shadow_region * region);
 
-void init_shadow_region_physical(shadow_region_t * entry,
-                                addr_t               guest_addr_start,
-                                addr_t               guest_addr_end,
-                                guest_region_type_t  guest_region_type,
-                                addr_t               host_addr_start,
-                                host_region_type_t   host_region_type)
-{
-  init_shadow_region(entry, guest_addr_start, guest_addr_end, guest_region_type, host_region_type);
-  entry->host_addr.phys_addr.host_start = host_addr_start;
 
-}
-                   
+static int mem_offset_hypercall(struct guest_info * info, uint_t hcall_id, void * private_data) {
+    PrintDebug("V3Vee: Memory offset hypercall (offset=%p)\n", 
+              (void *)(info->vm_info->mem_map.base_region.host_addr));
 
-void init_shadow_map(shadow_map_t * map) {
-  map->num_regions = 0;
+    info->vm_regs.rbx = info->vm_info->mem_map.base_region.host_addr;
 
-  map->head = NULL;
+    return 0;
 }
 
 
-void free_shadow_map(shadow_map_t * map) {
-  shadow_region_t * cursor = map->head;
-  shadow_region_t * tmp = NULL;
+int v3_init_mem_map(struct v3_vm_info * vm) {
+    struct v3_mem_map * map = &(vm->mem_map);
+    addr_t mem_pages = vm->mem_size >> 12;
 
-  while(cursor) {
-    tmp = cursor;
-    cursor = cursor->next;
-    VMMFree(tmp);
-  }
+    memset(&(map->base_region), 0, sizeof(struct v3_shadow_region));
 
-  VMMFree(map);
-}
+    map->shdw_regions.rb_node = NULL;
 
 
+    map->hook_hvas = V3_VAddr(V3_AllocPages(vm->num_cores));
 
 
-int add_shadow_region(shadow_map_t * map,
-                     shadow_region_t * region) 
-{
-  shadow_region_t * cursor = map->head;
+    // There is an underlying region that contains all of the guest memory
+    // PrintDebug("Mapping %d pages of memory (%u bytes)\n", (int)mem_pages, (uint_t)info->mem_size);
 
-  if ((!cursor) || (cursor->guest_start >= region->guest_end)) {
-    region->prev = NULL;
-    region->next = cursor;
-    map->num_regions++;
-    map->head = region;
-    return 0;
-  }
+    map->base_region.guest_start = 0;
+    map->base_region.guest_end = mem_pages * PAGE_SIZE_4KB;
+    map->base_region.host_type = SHDW_REGION_ALLOCATED;
+    map->base_region.host_addr = (addr_t)V3_AllocPages(mem_pages);
 
-  while (cursor) {
-    // Check if it overlaps with the current cursor
-    if ((cursor->guest_end > region->guest_start) && (cursor->guest_start < region->guest_start)) {
-      // overlaps not allowed
-      return -1;
-    }
-    
-    if (!(cursor->next)) {
-      // add to the end of the list
-      cursor->next = region;
-      region->prev = cursor;
-      region->next = NULL;
-      map->num_regions++;
-      return 0;
-    } else if (cursor->next->guest_start >= region->guest_end) {
-      // add here
-      region->next = cursor->next;
-      region->prev = cursor;
-      
-      cursor->next->prev = region;
-      cursor->next = region;
-
-      map->num_regions++;
-      
-      return 0;
-    } else if (cursor->next->guest_end < region->guest_start) {
-      cursor = cursor->next;
-    } else {
-      // This cannot happen!
-      // we should panic here
-      return -1;
+    map->base_region.flags.read = 1;
+    map->base_region.flags.write = 1;
+    map->base_region.flags.exec = 1;
+    map->base_region.flags.base = 1;
+    map->base_region.flags.alloced = 1;
+
+    if ((void *)map->base_region.host_addr == NULL) {
+       PrintError("Could not allocate Guest memory\n");
+       return -1;
     }
-  }
-  
-  // This cannot happen
-  // We should panic here
-  return -1;
-}
+       
+    //memset(V3_VAddr((void *)map->base_region.host_addr), 0xffffffff, map->base_region.guest_end);
 
+    v3_register_hypercall(vm, MEM_OFFSET_HCALL, mem_offset_hypercall, NULL);
 
-int delete_shadow_region(shadow_map_t * map,
-                        addr_t guest_start,
-                        addr_t guest_end) {
-  return -1;
+    return 0;
 }
 
 
-
-shadow_region_t *get_shadow_region_by_index(shadow_map_t *  map,
-                                              uint_t index) {
-  shadow_region_t * reg = map->head;
-  uint_t i = 0;
-
-  while (reg) { 
-    if (i == index) { 
-      return reg;
-    }
-    reg = reg->next;
-    i++;
-  }
-  return NULL;
+static inline addr_t get_hook_hva(struct guest_info * info) {
+    return (addr_t)(info->vm_info->mem_map.hook_hvas + (PAGE_SIZE_4KB * info->cpu_id));
 }
 
+void v3_delete_shadow_map(struct v3_vm_info * vm) {
+    struct rb_node * node = v3_rb_first(&(vm->mem_map.shdw_regions));
+    struct v3_shadow_region * reg;
+    struct rb_node * tmp_node = NULL;
+  
+    while (node) {
+       reg = rb_entry(node, struct v3_shadow_region, tree_node);
+       tmp_node = node;
+       node = v3_rb_next(node);
 
-shadow_region_t * get_shadow_region_by_addr(shadow_map_t * map,
-                                              addr_t addr) {
-  shadow_region_t * reg = map->head;
-
-  while (reg) {
-    if ((reg->guest_start <= addr) && (reg->guest_end > addr)) {
-      return reg;
-    } else if (reg->guest_start > addr) {
-      return NULL;
-    } else {
-      reg = reg->next;
+       v3_delete_shadow_region(vm, reg);
     }
-  }
-  return NULL;
-}
 
-
-
-host_region_type_t lookup_shadow_map_addr(shadow_map_t * map, addr_t guest_addr, addr_t * host_addr) {
-  shadow_region_t * reg = get_shadow_region_by_addr(map, guest_addr);
-
-  if (!reg) {
-    // No mapping exists
-    return HOST_REGION_INVALID;
-  } else {
-    switch (reg->host_type) {
-    case HOST_REGION_PHYSICAL_MEMORY:
-     *host_addr = (guest_addr - reg->guest_start) + reg->host_addr.phys_addr.host_start;
-     return reg->host_type;
-    case HOST_REGION_MEMORY_MAPPED_DEVICE:
-    case HOST_REGION_UNALLOCATED:
-      // ... 
-    default:
-      *host_addr = 0;
-      return reg->host_type;
-    }
-  }
+    V3_FreePage((void *)(vm->mem_map.base_region.host_addr));
+    V3_FreePage(V3_PAddr((void *)(vm->mem_map.hook_hvas)));
 }
 
 
-void print_shadow_map(shadow_map_t * map) {
-  shadow_region_t * cur = map->head;
-  int i = 0;
 
-  PrintDebug("Memory Layout (regions: %d) \n", map->num_regions);
 
-  while (cur) {
-    PrintDebug("%d:  0x%x - 0x%x (%s) -> ", i, cur->guest_start, cur->guest_end - 1,
-              cur->guest_type == GUEST_REGION_PHYSICAL_MEMORY ? "GUEST_REGION_PHYSICAL_MEMORY" :
-              cur->guest_type == GUEST_REGION_NOTHING ? "GUEST_REGION_NOTHING" :
-              cur->guest_type == GUEST_REGION_MEMORY_MAPPED_DEVICE ? "GUEST_REGION_MEMORY_MAPPED_DEVICE" :
-              "UNKNOWN");
-    if (cur->host_type == HOST_REGION_PHYSICAL_MEMORY || 
-       cur->host_type == HOST_REGION_UNALLOCATED ||
-       cur->host_type == HOST_REGION_MEMORY_MAPPED_DEVICE) { 
-      PrintDebug("0x%x", cur->host_addr.phys_addr.host_start);
+int v3_add_shadow_mem( struct v3_vm_info * vm, uint16_t core_id,
+                      addr_t               guest_addr_start,
+                      addr_t               guest_addr_end,
+                      addr_t               host_addr)
+{
+    struct v3_shadow_region * entry = (struct v3_shadow_region *)V3_Malloc(sizeof(struct v3_shadow_region));
+    memset(entry, 0, sizeof(struct v3_shadow_region));
+
+    entry->guest_start = guest_addr_start;
+    entry->guest_end = guest_addr_end;
+    entry->host_type = SHDW_REGION_ALLOCATED;
+    entry->host_addr = host_addr;
+    entry->write_hook = NULL;
+    entry->read_hook = NULL;
+    entry->priv_data = NULL;
+    entry->core_id = core_id;
+
+    entry->flags.read = 1;
+    entry->flags.write = 1;
+    entry->flags.exec = 1;
+    entry->flags.alloced = 1;
+
+    if (insert_shadow_region(vm, entry)) {
+       V3_Free(entry);
+       return -1;
     }
-    PrintDebug("(%s)\n",
-              cur->host_type == HOST_REGION_PHYSICAL_MEMORY ? "HOST_REGION_PHYSICAL_MEMORY" :
-              cur->host_type == HOST_REGION_UNALLOCATED ? "HOST_REGION_UNALLOACTED" :
-              cur->host_type == HOST_REGION_NOTHING ? "HOST_REGION_NOTHING" :
-              cur->host_type == HOST_REGION_MEMORY_MAPPED_DEVICE ? "HOST_REGION_MEMORY_MAPPED_DEVICE" :
-              cur->host_type == HOST_REGION_REMOTE ? "HOST_REGION_REMOTE" : 
-              cur->host_type == HOST_REGION_SWAPPED ? "HOST_REGION_SWAPPED" :
-              "UNKNOWN");
-    cur = cur->next;
-    i++;
-  }
+
+    return 0;
 }
 
 
 
+int v3_hook_write_mem(struct v3_vm_info * vm, uint16_t core_id,
+                     addr_t guest_addr_start, addr_t guest_addr_end, addr_t host_addr,
+                     int (*write)(struct guest_info * core, addr_t guest_addr, void * src, uint_t length, void * priv_data),
+                     void * priv_data) {
+
+    struct v3_shadow_region * entry = (struct v3_shadow_region *)V3_Malloc(sizeof(struct v3_shadow_region));
+    memset(entry, 0, sizeof(struct v3_shadow_region));
+
+    entry->guest_start = guest_addr_start;
+    entry->guest_end = guest_addr_end;
+    entry->host_type = SHDW_REGION_WRITE_HOOK;
+    entry->host_addr = host_addr;
+    entry->write_hook = write;
+    entry->read_hook = NULL;
+    entry->priv_data = priv_data;
+    entry->core_id = core_id;
 
+    entry->flags.hook = 1;
+    entry->flags.read = 1;
+    entry->flags.exec = 1;
+    entry->flags.alloced = 1;
 
 
+    if (insert_shadow_region(vm, entry)) {
+       V3_Free(entry);
+       return -1;
+    }
 
+    return 0;  
+}
 
+int v3_hook_full_mem(struct v3_vm_info * vm, uint16_t core_id, 
+                    addr_t guest_addr_start, addr_t guest_addr_end,
+                    int (*read)(struct guest_info * core, addr_t guest_addr, void * dst, uint_t length, void * priv_data),
+                    int (*write)(struct guest_info * core, addr_t guest_addr, void * src, uint_t length, void * priv_data),
+                    void * priv_data) {
+  
+    struct v3_shadow_region * entry = (struct v3_shadow_region *)V3_Malloc(sizeof(struct v3_shadow_region));
+    memset(entry, 0, sizeof(struct v3_shadow_region));
+
+    entry->guest_start = guest_addr_start;
+    entry->guest_end = guest_addr_end;
+    entry->host_type = SHDW_REGION_FULL_HOOK;
+    entry->host_addr = (addr_t)NULL;
+    entry->write_hook = write;
+    entry->read_hook = read;
+    entry->priv_data = priv_data;
+    entry->core_id = core_id;
+
+    entry->flags.hook = 1;
+
+    if (insert_shadow_region(vm, entry)) {
+       V3_Free(entry);
+       return -1;
+    }
 
+    return 0;
+}
 
-#ifdef VMM_MEM_TEST
 
+// This will unhook the memory hook registered at start address
+// We do not support unhooking subregions
+int v3_unhook_mem(struct v3_vm_info * vm, uint16_t core_id, addr_t guest_addr_start) {
+    struct v3_shadow_region * reg = v3_get_shadow_region(vm, core_id, guest_addr_start);
 
-#include <stdlib.h>
-#include <stdio.h>
-#include <stdarg.h>
+    if (!reg->flags.hook) {
+       PrintError("Trying to unhook a non hooked memory region (addr=%p)\n", (void *)guest_addr_start);
+       return -1;
+    }
 
+    v3_delete_shadow_region(vm, reg);
 
+    return 0;
+}
 
 
 
-struct vmm_os_hooks * os_hooks;
+static inline 
+struct v3_shadow_region * __insert_shadow_region(struct v3_vm_info * vm, 
+                                                struct v3_shadow_region * region) {
+    struct rb_node ** p = &(vm->mem_map.shdw_regions.rb_node);
+    struct rb_node * parent = NULL;
+    struct v3_shadow_region * tmp_region;
+
+    while (*p) {
+       parent = *p;
+       tmp_region = rb_entry(parent, struct v3_shadow_region, tree_node);
+
+       if (region->guest_end <= tmp_region->guest_start) {
+           p = &(*p)->rb_left;
+       } else if (region->guest_start >= tmp_region->guest_end) {
+           p = &(*p)->rb_right;
+       } else {
+           if ((region->guest_end != tmp_region->guest_end) ||
+               (region->guest_start != tmp_region->guest_start)) {
+               PrintError("Trying to map a partial overlapped core specific page...\n");
+               return tmp_region; // This is ugly... 
+           } else if (region->core_id == tmp_region->core_id) {
+               return tmp_region;
+           } else if (region->core_id < tmp_region->core_id) {
+               p = &(*p)->rb_left;
+           } else {
+               p = &(*p)->rb_right;
+           }
+       }
+    }
 
-void * TestMalloc(uint_t size) {
-  return malloc(size);
+    rb_link_node(&(region->tree_node), parent, p);
+  
+    return NULL;
 }
 
-void * TestAllocatePages(int size) {
-  return malloc(4096 * size);
-}
 
+static inline
+struct v3_shadow_region * insert_shadow_region(struct v3_vm_info * vm, 
+                                              struct v3_shadow_region * region) {
+    struct v3_shadow_region * ret;
+    int i = 0;
+
+    if ((ret = __insert_shadow_region(vm, region))) {
+       return ret;
+    }
 
-void TestPrint(const char * fmt, ...) {
-  va_list args;
+    v3_rb_insert_color(&(region->tree_node), &(vm->mem_map.shdw_regions));
+
+
+
+    for (i = 0; i < vm->num_cores; i++) {
+       struct guest_info * info = &(vm->cores[i]);
+
+       // flush virtual page tables 
+       // 3 cases shadow, shadow passthrough, and nested
+
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           v3_mem_mode_t mem_mode = v3_get_vm_mem_mode(info);
+           
+           if (mem_mode == PHYSICAL_MEM) {
+               addr_t cur_addr;
+               
+               for (cur_addr = region->guest_start;
+                    cur_addr < region->guest_end;
+                    cur_addr += PAGE_SIZE_4KB) {
+                   v3_invalidate_passthrough_addr(info, cur_addr);
+               }
+           } else {
+               v3_invalidate_shadow_pts(info);
+           }
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           addr_t cur_addr;
+           
+           for (cur_addr = region->guest_start;
+                cur_addr < region->guest_end;
+                cur_addr += PAGE_SIZE_4KB) {
+               
+               v3_invalidate_nested_addr(info, cur_addr);
+           }
+       }
+    }
 
-  va_start(args, fmt);
-  vprintf(fmt, args);
-  va_end(args);
+    return NULL;
 }
+                                                
 
-int mem_list_add_test_1(  vmm_mem_list_t * list) {
 
-  uint_t offset = 0;
 
-  PrintDebug("\n\nTesting Memory List\n");
 
-  init_mem_list(list);
 
-  offset = PAGE_SIZE * 6;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + (PAGE_SIZE * 10));
-  add_mem_list_pages(list, offset, 10);
-  print_mem_list(list);
+int v3_handle_mem_hook(struct guest_info * info, addr_t guest_va, addr_t guest_pa, 
+                      struct v3_shadow_region * reg, pf_error_t access_info) {
 
+    addr_t op_addr = 0;
 
-  offset = 0;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + PAGE_SIZE * 4);
-  add_mem_list_pages(list, offset, 4);
-  print_mem_list(list);
+    if (reg->flags.alloced == 0) {
+       op_addr = get_hook_hva(info);
+    } else {
+       op_addr = (addr_t)V3_VAddr((void *)v3_get_shadow_addr(reg, info->cpu_id, guest_pa));
+    }
 
-  offset = PAGE_SIZE * 20;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + (PAGE_SIZE * 1));
-  add_mem_list_pages(list, offset, 1);
-  print_mem_list(list);
+    
+    if (access_info.write == 1) { 
+       // Write Operation 
+
+       if (v3_emulate_write_op(info, guest_va, guest_pa, op_addr, 
+                               reg->write_hook, reg->priv_data) == -1) {
+           PrintError("Write Full Hook emulation failed\n");
+           return -1;
+       }
+    } else {
+       // Read Operation
+       
+       if (reg->flags.read == 1) {
+           PrintError("Tried to emulate read for a guest Readable page\n");
+           return -1;
+       }
+
+       if (v3_emulate_read_op(info, guest_va, guest_pa, op_addr, 
+                              reg->read_hook, reg->write_hook, 
+                              reg->priv_data) == -1) {
+           PrintError("Read Full Hook emulation failed\n");
+           return -1;
+       }
 
-  offset = PAGE_SIZE * 21;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + (PAGE_SIZE * 3));
-  add_mem_list_pages(list, offset, 3);
-  print_mem_list(list);
+    }
 
 
-  offset = PAGE_SIZE * 10;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + (PAGE_SIZE * 30));
-  add_mem_list_pages(list, offset, 30);
-  print_mem_list(list);
+    return 0;
+}
 
 
-  offset = PAGE_SIZE * 5;
-  PrintDebug("Adding 0x%x - 0x%x\n", offset, offset + (PAGE_SIZE * 1));
-  add_mem_list_pages(list, offset, 1);
-  print_mem_list(list);
 
 
-  return 0;
-}
+struct v3_shadow_region * v3_get_shadow_region(struct v3_vm_info * vm, uint16_t core_id, addr_t guest_addr) {
+    struct rb_node * n = vm->mem_map.shdw_regions.rb_node;
+    struct v3_shadow_region * reg = NULL;
 
+    while (n) {
+       reg = rb_entry(n, struct v3_shadow_region, tree_node);
 
-int mem_layout_add_test_1(vmm_mem_layout_t * layout) {
+       if (guest_addr < reg->guest_start) {
+           n = n->rb_left;
+       } else if (guest_addr >= reg->guest_end) {
+           n = n->rb_right;
+       } else {
+           if ((core_id == reg->core_id) || 
+               (reg->core_id == V3_MEM_CORE_ANY)) {
+           return reg;
+           } else {
+               n = n->rb_right;
+           }
+       }
+    }
 
-  
-  uint_t start = 0;
-  uint_t end = 0;
 
-  PrintDebug("\n\nTesting Memory Layout\n");
+    // There is not registered region, so we check if its a valid address in the base region
 
-  init_mem_layout(layout);
+    if (guest_addr > vm->mem_map.base_region.guest_end) {
+       PrintError("Guest Address Exceeds Base Memory Size (ga=%p), (limit=%p)\n", 
+                  (void *)guest_addr, (void *)vm->mem_map.base_region.guest_end);
+       v3_print_mem_map(vm);
 
-  start = 0x6000;
-  end = 0x10000;;
-  PrintDebug("Adding 0x%x - 0x%x\n", start, end);
-  add_guest_mem_range(layout, start, end);
-  print_mem_layout(layout);
+       return NULL;
+    }
+    
+    return &(vm->mem_map.base_region);
+}
 
 
-  start = 0x1000;
-  end = 0x3000;
-  PrintDebug("Adding 0x%x - 0x%x\n", start, end);
-  add_guest_mem_range(layout, start, end);
-  print_mem_layout(layout);
 
-  start = 0x2000;
-  end = 0x6000;
-  PrintDebug("Adding 0x%x - 0x%x\n", start, end);
-  add_guest_mem_range(layout, start, end);
-  print_mem_layout(layout);
 
-  start = 0x4000;
-  end = 0x5000;
-  PrintDebug("Adding 0x%x - 0x%x\n", start, end);
-  add_guest_mem_range(layout, start, end);
-  print_mem_layout(layout);
+void v3_delete_shadow_region(struct v3_vm_info * vm, struct v3_shadow_region * reg) {
+    int i = 0;
 
+    if (reg == NULL) {
+       return;
+    }
 
-  start = 0x5000;
-  end = 0x7000;
-  PrintDebug("Adding 0x%x - 0x%x\n", start, end);
-  add_guest_mem_range(layout, start, end);
-  print_mem_layout(layout);
+    for (i = 0; i < vm->num_cores; i++) {
+       struct guest_info * info = &(vm->cores[i]);
+
+       // flush virtual page tables 
+       // 3 cases shadow, shadow passthrough, and nested
+
+       if (info->shdw_pg_mode == SHADOW_PAGING) {
+           v3_mem_mode_t mem_mode = v3_get_vm_mem_mode(info);
+           
+           if (mem_mode == PHYSICAL_MEM) {
+               addr_t cur_addr;
+               
+               for (cur_addr = reg->guest_start;
+                    cur_addr < reg->guest_end;
+                    cur_addr += PAGE_SIZE_4KB) {
+                   v3_invalidate_passthrough_addr(info, cur_addr);
+               }
+           } else {
+               v3_invalidate_shadow_pts(info);
+           }
+           
+       } else if (info->shdw_pg_mode == NESTED_PAGING) {
+           addr_t cur_addr;
+           
+           for (cur_addr = reg->guest_start;
+                cur_addr < reg->guest_end;
+                cur_addr += PAGE_SIZE_4KB) {
+               
+               v3_invalidate_nested_addr(info, cur_addr);
+           }
+       }
+    }
 
+    v3_rb_erase(&(reg->tree_node), &(vm->mem_map.shdw_regions));
 
+    V3_Free(reg);
 
+    // flush virtual page tables 
+    // 3 cases shadow, shadow passthrough, and nested
 
-  return 0;
 }
 
 
 
-int main(int argc, char ** argv) {
-  struct vmm_os_hooks dummy_hooks;
-  os_hooks = &dummy_hooks;
 
-  vmm_mem_layout_t layout;
-  vmm_mem_list_t list;
+addr_t v3_get_shadow_addr(struct v3_shadow_region * reg, uint16_t core_id, addr_t guest_addr) {
+    if (reg && (reg->flags.alloced == 1)) {
+        return (guest_addr - reg->guest_start) + reg->host_addr;
+    } else {
+       //  PrintError("MEM Region Invalid\n");
+        return 0;
+    }
 
-  os_hooks->malloc = &TestMalloc;
-  os_hooks->free = &free;
-  os_hooks->print_debug = &TestPrint;
-  os_hooks->allocate_pages = &TestAllocatePages;
+}
 
 
 
-  printf("mem_list_add_test_1: %d\n", mem_list_add_test_1(&list));
-  printf("layout_add_test_1: %d\n", mem_layout_add_test_1(&layout));
+void v3_print_mem_map(struct v3_vm_info * vm) {
+    struct rb_node * node = v3_rb_first(&(vm->mem_map.shdw_regions));
+    struct v3_shadow_region * reg = &(vm->mem_map.base_region);
+    int i = 0;
 
-  return 0;
-}
-#endif
+    V3_Print("Memory Layout:\n");
+    
 
+    V3_Print("Base Region:  0x%p - 0x%p -> 0x%p\n", 
+              (void *)(reg->guest_start), 
+              (void *)(reg->guest_end - 1), 
+              (void *)(reg->host_addr));
+    
 
+    // If the memory map is empty, don't print it
+    if (node == NULL) {
+       return;
+    }
 
+    do {
+       reg = rb_entry(node, struct v3_shadow_region, tree_node);
 
+       V3_Print("%d:  0x%p - 0x%p -> 0x%p\n", i, 
+                  (void *)(reg->guest_start), 
+                  (void *)(reg->guest_end - 1), 
+                  (void *)(reg->host_addr));
 
+       V3_Print("\t(flags=%x) (WriteHook = 0x%p) (ReadHook = 0x%p)\n", 
+                  reg->flags.value,
+                  (void *)(reg->write_hook), 
+                  (void *)(reg->read_hook));
+    
+       i++;
+    } while ((node = v3_rb_next(node)));
+}