Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Refactoring and additions to direct paging (nested and passthrough)
[palacios.git] / palacios / src / palacios / vmm.c
index e9634d6..88fa79a 100644 (file)
@@ -29,6 +29,8 @@
 #include <palacios/vmm_timeout.h>
 #include <palacios/vmm_options.h>
 #include <palacios/vmm_cpu_mapper.h>
+#include <palacios/vmm_direct_paging.h>
+#include <interfaces/vmm_numa.h>
 
 #ifdef V3_CONFIG_SVM
 #include <palacios/svm.h>
@@ -53,6 +55,8 @@ int v3_dbg_enable = 0;
 static void init_cpu(void * arg) {
     uint32_t cpu_id = (uint32_t)(addr_t)arg;
 
+    v3_init_fp();
+
 #ifdef V3_CONFIG_SVM
     if (v3_is_svm_capable()) {
         PrintDebug(VM_NONE, VCORE_NONE, "Machine is SVM Capable\n");
@@ -98,8 +102,22 @@ static void deinit_cpu(void * arg) {
            PrintError(VM_NONE, VCORE_NONE, "CPU has no virtualization Extensions\n");
            break;
     }
+
+    v3_deinit_fp();
+
 }
 
+
+static int in_long_mode()
+{
+  uint32_t high, low;
+
+  v3_get_msr(0xc0000080,&high,&low); // EFER
+  
+  return ((low & 0x500)== 0x500);  // LMA and LME set
+}
+  
+
 void Init_V3(struct v3_os_hooks * hooks, char * cpu_mask, int num_cpus, char *options) {
     int i = 0;
     int minor = 0;
@@ -108,6 +126,16 @@ void Init_V3(struct v3_os_hooks * hooks, char * cpu_mask, int num_cpus, char *op
     V3_Print(VM_NONE, VCORE_NONE, "V3 Print statement to fix a Kitten page fault bug\n");
 
 
+
+#ifndef __V3_64BIT__
+#error Palacios does not support compilation for a 32 bit host OS!!!!
+#else
+    if (!in_long_mode()) { 
+      PrintError(VM_NONE,VCORE_NONE,"Palacios supports execution only in long mode (64 bit).\n");
+      return;
+    }
+#endif
+
     // Set global variables. 
     os_hooks = hooks;
 
@@ -303,34 +331,17 @@ static int start_core(void * p)
 
 int v3_start_vm(struct v3_vm_info * vm, unsigned int cpu_mask) {
 
-    uint32_t i,j;
+    uint32_t i;
     uint8_t * core_mask = (uint8_t *)&cpu_mask; // This is to make future expansion easier
     uint32_t avail_cores = 0;
     int vcore_id = 0;
-    extern uint64_t v3_mem_block_size;
-
 
     if (vm->run_state != VM_STOPPED) {
         PrintError(vm, VCORE_NONE, "VM has already been launched (state=%d)\n", (int)vm->run_state);
         return -1;
     }
 
-    
-    // Do not run if any core is using shadow paging and we are out of 4 GB bounds
-    for (i=0;i<vm->num_cores;i++) { 
-       if (vm->cores[i].shdw_pg_mode == SHADOW_PAGING) {
-           for (j=0;j<vm->mem_map.num_base_regions;j++) {
-               if ((vm->mem_map.base_regions[i].host_addr + v3_mem_block_size)  >= 0x100000000ULL) {
-                   PrintError(vm, VCORE_NONE, "Base memory region %d exceeds 4 GB boundary with shadow paging enabled on core %d.\n",j, i);
-                   PrintError(vm, VCORE_NONE, "Any use of non-64 bit mode in the guest is likely to fail in this configuration.\n");
-                   PrintError(vm, VCORE_NONE, "If you would like to proceed anyway, remove this check and recompile Palacios.\n");
-                   PrintError(vm, VCORE_NONE, "Alternatively, change this VM to use nested paging.\n");
-                   return -1;
-               }
-           }
-       }
-    }
-    
+
     /// CHECK IF WE ARE MULTICORE ENABLED....
 
     V3_Print(vm, VCORE_NONE, "V3 --  Starting VM (%u cores)\n", vm->num_cores);
@@ -489,7 +500,119 @@ int v3_move_vm_core(struct v3_vm_info * vm, int vcore_id, int target_cpu) {
     return 0;
 }
 
+/* move a memory region to memory with affinity for a specific physical core */
+int v3_move_vm_mem(struct v3_vm_info * vm, void *gpa, int target_cpu) {
+    int old_node;
+    int new_node;
+    struct v3_mem_region *reg;
+    void *new_hpa;
+    int num_pages;
+    void *old_hpa;
+    int i;
+
+    old_node = v3_numa_gpa_to_node(vm,(addr_t)gpa);
+
+    if (old_node<0) { 
+       PrintError(vm, VCORE_NONE, "Cannot determine current node of gpa %p\n",gpa);
+       return -1;
+    }
+
+    new_node = v3_numa_cpu_to_node(target_cpu);
+
+    if (new_node<0) { 
+       PrintError(vm, VCORE_NONE, "Cannot determine current node of cpu %d\n",target_cpu);
+       return -1;
+    }
+
+    if (new_node==old_node) { 
+       PrintDebug(vm, VCORE_NONE, "Affinity is already established - ignoring request\n");
+       return 0;
+    }
+
+    // We are now going to change the universe, so 
+    // we'll barrier everyone first
 
+    while (v3_raise_barrier(vm, NULL) == -1);
+
+    // get region
+    
+    reg = v3_get_mem_region(vm, V3_MEM_CORE_ANY, (addr_t) gpa);
+
+    if (!reg) { 
+       PrintError(vm, VCORE_NONE, "Attempt to migrate non-existent memory\n");
+       goto out_fail;
+    }
+    
+    if (!(reg->flags.base) || !(reg->flags.alloced)) { 
+       PrintError(vm, VCORE_NONE, "Attempt to migrate invalid region: base=%d alloced=%d\n", reg->flags.base, reg->flags.alloced);
+       goto out_fail;
+    }
+
+    // we now have the allocated base region corresponding to  - and not a copy
+    // we will rewrite this region after moving its contents
+    
+    // first, let's double check that we are in fact changing the numa_id...
+
+    if (reg->numa_id==new_node) { 
+       PrintDebug(vm, VCORE_NONE, "Affinity for this base region is already established - ignoring...\n");
+       goto out_success;
+    }
+
+    // region uses exclusive addressing [guest_start,guest_end)
+    num_pages = (reg->guest_end-reg->guest_start)/PAGE_SIZE;
+
+    new_hpa = V3_AllocPagesExtended(num_pages,
+                                   PAGE_SIZE_4KB,
+                                   new_node,
+                                   0);  // no constraints given new shadow pager impl
+
+    if (!new_hpa) { 
+       PrintError(vm, VCORE_NONE, "Cannot allocate memory for new base region...\n");
+       goto out_fail;
+    }
+
+    // Note, assumes virtual contiguity in the host OS... 
+    memcpy(V3_VAddr((void*)new_hpa), V3_VAddr((void*)(reg->host_addr)), num_pages*PAGE_SIZE);
+
+    old_hpa = (void*)(reg->host_addr);
+    old_node = (int)(reg->numa_id);
+
+    reg->host_addr = (addr_t)new_hpa;
+    reg->numa_id = v3_numa_hpa_to_node((addr_t)new_hpa);
+
+    // flush all page tables / kill all humans 
+
+    for (i=0;i<vm->num_cores;i++) { 
+       if (vm->cores[i].shdw_pg_mode==SHADOW_PAGING) { 
+           v3_invalidate_shadow_pts(&(vm->cores[i]));
+       } else if (vm->cores[i].shdw_pg_mode==NESTED_PAGING) { 
+           // nested invalidator uses inclusive addressing [start,end], not [start,end)
+         v3_invalidate_nested_addr_range(&(vm->cores[i]),reg->guest_start,reg->guest_end-1,NULL,NULL);
+       } else {
+           PrintError(vm,VCORE_NONE, "Cannot determine how to invalidate paging structures! Reverting to previous region.\n");
+           // We'll restore things...
+           reg->host_addr = (addr_t) old_hpa;
+           reg->numa_id = old_node;
+           V3_FreePages(new_hpa,num_pages);
+           goto out_fail;
+       }
+    }
+    
+    // Now the old region can go away...
+    V3_FreePages(old_hpa,num_pages);
+    
+    PrintDebug(vm,VCORE_NONE,"Migration of memory complete - new region is %p to %p\n",
+              (void*)(reg->host_addr),(void*)(reg->host_addr+num_pages*PAGE_SIZE-1));
+    
+ out_success:
+    v3_lower_barrier(vm);
+    return 0;
+    
+    
+ out_fail:
+    v3_lower_barrier(vm);
+    return -1;
+}
 
 int v3_stop_vm(struct v3_vm_info * vm) {
 
@@ -573,6 +696,7 @@ static int sim_callback(struct guest_info * core, void * private_data) {
     V3_Print(core->vm_info, core, "Simulation callback activated (guest_rip=%p)\n", (void *)core->rip);
 
     while (v3_bitmap_check(timeout_map, core->vcpu_id) == 1) {
+        // We spin here if there is noone to yield to
        v3_yield(NULL,-1);
     }
 
@@ -643,7 +767,8 @@ int v3_simulate_vm(struct v3_vm_info * vm, unsigned int msecs) {
        if (all_blocked == 1) {
            break;
        }
-
+       
+       // Intentionally spin if there is no one to yield to
        v3_yield(NULL,-1);
     }