Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


linux build fix and deinitialization fix
[palacios.git] / palacios / src / palacios / vmm.c
index 938105e..ea24ca3 100644 (file)
 #include <palacios/vmm_intr.h>
 #include <palacios/vmm_config.h>
 #include <palacios/vm_guest.h>
-#include <palacios/vmm_instrument.h>
 #include <palacios/vmm_ctrl_regs.h>
 #include <palacios/vmm_lowlevel.h>
 #include <palacios/vmm_sprintf.h>
+#include <palacios/vmm_extensions.h>
 
 #ifdef CONFIG_SVM
 #include <palacios/svm.h>
@@ -40,7 +40,6 @@
 
 v3_cpu_arch_t v3_cpu_types[CONFIG_MAX_CPUS];
 struct v3_os_hooks * os_hooks = NULL;
-
 int v3_dbg_enable = 0;
 
 
@@ -63,7 +62,34 @@ static void init_cpu(void * arg) {
     } else 
 #endif
     {
-       PrintError("CPU has no virtualizationExtensions\n");
+       PrintError("CPU has no virtualization Extensions\n");
+    }
+}
+
+
+static void deinit_cpu(void * arg) {
+    uint32_t cpu_id = (uint32_t)(addr_t)arg;
+
+
+    switch (v3_cpu_types[cpu_id]) {
+#ifdef CONFIG_SVM
+       case V3_SVM_CPU:
+       case V3_SVM_REV3_CPU:
+           PrintDebug("Deinitializing SVM CPU %d\n", cpu_id);
+           v3_deinit_svm_cpu(cpu_id);
+           break;
+#endif
+#ifdef CONFIG_VMX
+       case V3_VMX_CPU:
+       case V3_VMX_EPT_CPU:
+           PrintDebug("Deinitializing VMX CPU %d\n", cpu_id);
+           v3_deinit_vmx_cpu(cpu_id);
+           break;
+#endif
+       case V3_INVALID_CPU:
+       default:
+           PrintError("CPU has no virtualization Extensions\n");
+           break;
     }
 }
 
@@ -82,23 +108,22 @@ void Init_V3(struct v3_os_hooks * hooks, int num_cpus) {
     }
 
     // Register all the possible device types
-    v3_init_devices();
+    V3_init_devices();
 
     // Register all shadow paging handlers
     V3_init_shdw_paging();
 
+    // Register all extensions
+    V3_init_extensions();
+
 
 #ifdef CONFIG_SYMMOD
     V3_init_symmod();
 #endif
 
-#ifdef CONFIG_INSTRUMENT_VMM
-    v3_init_instrumentation();
-#endif
-
 
 #ifdef CONFIG_VNET
-    V3_init_vnet();
+    v3_init_vnet();
 #endif
 
 
@@ -118,22 +143,62 @@ void Init_V3(struct v3_os_hooks * hooks, int num_cpus) {
 }
 
 
+void Shutdown_V3() {
+    int i;
+
+    V3_deinit_devices();
+    V3_deinit_shdw_paging();
+
+    V3_deinit_extensions();
+
+#ifdef CONFIG_SYMMOD
+    V3_deinit_symmod();
+#endif
+
+
+#ifdef CONFIG_VNET
+    v3_deinit_vnet();
+#endif
+
+#ifdef CONFIG_MULTITHREAD_OS
+    if ((os_hooks) && (os_hooks->call_on_cpu)) {
+       for (i = 0; i < CONFIG_MAX_CPUS; i++) {
+           if (v3_cpu_types[i] != V3_INVALID_CPU) {
+               deinit_cpu((void *)(addr_t)i);
+           }
+       }
+    }
+#else 
+    deinit_cpu(0);
+#endif
+
+}
+
+
 v3_cpu_arch_t v3_get_cpu_type(int cpu_id) {
     return v3_cpu_types[cpu_id];
 }
 
 
-struct v3_vm_info * v3_create_vm(void * cfg, void * priv_data) {
-    struct v3_vm_info * vm = v3_config_guest(cfg);
+struct v3_vm_info * v3_create_vm(void * cfg, void * priv_data, char * name) {
+    struct v3_vm_info * vm = v3_config_guest(cfg, priv_data);
 
     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
 
+
     if (vm == NULL) {
        PrintError("Could not configure guest\n");
        return NULL;
     }
 
-    vm->host_priv_data = priv_data;
+    if (name == NULL) {
+       name = "[V3_VM]";
+    } else if (strlen(name) >= 128) {
+       PrintError("VM name is too long. Will be truncated to 128 chars.\n");
+    }
+
+    memset(vm->name, 0, 128);
+    strncpy(vm->name, name, 127);
 
     return vm;
 }
@@ -144,12 +209,10 @@ static int start_core(void * p)
     struct guest_info * core = (struct guest_info *)p;
 
 
-    PrintDebug("core %u: in start_core (RIP=%p)\n", 
+    PrintDebug("virtual core %u: in start_core (RIP=%p)\n", 
               core->cpu_id, (void *)(addr_t)core->rip);
 
-
-    // JRL: Whoa WTF? cpu_types are tied to the vcoreID????
-    switch (v3_cpu_types[core->cpu_id]) {
+    switch (v3_cpu_types[0]) {
 #ifdef CONFIG_SVM
        case V3_SVM_CPU:
        case V3_SVM_REV3_CPU:
@@ -170,98 +233,176 @@ static int start_core(void * p)
     return 0;
 }
 
-#ifdef CONFIG_MULTITHREAD_OS
+
 // For the moment very ugly. Eventually we will shift the cpu_mask to an arbitrary sized type...
+#ifdef CONFIG_MULTITHREAD_OS
 #define MAX_CORES 32
+#else
+#define MAX_CORES 1
+#endif
 
 
-static int start_vm_multicore(struct v3_vm_info * vm, unsigned int cpu_mask) {
+int v3_start_vm(struct v3_vm_info * vm, unsigned int cpu_mask) {
     uint32_t i;
-    char tname[16];
-    int vcore_id = 0;
     uint8_t * core_mask = (uint8_t *)&cpu_mask; // This is to make future expansion easier
     uint32_t avail_cores = 0;
-
-
+    int vcore_id = 0;
 
     /// CHECK IF WE ARE MULTICORE ENABLED....
 
     V3_Print("V3 --  Starting VM (%u cores)\n", vm->num_cores);
     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
 
+
     // Check that enough cores are present in the mask to handle vcores
     for (i = 0; i < MAX_CORES; i++) {
        int major = i / 8;
        int minor = i % 8;
-
+       
        if (core_mask[major] & (0x1 << minor)) {
            avail_cores++;
        }
-       
     }
-    
+
+
     if (vm->num_cores > avail_cores) {
-       PrintError("Attempted to start a VM with too many cores (MAX=%d)\n", MAX_CORES);
+       PrintError("Attempted to start a VM with too many cores (vm->num_cores = %d, avail_cores = %d, MAX=%d)\n", 
+                  vm->num_cores, avail_cores, MAX_CORES);
        return -1;
     }
 
-
-    for (i = 0; (i < MAX_CORES) && (vcore_id < vm->num_cores); i++) {
-       int major = i / 8;
-       int minor = i % 8;
+#ifdef CONFIG_MULTITHREAD_OS
+    // spawn off new threads, for other cores
+    for (i = 0, vcore_id = 1; (i < MAX_CORES) && (vcore_id < vm->num_cores); i++) {
+       int major = 0;
+       int minor = 0;
        void * core_thread = NULL;
+       struct guest_info * core = &(vm->cores[vcore_id]);
+       char * specified_cpu = v3_cfg_val(core->core_cfg_data, "target_cpu");
+       uint32_t core_idx = 0;
+
+       if (specified_cpu != NULL) {
+           core_idx = atoi(specified_cpu);
+           
+           if ((core_idx < 0) || (core_idx >= MAX_CORES)) {
+               PrintError("Target CPU out of bounds (%d) (MAX_CORES=%d)\n", core_idx, MAX_CORES);
+           }
+
+           i--; // We reset the logical core idx. Not strictly necessary I guess... 
+       } else {
+
+           /* This assumes that the core 0 thread has been mapped to physical core 0 */
+           if (i == V3_Get_CPU()) {
+               // We skip the local CPU because it is reserved for vcore 0
+               continue;
+           }
+           
+           core_idx = i;
+       }
+
+       major = core_idx / 8;
+       minor = core_idx % 8;
+
 
        if ((core_mask[major] & (0x1 << minor)) == 0) {
-           // cpuid not set in cpu_mask
+           PrintError("Logical CPU %d not available for virtual core %d; not started\n",
+                      core_idx, vcore_id);
+
+           if (specified_cpu != NULL) {
+               PrintError("CPU was specified explicitly (%d). HARD ERROR\n", core_idx);
+               v3_stop_vm(vm);
+               return -1;
+           }
+
            continue;
-       } 
+       }
 
        PrintDebug("Starting virtual core %u on logical core %u\n", 
-                  vcore_id, i);
+                  vcore_id, core_idx);
        
-       sprintf(tname, "core%u", vcore_id);
+       sprintf(core->exec_name, "%s-%u", vm->name, vcore_id);
 
        PrintDebug("run: core=%u, func=0x%p, arg=0x%p, name=%s\n",
-                  i, start_core, &(vm->cores[vcore_id]), tname);
+                  core_idx, start_core, core, core->exec_name);
 
        // TODO: actually manage these threads instead of just launching them
-       core_thread = V3_CREATE_THREAD_ON_CPU(i, start_core, 
-                                             &(vm->cores[vcore_id]), tname);
+       core_thread = V3_CREATE_THREAD_ON_CPU(core_idx, start_core, core, core->exec_name);
 
        if (core_thread == NULL) {
            PrintError("Thread launch failed\n");
+           v3_stop_vm(vm);
            return -1;
        }
 
        vcore_id++;
     }
+#endif
+
+    sprintf(vm->cores[0].exec_name, "%s", vm->name);
+
+    if (start_core(&(vm->cores[0])) != 0) {
+       PrintError("Error starting VM core 0\n");
+       v3_stop_vm(vm);
+       return -1;
+    }
+
 
     return 0;
 
 }
-#endif
 
 
-int v3_start_vm(struct v3_vm_info * vm, unsigned int cpu_mask) {
-#ifdef CONFIG_MULTITHREAD_OS
-    return start_vm_multicore(vm, cpu_mask);
-#else 
-    return start_core(&(vm->cores[0]));
-#endif
-}
 
 
 int v3_stop_vm(struct v3_vm_info * vm) {
 
     vm->run_state = VM_STOPPED;
 
-
     // force exit all cores via a cross call/IPI
 
-    // Wait for all cores to enter CORE_STOPPED state
+    while (1) {
+       int i = 0;
+       int still_running = 0;
+
+       for (i = 0; i < vm->num_cores; i++) {
+           if (vm->cores[i].core_run_state != CORE_STOPPED) {
+               still_running = 1;
+           }
+       }
+
+       if (still_running == 0) {
+           break;
+       }
+
+       V3_Print("Yielding\n");
 
+       v3_yield(NULL);
+    }
+    
+    V3_Print("VM stopped. Returning\n");
+
+    return 0;
+}
+
+
+int v3_free_vm(struct v3_vm_info * vm) {
+    int i = 0;
     // deinitialize guest (free memory, etc...)
 
+    v3_free_vm_devices(vm);
+
+    // free cores
+    for (i = 0; i < vm->num_cores; i++) {
+       v3_free_core(&(vm->cores[i]));
+    }
+
+    // free vm
+    v3_free_vm_internal(vm);
+
+    v3_free_config(vm);
+
+    V3_Free(vm);
+
     return 0;
 }
 
@@ -366,7 +507,7 @@ void v3_interrupt_cpu(struct v3_vm_info * vm, int logical_cpu, int vector) {
 
 
 int v3_vm_enter(struct guest_info * info) {
-    switch (v3_cpu_types[info->cpu_id]) {
+    switch (v3_cpu_types[0]) {
 #ifdef CONFIG_SVM
        case V3_SVM_CPU:
        case V3_SVM_REV3_CPU: