Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


Corrected APIC IPI and IRQ dispatch routines
[palacios.git] / palacios / src / palacios / vmm.c
1 /* 
2  * This file is part of the Palacios Virtual Machine Monitor developed
3  * by the V3VEE Project with funding from the United States National 
4  * Science Foundation and the Department of Energy.  
5  *
6  * The V3VEE Project is a joint project between Northwestern University
7  * and the University of New Mexico.  You can find out more at 
8  * http://www.v3vee.org
9  *
10  * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
11  * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
12  * All rights reserved.
13  *
14  * Author: Jack Lange <jarusl@cs.northwestern.edu>
15  *
16  * This is free software.  You are permitted to use,
17  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
18  */
19
20 #include <palacios/vmm.h>
21 #include <palacios/vmm_intr.h>
22 #include <palacios/vmm_config.h>
23 #include <palacios/vm_guest.h>
24 #include <palacios/vmm_ctrl_regs.h>
25 #include <palacios/vmm_lowlevel.h>
26 #include <palacios/vmm_sprintf.h>
27
28 #ifdef CONFIG_SVM
29 #include <palacios/svm.h>
30 #endif
31 #ifdef CONFIG_VMX
32 #include <palacios/vmx.h>
33 #endif
34
35 #ifdef CONFIG_VNET
36 #include <palacios/vmm_vnet.h>
37 #endif
38
39
40 v3_cpu_arch_t v3_cpu_types[CONFIG_MAX_CPUS];
41 struct v3_os_hooks * os_hooks = NULL;
42
43 int v3_dbg_enable = 0;
44
45
46
47 static void init_cpu(void * arg) {
48     uint32_t cpu_id = (uint32_t)(addr_t)arg;
49
50 #ifdef CONFIG_SVM
51     if (v3_is_svm_capable()) {
52         PrintDebug("Machine is SVM Capable\n");
53         v3_init_svm_cpu(cpu_id);
54         
55     } else 
56 #endif
57 #ifdef CONFIG_VMX
58     if (v3_is_vmx_capable()) {
59         PrintDebug("Machine is VMX Capable\n");
60         v3_init_vmx_cpu(cpu_id);
61
62     } else 
63 #endif
64     {
65        PrintError("CPU has no virtualization Extensions\n");
66     }
67 }
68
69
70 static void deinit_cpu(void * arg) {
71     uint32_t cpu_id = (uint32_t)(addr_t)arg;
72
73
74     switch (v3_cpu_types[cpu_id]) {
75  #ifdef CONFIG_SVM
76         case V3_VMX_CPU:
77         case V3_VMX_EPT_CPU:
78             PrintDebug("Machine is SVM Capable\n");
79             v3_deinit_svm_cpu(cpu_id);
80             break;
81 #endif
82 #ifdef CONFIG_VMX
83         case V3_SVM_CPU:
84         case V3_SVM_REV3_CPU:
85             PrintDebug("Machine is VMX Capable\n");
86             v3_deinit_vmx_cpu(cpu_id);
87             break;
88 #endif
89         case V3_INVALID_CPU:
90         default:
91             PrintError("CPU has no virtualization Extensions\n");
92             break;
93     }
94 }
95
96
97
98 void Init_V3(struct v3_os_hooks * hooks, int num_cpus) {
99     int i;
100
101     V3_Print("V3 Print statement to fix a Kitten page fault bug\n");
102
103     // Set global variables. 
104     os_hooks = hooks;
105
106     for (i = 0; i < CONFIG_MAX_CPUS; i++) {
107         v3_cpu_types[i] = V3_INVALID_CPU;
108     }
109
110     // Register all the possible device types
111     V3_init_devices();
112
113     // Register all shadow paging handlers
114     V3_init_shdw_paging();
115
116
117 #ifdef CONFIG_SYMMOD
118     V3_init_symmod();
119 #endif
120
121
122 #ifdef CONFIG_VNET
123     v3_init_vnet();
124 #endif
125
126
127 #ifdef CONFIG_MULTITHREAD_OS
128     if ((hooks) && (hooks->call_on_cpu)) {
129
130         for (i = 0; i < num_cpus; i++) {
131
132             V3_Print("Initializing VMM extensions on cpu %d\n", i);
133             hooks->call_on_cpu(i, &init_cpu, (void *)(addr_t)i);
134         }
135     }
136 #else 
137     init_cpu(0);
138 #endif
139
140 }
141
142
143 void Shutdown_V3() {
144     int i;
145
146     V3_deinit_devices();
147     V3_deinit_shdw_paging();
148
149 #ifdef CONFIG_SYMMOD
150     V3_deinit_symmod();
151 #endif
152
153
154 #ifdef CONFIG_VNET
155     v3_deinit_vnet();
156 #endif
157
158 #ifdef CONFIG_MULTITHREAD_OS
159     if ((os_hooks) && (os_hooks->call_on_cpu)) {
160         for (i = 0; i < CONFIG_MAX_CPUS; i++) {
161             if (v3_cpu_types[i] != V3_INVALID_CPU) {
162                 deinit_cpu((void *)(addr_t)i);
163             }
164         }
165     }
166 #else 
167     deinit_cpu(0);
168 #endif
169
170 }
171
172
173 v3_cpu_arch_t v3_get_cpu_type(int cpu_id) {
174     return v3_cpu_types[cpu_id];
175 }
176
177
178 struct v3_vm_info * v3_create_vm(void * cfg, void * priv_data, char * name) {
179     struct v3_vm_info * vm = v3_config_guest(cfg, priv_data);
180
181     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
182
183
184     if (vm == NULL) {
185         PrintError("Could not configure guest\n");
186         return NULL;
187     }
188
189     if (name == NULL) {
190         name = "[V3_VM]";
191     } else if (strlen(name) >= 128) {
192         PrintError("VM name is too long. Will be truncated to 128 chars.\n");
193     }
194
195     memset(vm->name, 0, 128);
196     strncpy(vm->name, name, 127);
197
198     return vm;
199 }
200
201
202 static int start_core(void * p)
203 {
204     struct guest_info * core = (struct guest_info *)p;
205
206
207     PrintDebug("core %u: in start_core (RIP=%p)\n", 
208                core->cpu_id, (void *)(addr_t)core->rip);
209
210
211     // JRL: Whoa WTF? cpu_types are tied to the vcoreID????
212     switch (v3_cpu_types[core->cpu_id]) {
213 #ifdef CONFIG_SVM
214         case V3_SVM_CPU:
215         case V3_SVM_REV3_CPU:
216             return v3_start_svm_guest(core);
217             break;
218 #endif
219 #if CONFIG_VMX
220         case V3_VMX_CPU:
221         case V3_VMX_EPT_CPU:
222             return v3_start_vmx_guest(core);
223             break;
224 #endif
225         default:
226             PrintError("Attempting to enter a guest on an invalid CPU\n");
227             return -1;
228     }
229     // should not happen
230     return 0;
231 }
232
233
234 // For the moment very ugly. Eventually we will shift the cpu_mask to an arbitrary sized type...
235 #ifdef CONFIG_MULTITHREAD_OS
236 #define MAX_CORES 32
237 #else
238 #define MAX_CORES 1
239 #endif
240
241
242 int v3_start_vm(struct v3_vm_info * vm, unsigned int cpu_mask) {
243     uint32_t i;
244 #ifdef CONFIG_MULTITHREAD_OS
245     int vcore_id = 0;
246 #endif
247     uint8_t * core_mask = (uint8_t *)&cpu_mask; // This is to make future expansion easier
248     uint32_t avail_cores = 0;
249
250
251
252     /// CHECK IF WE ARE MULTICORE ENABLED....
253
254     V3_Print("V3 --  Starting VM (%u cores)\n", vm->num_cores);
255     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
256
257     // Check that enough cores are present in the mask to handle vcores
258     for (i = 0; i < MAX_CORES; i++) {
259         int major = i / 8;
260         int minor = i % 8;
261
262         if (core_mask[major] & (0x1 << minor)) {
263             avail_cores++;
264         }
265         
266     }
267     
268     if (vm->num_cores > avail_cores) {
269         PrintError("Attempted to start a VM with too many cores (vm->num_cores = %d, avail_cores = %d, MAX=%d)\n", vm->num_cores, avail_cores, MAX_CORES);
270         return -1;
271     }
272
273
274 #ifdef CONFIG_MULTITHREAD_OS
275     // spawn off new threads, for other cores
276     for (i = 0, vcore_id = 1; (i < MAX_CORES) && (vcore_id < vm->num_cores); i++) {
277         int major = i / 8;
278         int minor = i % 8;
279         void * core_thread = NULL;
280         struct guest_info * core = &(vm->cores[vcore_id]);
281
282         /* This assumes that the core 0 thread has been mapped to physical core 0 */
283         if (i == V3_Get_CPU()) {
284             // We skip the local CPU, because it is reserved for vcore 0
285             continue;
286         }
287
288
289         if ((core_mask[major] & (0x1 << minor)) == 0) {
290             // cpuid not set in cpu_mask
291             continue;
292         } 
293
294         PrintDebug("Starting virtual core %u on logical core %u\n", 
295                    vcore_id, i);
296         
297         sprintf(core->exec_name, "%s-%u", vm->name, vcore_id);
298
299         PrintDebug("run: core=%u, func=0x%p, arg=0x%p, name=%s\n",
300                    i, start_core, core, core->exec_name);
301
302         // TODO: actually manage these threads instead of just launching them
303         core_thread = V3_CREATE_THREAD_ON_CPU(i, start_core, core, core->exec_name);
304
305         if (core_thread == NULL) {
306             PrintError("Thread launch failed\n");
307             return -1;
308         }
309
310         vcore_id++;
311     }
312 #endif
313
314     sprintf(vm->cores[0].exec_name, "%s", vm->name);
315
316     if (start_core(&(vm->cores[0])) != 0) {
317         PrintError("Error starting VM core 0\n");
318         return -1;
319     }
320
321
322     return 0;
323
324 }
325
326
327
328
329 int v3_stop_vm(struct v3_vm_info * vm) {
330
331     vm->run_state = VM_STOPPED;
332
333     // force exit all cores via a cross call/IPI
334
335     while (1) {
336         int i = 0;
337         int still_running = 0;
338
339         for (i = 0; i < vm->num_cores; i++) {
340             if (vm->cores[i].core_run_state != CORE_STOPPED) {
341                 still_running = 1;
342             }
343         }
344
345         if (still_running == 0) {
346             break;
347         }
348
349         V3_Print("Yielding\n");
350
351         v3_yield(NULL);
352     }
353     
354     V3_Print("VM stopped. Returning\n");
355
356     return 0;
357 }
358
359
360 int v3_free_vm(struct v3_vm_info * vm) {
361     int i = 0;
362     // deinitialize guest (free memory, etc...)
363
364     v3_free_vm_devices(vm);
365
366     // free cores
367     for (i = 0; i < vm->num_cores; i++) {
368         v3_free_core(&(vm->cores[i]));
369     }
370
371     // free vm
372     v3_free_vm_internal(vm);
373
374     v3_free_config(vm);
375
376     V3_Free(vm);
377
378     return 0;
379 }
380
381
382 #ifdef __V3_32BIT__
383
384 v3_cpu_mode_t v3_get_host_cpu_mode() {
385     uint32_t cr4_val;
386     struct cr4_32 * cr4;
387
388     __asm__ (
389              "movl %%cr4, %0; "
390              : "=r"(cr4_val) 
391              );
392
393     
394     cr4 = (struct cr4_32 *)&(cr4_val);
395
396     if (cr4->pae == 1) {
397         return PROTECTED_PAE;
398     } else {
399         return PROTECTED;
400     }
401 }
402
403 #elif __V3_64BIT__
404
405 v3_cpu_mode_t v3_get_host_cpu_mode() {
406     return LONG;
407 }
408
409 #endif 
410
411
412 #define V3_Yield(addr)                                  \
413     do {                                                \
414         extern struct v3_os_hooks * os_hooks;           \
415         if ((os_hooks) && (os_hooks)->yield_cpu) {      \
416             (os_hooks)->yield_cpu();                    \
417         }                                               \
418     } while (0)                                         \
419
420
421
422 void v3_yield_cond(struct guest_info * info) {
423     uint64_t cur_cycle;
424     cur_cycle = v3_get_host_time(&info->time_state);
425
426     if (cur_cycle > (info->yield_start_cycle + info->vm_info->yield_cycle_period)) {
427
428         /*
429           PrintDebug("Conditional Yield (cur_cyle=%p, start_cycle=%p, period=%p)\n", 
430           (void *)cur_cycle, (void *)info->yield_start_cycle, (void *)info->yield_cycle_period);
431         */
432         V3_Yield();
433         info->yield_start_cycle = v3_get_host_time(&info->time_state);
434     }
435 }
436
437
438 /* 
439  * unconditional cpu yield 
440  * if the yielding thread is a guest context, the guest quantum is reset on resumption 
441  * Non guest context threads should call this function with a NULL argument
442  */
443 void v3_yield(struct guest_info * info) {
444     V3_Yield();
445
446     if (info) {
447         info->yield_start_cycle = v3_get_host_time(&info->time_state);
448     }
449 }
450
451
452
453
454 void v3_print_cond(const char * fmt, ...) {
455     if (v3_dbg_enable == 1) {
456         char buf[2048];
457         va_list ap;
458
459         va_start(ap, fmt);
460         vsnprintf(buf, 2048, fmt, ap);
461         va_end(ap);
462
463         V3_Print("%s", buf);
464     }    
465 }
466
467
468 #ifdef CONFIG_MULTITHREAD_OS
469
470 void v3_interrupt_cpu(struct v3_vm_info * vm, int logical_cpu, int vector) {
471     extern struct v3_os_hooks * os_hooks;
472
473     if ((os_hooks) && (os_hooks)->interrupt_cpu) {
474         (os_hooks)->interrupt_cpu(vm, logical_cpu, vector);
475     }
476 }
477 #endif
478
479
480
481 int v3_vm_enter(struct guest_info * info) {
482     switch (v3_cpu_types[info->cpu_id]) {
483 #ifdef CONFIG_SVM
484         case V3_SVM_CPU:
485         case V3_SVM_REV3_CPU:
486             return v3_svm_enter(info);
487             break;
488 #endif
489 #if CONFIG_VMX
490         case V3_VMX_CPU:
491         case V3_VMX_EPT_CPU:
492             return v3_vmx_enter(info);
493             break;
494 #endif
495         default:
496             PrintError("Attemping to enter a guest on an invalid CPU\n");
497             return -1;
498     }
499 }