Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


initial checking of internal decoder
[palacios.git] / palacios / src / palacios / vmm.c
1 /* 
2  * This file is part of the Palacios Virtual Machine Monitor developed
3  * by the V3VEE Project with funding from the United States National 
4  * Science Foundation and the Department of Energy.  
5  *
6  * The V3VEE Project is a joint project between Northwestern University
7  * and the University of New Mexico.  You can find out more at 
8  * http://www.v3vee.org
9  *
10  * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
11  * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
12  * All rights reserved.
13  *
14  * Author: Jack Lange <jarusl@cs.northwestern.edu>
15  *
16  * This is free software.  You are permitted to use,
17  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
18  */
19
20 #include <palacios/vmm.h>
21 #include <palacios/vmm_intr.h>
22 #include <palacios/vmm_config.h>
23 #include <palacios/vm_guest.h>
24 #include <palacios/vmm_ctrl_regs.h>
25 #include <palacios/vmm_lowlevel.h>
26 #include <palacios/vmm_sprintf.h>
27 #include <palacios/vmm_extensions.h>
28
29 #ifdef CONFIG_SVM
30 #include <palacios/svm.h>
31 #endif
32 #ifdef CONFIG_VMX
33 #include <palacios/vmx.h>
34 #endif
35
36 #ifdef CONFIG_VNET
37 #include <palacios/vmm_vnet.h>
38 #endif
39
40
41 v3_cpu_arch_t v3_cpu_types[CONFIG_MAX_CPUS];
42 struct v3_os_hooks * os_hooks = NULL;
43 int v3_dbg_enable = 0;
44
45
46
47 static void init_cpu(void * arg) {
48     uint32_t cpu_id = (uint32_t)(addr_t)arg;
49
50 #ifdef CONFIG_SVM
51     if (v3_is_svm_capable()) {
52         PrintDebug("Machine is SVM Capable\n");
53         v3_init_svm_cpu(cpu_id);
54         
55     } else 
56 #endif
57 #ifdef CONFIG_VMX
58     if (v3_is_vmx_capable()) {
59         PrintDebug("Machine is VMX Capable\n");
60         v3_init_vmx_cpu(cpu_id);
61
62     } else 
63 #endif
64     {
65        PrintError("CPU has no virtualization Extensions\n");
66     }
67 }
68
69
70 static void deinit_cpu(void * arg) {
71     uint32_t cpu_id = (uint32_t)(addr_t)arg;
72
73
74     switch (v3_cpu_types[cpu_id]) {
75  #ifdef CONFIG_SVM
76         case V3_VMX_CPU:
77         case V3_VMX_EPT_CPU:
78             PrintDebug("Machine is SVM Capable\n");
79             v3_deinit_svm_cpu(cpu_id);
80             break;
81 #endif
82 #ifdef CONFIG_VMX
83         case V3_SVM_CPU:
84         case V3_SVM_REV3_CPU:
85             PrintDebug("Machine is VMX Capable\n");
86             v3_deinit_vmx_cpu(cpu_id);
87             break;
88 #endif
89         case V3_INVALID_CPU:
90         default:
91             PrintError("CPU has no virtualization Extensions\n");
92             break;
93     }
94 }
95
96
97
98 void Init_V3(struct v3_os_hooks * hooks, int num_cpus) {
99     int i;
100
101     V3_Print("V3 Print statement to fix a Kitten page fault bug\n");
102
103     // Set global variables. 
104     os_hooks = hooks;
105
106     for (i = 0; i < CONFIG_MAX_CPUS; i++) {
107         v3_cpu_types[i] = V3_INVALID_CPU;
108     }
109
110     // Register all the possible device types
111     V3_init_devices();
112
113     // Register all shadow paging handlers
114     V3_init_shdw_paging();
115
116     // Register all extensions
117     V3_init_extensions();
118
119
120 #ifdef CONFIG_SYMMOD
121     V3_init_symmod();
122 #endif
123
124
125 #ifdef CONFIG_VNET
126     v3_init_vnet();
127 #endif
128
129
130 #ifdef CONFIG_MULTITHREAD_OS
131     if ((hooks) && (hooks->call_on_cpu)) {
132
133         for (i = 0; i < num_cpus; i++) {
134
135             V3_Print("Initializing VMM extensions on cpu %d\n", i);
136             hooks->call_on_cpu(i, &init_cpu, (void *)(addr_t)i);
137         }
138     }
139 #else 
140     init_cpu(0);
141 #endif
142
143 }
144
145
146 void Shutdown_V3() {
147     int i;
148
149     V3_deinit_devices();
150     V3_deinit_shdw_paging();
151
152     V3_deinit_extensions();
153
154 #ifdef CONFIG_SYMMOD
155     V3_deinit_symmod();
156 #endif
157
158
159 #ifdef CONFIG_VNET
160     v3_deinit_vnet();
161 #endif
162
163 #ifdef CONFIG_MULTITHREAD_OS
164     if ((os_hooks) && (os_hooks->call_on_cpu)) {
165         for (i = 0; i < CONFIG_MAX_CPUS; i++) {
166             if (v3_cpu_types[i] != V3_INVALID_CPU) {
167                 deinit_cpu((void *)(addr_t)i);
168             }
169         }
170     }
171 #else 
172     deinit_cpu(0);
173 #endif
174
175 }
176
177
178 v3_cpu_arch_t v3_get_cpu_type(int cpu_id) {
179     return v3_cpu_types[cpu_id];
180 }
181
182
183 struct v3_vm_info * v3_create_vm(void * cfg, void * priv_data, char * name) {
184     struct v3_vm_info * vm = v3_config_guest(cfg, priv_data);
185
186     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
187
188
189     if (vm == NULL) {
190         PrintError("Could not configure guest\n");
191         return NULL;
192     }
193
194     if (name == NULL) {
195         name = "[V3_VM]";
196     } else if (strlen(name) >= 128) {
197         PrintError("VM name is too long. Will be truncated to 128 chars.\n");
198     }
199
200     memset(vm->name, 0, 128);
201     strncpy(vm->name, name, 127);
202
203     return vm;
204 }
205
206
207 static int start_core(void * p)
208 {
209     struct guest_info * core = (struct guest_info *)p;
210
211
212     PrintDebug("virtual core %u: in start_core (RIP=%p)\n", 
213                core->cpu_id, (void *)(addr_t)core->rip);
214
215     switch (v3_cpu_types[0]) {
216 #ifdef CONFIG_SVM
217         case V3_SVM_CPU:
218         case V3_SVM_REV3_CPU:
219             return v3_start_svm_guest(core);
220             break;
221 #endif
222 #if CONFIG_VMX
223         case V3_VMX_CPU:
224         case V3_VMX_EPT_CPU:
225             return v3_start_vmx_guest(core);
226             break;
227 #endif
228         default:
229             PrintError("Attempting to enter a guest on an invalid CPU\n");
230             return -1;
231     }
232     // should not happen
233     return 0;
234 }
235
236
237 // For the moment very ugly. Eventually we will shift the cpu_mask to an arbitrary sized type...
238 #ifdef CONFIG_MULTITHREAD_OS
239 #define MAX_CORES 32
240 #else
241 #define MAX_CORES 1
242 #endif
243
244
245 int v3_start_vm(struct v3_vm_info * vm, unsigned int cpu_mask) {
246     uint32_t i;
247     uint8_t * core_mask = (uint8_t *)&cpu_mask; // This is to make future expansion easier
248     uint32_t avail_cores = 0;
249     int vcore_id = 0;
250
251     /// CHECK IF WE ARE MULTICORE ENABLED....
252
253     V3_Print("V3 --  Starting VM (%u cores)\n", vm->num_cores);
254     V3_Print("CORE 0 RIP=%p\n", (void *)(addr_t)(vm->cores[0].rip));
255
256
257     // Check that enough cores are present in the mask to handle vcores
258     for (i = 0; i < MAX_CORES; i++) {
259         int major = i / 8;
260         int minor = i % 8;
261         
262         if (core_mask[major] & (0x1 << minor)) {
263             avail_cores++;
264         }
265     }
266
267
268     if (vm->num_cores > avail_cores) {
269         PrintError("Attempted to start a VM with too many cores (vm->num_cores = %d, avail_cores = %d, MAX=%d)\n", 
270                    vm->num_cores, avail_cores, MAX_CORES);
271         return -1;
272     }
273
274 #ifdef CONFIG_MULTITHREAD_OS
275     // spawn off new threads, for other cores
276     for (i = 0, vcore_id = 1; (i < MAX_CORES) && (vcore_id < vm->num_cores); i++) {
277         int major = i / 8;
278         int minor = i % 8;
279         void * core_thread = NULL;
280         struct guest_info * core = &(vm->cores[vcore_id]);
281
282         /* This assumes that the core 0 thread has been mapped to physical core 0 */
283         if (i == V3_Get_CPU()) {
284             // We skip the local CPU because it is reserved for vcore 0
285             continue;
286         }
287
288         if ((core_mask[major] & (0x1 << minor)) == 0) {
289             PrintError("Logical CPU %d not available for virtual core %d; not started\n",
290                        i, vcore_id);
291             continue;
292         } 
293
294         PrintDebug("Starting virtual core %u on logical core %u\n", 
295                    vcore_id, i);
296         
297         sprintf(core->exec_name, "%s-%u", vm->name, vcore_id);
298
299         PrintDebug("run: core=%u, func=0x%p, arg=0x%p, name=%s\n",
300                    i, start_core, core, core->exec_name);
301
302         // TODO: actually manage these threads instead of just launching them
303         core_thread = V3_CREATE_THREAD_ON_CPU(i, start_core, core, core->exec_name);
304
305         if (core_thread == NULL) {
306             PrintError("Thread launch failed\n");
307             return -1;
308         }
309
310         vcore_id++;
311     }
312 #endif
313
314     sprintf(vm->cores[0].exec_name, "%s", vm->name);
315
316     if (start_core(&(vm->cores[0])) != 0) {
317         PrintError("Error starting VM core 0\n");
318         return -1;
319     }
320
321
322     return 0;
323
324 }
325
326
327
328
329 int v3_stop_vm(struct v3_vm_info * vm) {
330
331     vm->run_state = VM_STOPPED;
332
333     // force exit all cores via a cross call/IPI
334
335     while (1) {
336         int i = 0;
337         int still_running = 0;
338
339         for (i = 0; i < vm->num_cores; i++) {
340             if (vm->cores[i].core_run_state != CORE_STOPPED) {
341                 still_running = 1;
342             }
343         }
344
345         if (still_running == 0) {
346             break;
347         }
348
349         V3_Print("Yielding\n");
350
351         v3_yield(NULL);
352     }
353     
354     V3_Print("VM stopped. Returning\n");
355
356     return 0;
357 }
358
359
360 int v3_free_vm(struct v3_vm_info * vm) {
361     int i = 0;
362     // deinitialize guest (free memory, etc...)
363
364     v3_free_vm_devices(vm);
365
366     // free cores
367     for (i = 0; i < vm->num_cores; i++) {
368         v3_free_core(&(vm->cores[i]));
369     }
370
371     // free vm
372     v3_free_vm_internal(vm);
373
374     v3_free_config(vm);
375
376     V3_Free(vm);
377
378     return 0;
379 }
380
381
382 #ifdef __V3_32BIT__
383
384 v3_cpu_mode_t v3_get_host_cpu_mode() {
385     uint32_t cr4_val;
386     struct cr4_32 * cr4;
387
388     __asm__ (
389              "movl %%cr4, %0; "
390              : "=r"(cr4_val) 
391              );
392
393     
394     cr4 = (struct cr4_32 *)&(cr4_val);
395
396     if (cr4->pae == 1) {
397         return PROTECTED_PAE;
398     } else {
399         return PROTECTED;
400     }
401 }
402
403 #elif __V3_64BIT__
404
405 v3_cpu_mode_t v3_get_host_cpu_mode() {
406     return LONG;
407 }
408
409 #endif 
410
411
412 #define V3_Yield(addr)                                  \
413     do {                                                \
414         extern struct v3_os_hooks * os_hooks;           \
415         if ((os_hooks) && (os_hooks)->yield_cpu) {      \
416             (os_hooks)->yield_cpu();                    \
417         }                                               \
418     } while (0)                                         \
419
420
421
422 void v3_yield_cond(struct guest_info * info) {
423     uint64_t cur_cycle;
424     cur_cycle = v3_get_host_time(&info->time_state);
425
426     if (cur_cycle > (info->yield_start_cycle + info->vm_info->yield_cycle_period)) {
427
428         /*
429           PrintDebug("Conditional Yield (cur_cyle=%p, start_cycle=%p, period=%p)\n", 
430           (void *)cur_cycle, (void *)info->yield_start_cycle, (void *)info->yield_cycle_period);
431         */
432         V3_Yield();
433         info->yield_start_cycle = v3_get_host_time(&info->time_state);
434     }
435 }
436
437
438 /* 
439  * unconditional cpu yield 
440  * if the yielding thread is a guest context, the guest quantum is reset on resumption 
441  * Non guest context threads should call this function with a NULL argument
442  */
443 void v3_yield(struct guest_info * info) {
444     V3_Yield();
445
446     if (info) {
447         info->yield_start_cycle = v3_get_host_time(&info->time_state);
448     }
449 }
450
451
452
453
454 void v3_print_cond(const char * fmt, ...) {
455     if (v3_dbg_enable == 1) {
456         char buf[2048];
457         va_list ap;
458
459         va_start(ap, fmt);
460         vsnprintf(buf, 2048, fmt, ap);
461         va_end(ap);
462
463         V3_Print("%s", buf);
464     }    
465 }
466
467
468 #ifdef CONFIG_MULTITHREAD_OS
469
470 void v3_interrupt_cpu(struct v3_vm_info * vm, int logical_cpu, int vector) {
471     extern struct v3_os_hooks * os_hooks;
472
473     if ((os_hooks) && (os_hooks)->interrupt_cpu) {
474         (os_hooks)->interrupt_cpu(vm, logical_cpu, vector);
475     }
476 }
477 #endif
478
479
480
481 int v3_vm_enter(struct guest_info * info) {
482     switch (v3_cpu_types[0]) {
483 #ifdef CONFIG_SVM
484         case V3_SVM_CPU:
485         case V3_SVM_REV3_CPU:
486             return v3_svm_enter(info);
487             break;
488 #endif
489 #if CONFIG_VMX
490         case V3_VMX_CPU:
491         case V3_VMX_EPT_CPU:
492             return v3_vmx_enter(info);
493             break;
494 #endif
495         default:
496             PrintError("Attemping to enter a guest on an invalid CPU\n");
497             return -1;
498     }
499 }