Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


minor symbiotic interface fixes
[palacios.git] / palacios / src / palacios / vm_guest.c
1 /* 
2  * This file is part of the Palacios Virtual Machine Monitor developed
3  * by the V3VEE Project with funding from the United States National 
4  * Science Foundation and the Department of Energy.  
5  *
6  * The V3VEE Project is a joint project between Northwestern University
7  * and the University of New Mexico.  You can find out more at 
8  * http://www.v3vee.org
9  *
10  * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu> 
11  * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org> 
12  * All rights reserved.
13  *
14  * Author: Jack Lange <jarusl@cs.northwestern.edu>
15  *
16  * This is free software.  You are permitted to use,
17  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
18  */
19
20
21
22
23 #include <palacios/vm_guest.h>
24 #include <palacios/vmm_ctrl_regs.h>
25 #include <palacios/vmm.h>
26 #include <palacios/vmm_decoder.h>
27 #include <palacios/vmcb.h>
28 #include <palacios/vm_guest_mem.h>
29 #include <palacios/vmm_lowlevel.h>
30 #include <palacios/vmm_sprintf.h>
31
32
33
34 v3_cpu_mode_t v3_get_vm_cpu_mode(struct guest_info * info) {
35     struct cr0_32 * cr0;
36     struct efer_64 * efer;
37     struct cr4_32 * cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
38     struct v3_segment * cs = &(info->segments.cs);
39     vmcb_saved_state_t * guest_state = GET_VMCB_SAVE_STATE_AREA((vmcb_t*)(info->vmm_data));
40
41     if (info->shdw_pg_mode == SHADOW_PAGING) {
42         cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
43         efer = (struct efer_64 *)&(info->shdw_pg_state.guest_efer);
44     } else if (info->shdw_pg_mode == NESTED_PAGING) {
45         cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
46         efer = (struct efer_64 *)&(guest_state->efer);
47     } else {
48         PrintError("Invalid Paging Mode...\n");
49         V3_ASSERT(0);
50         return -1;
51     }
52
53     if (cr0->pe == 0) {
54         return REAL;
55     } else if ((cr4->pae == 0) && (efer->lme == 0)) {
56         return PROTECTED;
57     } else if (efer->lme == 0) {
58         return PROTECTED_PAE;
59     } else if ((efer->lme == 1) && (cs->long_mode == 1)) {
60         return LONG;
61     } else {
62         // What about LONG_16_COMPAT???
63         return LONG_32_COMPAT;
64     }
65 }
66
67 // Get address width in bytes
68 uint_t v3_get_addr_width(struct guest_info * info) {
69     struct cr0_32 * cr0;
70     struct cr4_32 * cr4 = (struct cr4_32 *)&(info->ctrl_regs.cr4);
71     struct efer_64 * efer;
72     struct v3_segment * cs = &(info->segments.cs);
73     vmcb_saved_state_t * guest_state = GET_VMCB_SAVE_STATE_AREA((vmcb_t*)(info->vmm_data));
74
75     if (info->shdw_pg_mode == SHADOW_PAGING) {
76         cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
77         efer = (struct efer_64 *)&(info->shdw_pg_state.guest_efer);
78     } else if (info->shdw_pg_mode == NESTED_PAGING) {
79         cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
80         efer = (struct efer_64 *)&(guest_state->efer);
81     } else {
82         PrintError("Invalid Paging Mode...\n");
83         V3_ASSERT(0);
84         return -1;
85     }
86
87     if (cr0->pe == 0) {
88         return 2;
89     } else if ((cr4->pae == 0) && (efer->lme == 0)) {
90         return 4;
91     } else if (efer->lme == 0) {
92         return 4;
93     } else if ((efer->lme == 1) && (cs->long_mode == 1)) {
94         return 8;
95     } else {
96         // What about LONG_16_COMPAT???
97         return 4;
98     }
99 }
100
101
102 static const uchar_t REAL_STR[] = "Real";
103 static const uchar_t PROTECTED_STR[] = "Protected";
104 static const uchar_t PROTECTED_PAE_STR[] = "Protected+PAE";
105 static const uchar_t LONG_STR[] = "Long";
106 static const uchar_t LONG_32_COMPAT_STR[] = "32bit Compat";
107 static const uchar_t LONG_16_COMPAT_STR[] = "16bit Compat";
108
109 const uchar_t * v3_cpu_mode_to_str(v3_cpu_mode_t mode) {
110     switch (mode) {
111         case REAL:
112             return REAL_STR;
113         case PROTECTED:
114             return PROTECTED_STR;
115         case PROTECTED_PAE:
116             return PROTECTED_PAE_STR;
117         case LONG:
118             return LONG_STR;
119         case LONG_32_COMPAT:
120             return LONG_32_COMPAT_STR;
121         case LONG_16_COMPAT:
122             return LONG_16_COMPAT_STR;
123         default:
124             return NULL;
125     }
126 }
127
128 v3_mem_mode_t v3_get_vm_mem_mode(struct guest_info * info) {
129     struct cr0_32 * cr0;
130
131     if (info->shdw_pg_mode == SHADOW_PAGING) {
132         cr0 = (struct cr0_32 *)&(info->shdw_pg_state.guest_cr0);
133     } else if (info->shdw_pg_mode == NESTED_PAGING) {
134         cr0 = (struct cr0_32 *)&(info->ctrl_regs.cr0);
135     } else {
136         PrintError("Invalid Paging Mode...\n");
137         V3_ASSERT(0);
138         return -1;
139     }
140
141     if (cr0->pg == 0) {
142         return PHYSICAL_MEM;
143     } else {
144         return VIRTUAL_MEM;
145     }
146 }
147
148 static const uchar_t PHYS_MEM_STR[] = "Physical Memory";
149 static const uchar_t VIRT_MEM_STR[] = "Virtual Memory";
150
151 const uchar_t * v3_mem_mode_to_str(v3_mem_mode_t mode) {
152     switch (mode) {
153         case PHYSICAL_MEM:
154             return PHYS_MEM_STR;
155         case VIRTUAL_MEM:
156             return VIRT_MEM_STR;
157         default:
158             return NULL;
159     }
160 }
161
162
163 void v3_print_segments(struct v3_segments * segs) {
164     int i = 0;
165     struct v3_segment * seg_ptr;
166
167     seg_ptr=(struct v3_segment *)segs;
168   
169     char *seg_names[] = {"CS", "DS" , "ES", "FS", "GS", "SS" , "LDTR", "GDTR", "IDTR", "TR", NULL};
170     V3_Print("Segments\n");
171
172     for (i = 0; seg_names[i] != NULL; i++) {
173
174         V3_Print("\t%s: Sel=%x, base=%p, limit=%x (long_mode=%d, db=%d)\n", seg_names[i], seg_ptr[i].selector, 
175                    (void *)(addr_t)seg_ptr[i].base, seg_ptr[i].limit,
176                    seg_ptr[i].long_mode, seg_ptr[i].db);
177
178     }
179 }
180
181 //
182 // We don't handle those fancy 64 bit system segments...
183 //
184 int v3_translate_segment(struct guest_info * info, uint16_t selector, struct v3_segment * seg) {
185     struct v3_segment * gdt = &(info->segments.gdtr);
186     addr_t gdt_addr = 0;
187     uint16_t seg_offset = (selector & ~0x7);
188     addr_t seg_addr = 0;
189     struct gen_segment * gen_seg = NULL;
190     struct seg_selector sel;
191
192     memset(seg, 0, sizeof(struct v3_segment));
193
194     sel.value = selector;
195
196     if (sel.ti == 1) {
197         PrintError("LDT translations not supported\n");
198         return -1;
199     }
200
201     if (guest_va_to_host_va(info, gdt->base, &gdt_addr) == -1) {
202         PrintError("Unable to translate GDT address\n");
203         return -1;
204     }
205
206     seg_addr = gdt_addr + seg_offset;
207     gen_seg = (struct gen_segment *)seg_addr;
208
209     //translate
210     seg->selector = selector;
211
212     seg->limit = gen_seg->limit_hi;
213     seg->limit <<= 16;
214     seg->limit += gen_seg->limit_lo;
215
216     seg->base = gen_seg->base_hi;
217     seg->base <<= 24;
218     seg->base += gen_seg->base_lo;
219
220     if (gen_seg->granularity == 1) {
221         seg->limit <<= 12;
222         seg->limit |= 0xfff;
223     }
224
225     seg->type = gen_seg->type;
226     seg->system = gen_seg->system;
227     seg->dpl = gen_seg->dpl;
228     seg->present = gen_seg->present;
229     seg->avail = gen_seg->avail;
230     seg->long_mode = gen_seg->long_mode;
231     seg->db = gen_seg->db;
232     seg->granularity = gen_seg->granularity;
233     
234     return 0;
235 }
236
237
238
239
240 void v3_print_ctrl_regs(struct guest_info * info) {
241     struct v3_ctrl_regs * regs = &(info->ctrl_regs);
242     int i = 0;
243     v3_reg_t * reg_ptr;
244     char * reg_names[] = {"CR0", "CR2", "CR3", "CR4", "CR8", "FLAGS", NULL};
245     vmcb_saved_state_t * guest_state = GET_VMCB_SAVE_STATE_AREA(info->vmm_data);
246
247     reg_ptr = (v3_reg_t *)regs;
248
249     V3_Print("32 bit Ctrl Regs:\n");
250
251     for (i = 0; reg_names[i] != NULL; i++) {
252         V3_Print("\t%s=0x%p\n", reg_names[i], (void *)(addr_t)reg_ptr[i]);  
253     }
254
255     V3_Print("\tEFER=0x%p\n", (void*)(addr_t)(guest_state->efer));
256
257 }
258
259
260 void v3_print_guest_state(struct guest_info * info) {
261     addr_t linear_addr = 0; 
262
263     V3_Print("RIP: %p\n", (void *)(addr_t)(info->rip));
264     linear_addr = get_addr_linear(info, info->rip, &(info->segments.cs));
265     V3_Print("RIP Linear: %p\n", (void *)linear_addr);
266
267     V3_Print("NumExits: %u\n", (uint32_t)info->num_exits);
268
269     v3_print_segments(&(info->segments));
270     v3_print_ctrl_regs(info);
271
272     if (info->shdw_pg_mode == SHADOW_PAGING) {
273         V3_Print("Shadow Paging Guest Registers:\n");
274         V3_Print("\tGuest CR0=%p\n", (void *)(addr_t)(info->shdw_pg_state.guest_cr0));
275         V3_Print("\tGuest CR3=%p\n", (void *)(addr_t)(info->shdw_pg_state.guest_cr3));
276         V3_Print("\tGuest EFER=%p\n", (void *)(addr_t)(info->shdw_pg_state.guest_efer.value));
277         // CR4
278     }
279     v3_print_GPRs(info);
280
281     v3_print_stack(info);
282 }
283
284
285 void v3_print_stack(struct guest_info * info) {
286     addr_t linear_addr = 0;
287     addr_t host_addr = 0;
288     int i = 0;
289     v3_cpu_mode_t cpu_mode = v3_get_vm_cpu_mode(info);
290
291
292     linear_addr = get_addr_linear(info, info->vm_regs.rsp, &(info->segments.ss));
293  
294     V3_Print("Stack  at %p:\n", (void *)linear_addr);
295    
296     if (info->mem_mode == PHYSICAL_MEM) {
297         if (guest_pa_to_host_va(info, linear_addr, &host_addr) == -1) {
298             PrintError("Could not translate Stack address\n");
299             return;
300         }
301     } else if (info->mem_mode == VIRTUAL_MEM) {
302         if (guest_va_to_host_va(info, linear_addr, &host_addr) == -1) {
303             PrintError("Could not translate Virtual Stack address\n");
304             return;
305         }
306     }
307     
308     V3_Print("Host Address of rsp = 0x%p\n", (void *)host_addr);
309  
310     // We start i at one because the current stack pointer points to an unused stack element
311     for (i = 0; i <= 24; i++) {
312         if (cpu_mode == LONG) {
313             V3_Print("\t%p\n", (void *)*(addr_t *)(host_addr + (i * 8)));
314         } else if (cpu_mode == REAL) {
315             V3_Print("Don't currently handle 16 bit stacks... \n");
316         } else {
317             // 32 bit stacks...
318             V3_Print("\t%.8x\n", *(uint32_t *)(host_addr + (i * 4)));
319         }
320     }
321
322 }    
323
324 #ifdef __V3_32BIT__
325
326 void v3_print_GPRs(struct guest_info * info) {
327     struct v3_gprs * regs = &(info->vm_regs);
328     int i = 0;
329     v3_reg_t * reg_ptr;
330     char * reg_names[] = { "RDI", "RSI", "RBP", "RSP", "RBX", "RDX", "RCX", "RAX", NULL};
331
332     reg_ptr= (v3_reg_t *)regs;
333
334     V3_Print("32 bit GPRs:\n");
335
336     for (i = 0; reg_names[i] != NULL; i++) {
337         V3_Print("\t%s=0x%p\n", reg_names[i], (void *)(addr_t)reg_ptr[i]);  
338     }
339 }
340
341 #elif __V3_64BIT__
342
343 void v3_print_GPRs(struct guest_info * info) {
344     struct v3_gprs * regs = &(info->vm_regs);
345     int i = 0;
346     v3_reg_t * reg_ptr;
347     char * reg_names[] = { "RDI", "RSI", "RBP", "RSP", "RBX", "RDX", "RCX", "RAX", \
348                            "R8", "R9", "R10", "R11", "R12", "R13", "R14", "R15", NULL};
349
350     reg_ptr = (v3_reg_t *)regs;
351
352     V3_Print("64 bit GPRs:\n");
353
354     for (i = 0; reg_names[i] != NULL; i++) {
355         V3_Print("\t%s=0x%p\n", reg_names[i], (void *)(addr_t)reg_ptr[i]);  
356     }
357 }
358
359 #endif
360
361
362 #include <palacios/vmcs.h>
363 #include <palacios/vmcb.h>
364 static int info_hcall(struct guest_info * core, uint_t hcall_id, void * priv_data) {
365     v3_cpu_arch_t cpu_type = v3_get_cpu_type(v3_get_cpu_id());
366     
367     v3_print_guest_state(core);
368     
369
370     // init SVM/VMX
371 #ifdef CONFIG_SVM
372     if ((cpu_type == V3_SVM_CPU) || (cpu_type == V3_SVM_REV3_CPU)) {
373         PrintDebugVMCB((vmcb_t *)(core->vmm_data));
374     }
375 #endif
376 #ifdef CONFIG_VMX
377     else if ((cpu_type == V3_VMX_CPU) || (cpu_type == V3_VMX_EPT_CPU)) {
378         v3_print_vmcs();
379     }
380 #endif
381     else {
382         PrintError("Invalid CPU Type\n");
383         return -1;
384     }
385     
386
387     return 0;
388 }
389
390
391 #ifdef CONFIG_SVM
392 #include <palacios/svm.h>
393 #include <palacios/svm_io.h>
394 #include <palacios/svm_msr.h>
395 #endif
396
397 #ifdef CONFIG_VMX
398 #include <palacios/vmx.h>
399 #include <palacios/vmx_io.h>
400 #include <palacios/vmx_msr.h>
401 #endif
402
403
404 int v3_init_vm(struct v3_vm_info * vm) {
405     v3_cpu_arch_t cpu_type = v3_get_cpu_type(v3_get_cpu_id());
406
407 #ifdef CONFIG_TELEMETRY
408     v3_init_telemetry(vm);
409 #endif
410
411     v3_init_hypercall_map(vm);
412     v3_init_io_map(vm);
413     v3_init_msr_map(vm);
414     v3_init_cpuid_map(vm);
415     v3_init_host_events(vm);
416     v3_init_intr_routers(vm);
417
418     // Initialize the memory map
419     if (v3_init_mem_map(vm) == -1) {
420         PrintError("Could not initialize shadow map\n");
421         return -1;
422     }
423
424 #ifdef CONFIG_SYMBIOTIC
425     v3_init_sym_iface(vm);
426 #endif
427
428     v3_init_dev_mgr(vm);
429
430
431 #ifdef CONFIG_SYMBIOTIC_SWAP
432     PrintDebug("initializing symbiotic swap\n");
433     v3_init_sym_swap(vm);
434 #endif
435
436
437
438     // init SVM/VMX
439 #ifdef CONFIG_SVM
440     if ((cpu_type == V3_SVM_CPU) || (cpu_type == V3_SVM_REV3_CPU)) {
441         v3_init_svm_io_map(vm);
442         v3_init_svm_msr_map(vm);
443     }
444 #endif
445 #ifdef CONFIG_VMX
446     else if ((cpu_type == V3_VMX_CPU) || (cpu_type == V3_VMX_EPT_CPU)) {
447         v3_init_vmx_io_map(vm);
448         v3_init_vmx_msr_map(vm);
449     }
450 #endif
451     else {
452         PrintError("Invalid CPU Type\n");
453         return -1;
454     }
455     
456
457
458     v3_register_hypercall(vm, GUEST_INFO_HCALL, info_hcall, NULL);
459
460
461     V3_Print("GUEST_INFO_HCALL=%x\n", GUEST_INFO_HCALL);
462
463     return 0;
464 }
465
466 int v3_init_core(struct guest_info * core) {
467     v3_cpu_arch_t cpu_type = v3_get_cpu_type(v3_get_cpu_id());
468     struct v3_vm_info * vm = core->vm_info;
469
470     /*
471      * Initialize the subsystem data strutures
472      */
473 #ifdef CONFIG_TELEMETRY
474     v3_init_core_telemetry(core);
475 #endif
476
477     if (core->shdw_pg_mode == SHADOW_PAGING) {
478         v3_init_shadow_page_state(core);
479     }
480
481     v3_init_time(core);
482     v3_init_intr_controllers(core);
483     v3_init_exception_state(core);
484
485     v3_init_decoder(core);
486
487
488 #ifdef CONFIG_SYMBIOTIC
489     v3_init_sym_core(core);
490 #endif
491
492     // init SVM/VMX
493 #ifdef CONFIG_SVM
494     if ((cpu_type == V3_SVM_CPU) || (cpu_type == V3_SVM_REV3_CPU)) {
495         if (v3_init_svm_vmcb(core, vm->vm_class) == -1) {
496             PrintError("Error in SVM initialization\n");
497             return -1;
498         }
499     }
500 #endif
501 #ifdef CONFIG_VMX
502     else if ((cpu_type == V3_VMX_CPU) || (cpu_type == V3_VMX_EPT_CPU)) {
503         if (v3_init_vmx_vmcs(core, vm->vm_class) == -1) {
504             PrintError("Error in VMX initialization\n");
505             return -1;
506         }
507     }
508 #endif
509     else {
510         PrintError("Invalid CPU Type\n");
511         return -1;
512     }
513
514     return 0;
515 }