Palacios Public Git Repository

To checkout Palacios execute

  git clone http://v3vee.org/palacios/palacios.web/palacios.git
This will give you the master branch. You probably want the devel branch or one of the release branches. To switch to the devel branch, simply execute
  cd palacios
  git checkout --track -b devel origin/devel
The other branches are similar.


2b9f470e0b8f6a72213fe04177fc28a7ed938259
[palacios.git] / palacios / src / palacios / vmm_direct_paging_64.h
1 /*
2  * This file is part of the Palacios Virtual Machine Monitor developed
3  * by the V3VEE Project with funding from the United States National
4  * Science Foundation and the Department of Energy.
5  *
6  * The V3VEE Project is a joint project between Northwestern University
7  * and the University of New Mexico.  You can find out more at
8  * http://www.v3vee.org
9  *
10  * Copyright (c) 2008, Steven Jaconette <stevenjaconette2007@u.northwestern.edu>
11  * Copyright (c) 2008, Jack Lange <jarusl@cs.northwestern.edu>
12  * Copyright (c) 2008, The V3VEE Project <http://www.v3vee.org>
13  * All rights reserved.
14  *
15  * Author: Steven Jaconette <stevenjaconette2007@u.northwestern.edu>
16  *
17  * This is free software.  You are permitted to use,
18  * redistribute, and modify it as specified in the file "V3VEE_LICENSE".
19  */
20
21 #ifndef __VMM_DIRECT_PAGING_64_H__
22 #define __VMM_DIRECT_PAGING_64_H__
23
24 #include <palacios/vmm_mem.h>
25 #include <palacios/vmm_paging.h>
26 #include <palacios/vmm.h>
27 #include <palacios/vm_guest_mem.h>
28 #include <palacios/vm_guest.h>
29
30 #define DEBUG_NESTED_PAGING 1
31
32 #ifndef DEBUG_NESTED_PAGING
33 #undef PrintDebug
34 #define PrintDebug(fmt, args...)
35 #endif
36
37
38 static inline int handle_passthrough_pagefault_64(struct guest_info * info, 
39                                                      addr_t fault_addr, 
40                                                      pf_error_t error_code) {
41     pml4e64_t * pml = NULL;
42     pdpe64_t * pdpe = NULL;
43     pde64_t * pde = NULL;
44     pte64_t * pte = NULL;
45     addr_t host_addr = 0;
46
47     int pml_index = PML4E64_INDEX(fault_addr);
48     int pdpe_index = PDPE64_INDEX(fault_addr);
49     int pde_index = PDE64_INDEX(fault_addr);
50     int pte_index = PTE64_INDEX(fault_addr);
51
52
53     
54
55     struct v3_shadow_region * region =  v3_get_shadow_region(info, fault_addr);
56   
57     if ((region == NULL) || 
58         (region->host_type == SHDW_REGION_INVALID)) {
59         PrintError("Invalid region in passthrough page fault 64, addr=%p\n", 
60                    (void *)fault_addr);
61         return -1;
62     }
63
64     host_addr = v3_get_shadow_addr(region, fault_addr);
65     //
66
67     // Lookup the correct PML address based on the PAGING MODE
68     if (info->shdw_pg_mode == SHADOW_PAGING) {
69         pml = CR3_TO_PML4E64_VA(info->ctrl_regs.cr3);
70     } else {
71         pml = CR3_TO_PML4E64_VA(info->direct_map_pt);
72     }
73
74     //Fix up the PML entry
75     if (pml[pml_index].present == 0) {
76         pdpe = (pdpe64_t *)create_generic_pt_page();
77    
78         // Set default PML Flags...
79         pml[pml_index].present = 1;
80         pml[pml_index].writable = 1;
81         pml[pml_index].user_page = 1;
82
83         pml[pml_index].pdp_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(pdpe));    
84     } else {
85         pdpe = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pml[pml_index].pdp_base_addr));
86     }
87
88     // Fix up the PDPE entry
89     if (pdpe[pdpe_index].present == 0) {
90         pde = (pde64_t *)create_generic_pt_page();
91         
92         // Set default PDPE Flags...
93         pdpe[pdpe_index].present = 1;
94         pdpe[pdpe_index].writable = 1;
95         pdpe[pdpe_index].user_page = 1;
96
97         pdpe[pdpe_index].pd_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(pde));    
98     } else {
99         pde = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pdpe[pdpe_index].pd_base_addr));
100     }
101
102
103     // Fix up the PDE entry
104     if (pde[pde_index].present == 0) {
105         pte = (pte64_t *)create_generic_pt_page();
106         
107         pde[pde_index].present = 1;
108         pde[pde_index].writable = 1;
109         pde[pde_index].user_page = 1;
110         
111         pde[pde_index].pt_base_addr = PAGE_BASE_ADDR((addr_t)V3_PAddr(pte));
112     } else {
113         pte = V3_VAddr((void*)BASE_TO_PAGE_ADDR(pde[pde_index].pt_base_addr));
114     }
115
116
117     // Fix up the PTE entry
118     if (pte[pte_index].present == 0) {
119         pte[pte_index].user_page = 1;
120         
121         if (region->host_type == SHDW_REGION_ALLOCATED) {
122             // Full access
123             pte[pte_index].present = 1;
124             pte[pte_index].writable = 1;
125
126             pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
127             
128         } else if (region->host_type == SHDW_REGION_WRITE_HOOK) {
129             // Only trap writes
130             pte[pte_index].present = 1; 
131             pte[pte_index].writable = 0;
132
133             pte[pte_index].page_base_addr = PAGE_BASE_ADDR(host_addr);
134
135         } else if (region->host_type == SHDW_REGION_FULL_HOOK) {
136             // trap all accesses
137             return v3_handle_mem_full_hook(info, fault_addr, fault_addr, region, error_code);
138
139         } else {
140             PrintError("Unknown Region Type...\n");
141             return -1;
142         }
143     }
144    
145     if ( (region->host_type == SHDW_REGION_WRITE_HOOK) && 
146          (error_code.write == 1) ) {
147         return v3_handle_mem_wr_hook(info, fault_addr, fault_addr, region, error_code);
148     }
149
150     return 0;
151 }
152
153
154 #endif