selinux: kill 'flags' argument in avc_has_perm_flags() and avc_audit()
[sfrench/cifs-2.6.git] / arch / x86 / kvm / vmx / vmcs12.h
1 /* SPDX-License-Identifier: GPL-2.0 */
2 #ifndef __KVM_X86_VMX_VMCS12_H
3 #define __KVM_X86_VMX_VMCS12_H
4
5 #include <linux/build_bug.h>
6
7 #include "vmcs.h"
8
9 /*
10  * struct vmcs12 describes the state that our guest hypervisor (L1) keeps for a
11  * single nested guest (L2), hence the name vmcs12. Any VMX implementation has
12  * a VMCS structure, and vmcs12 is our emulated VMX's VMCS. This structure is
13  * stored in guest memory specified by VMPTRLD, but is opaque to the guest,
14  * which must access it using VMREAD/VMWRITE/VMCLEAR instructions.
15  * More than one of these structures may exist, if L1 runs multiple L2 guests.
16  * nested_vmx_run() will use the data here to build the vmcs02: a VMCS for the
17  * underlying hardware which will be used to run L2.
18  * This structure is packed to ensure that its layout is identical across
19  * machines (necessary for live migration).
20  *
21  * IMPORTANT: Changing the layout of existing fields in this structure
22  * will break save/restore compatibility with older kvm releases. When
23  * adding new fields, either use space in the reserved padding* arrays
24  * or add the new fields to the end of the structure.
25  */
26 typedef u64 natural_width;
27 struct __packed vmcs12 {
28         /* According to the Intel spec, a VMCS region must start with the
29          * following two fields. Then follow implementation-specific data.
30          */
31         struct vmcs_hdr hdr;
32         u32 abort;
33
34         u32 launch_state; /* set to 0 by VMCLEAR, to 1 by VMLAUNCH */
35         u32 padding[7]; /* room for future expansion */
36
37         u64 io_bitmap_a;
38         u64 io_bitmap_b;
39         u64 msr_bitmap;
40         u64 vm_exit_msr_store_addr;
41         u64 vm_exit_msr_load_addr;
42         u64 vm_entry_msr_load_addr;
43         u64 tsc_offset;
44         u64 virtual_apic_page_addr;
45         u64 apic_access_addr;
46         u64 posted_intr_desc_addr;
47         u64 ept_pointer;
48         u64 eoi_exit_bitmap0;
49         u64 eoi_exit_bitmap1;
50         u64 eoi_exit_bitmap2;
51         u64 eoi_exit_bitmap3;
52         u64 xss_exit_bitmap;
53         u64 guest_physical_address;
54         u64 vmcs_link_pointer;
55         u64 guest_ia32_debugctl;
56         u64 guest_ia32_pat;
57         u64 guest_ia32_efer;
58         u64 guest_ia32_perf_global_ctrl;
59         u64 guest_pdptr0;
60         u64 guest_pdptr1;
61         u64 guest_pdptr2;
62         u64 guest_pdptr3;
63         u64 guest_bndcfgs;
64         u64 host_ia32_pat;
65         u64 host_ia32_efer;
66         u64 host_ia32_perf_global_ctrl;
67         u64 vmread_bitmap;
68         u64 vmwrite_bitmap;
69         u64 vm_function_control;
70         u64 eptp_list_address;
71         u64 pml_address;
72         u64 encls_exiting_bitmap;
73         u64 padding64[2]; /* room for future expansion */
74         /*
75          * To allow migration of L1 (complete with its L2 guests) between
76          * machines of different natural widths (32 or 64 bit), we cannot have
77          * unsigned long fields with no explicit size. We use u64 (aliased
78          * natural_width) instead. Luckily, x86 is little-endian.
79          */
80         natural_width cr0_guest_host_mask;
81         natural_width cr4_guest_host_mask;
82         natural_width cr0_read_shadow;
83         natural_width cr4_read_shadow;
84         natural_width dead_space[4]; /* Last remnants of cr3_target_value[0-3]. */
85         natural_width exit_qualification;
86         natural_width guest_linear_address;
87         natural_width guest_cr0;
88         natural_width guest_cr3;
89         natural_width guest_cr4;
90         natural_width guest_es_base;
91         natural_width guest_cs_base;
92         natural_width guest_ss_base;
93         natural_width guest_ds_base;
94         natural_width guest_fs_base;
95         natural_width guest_gs_base;
96         natural_width guest_ldtr_base;
97         natural_width guest_tr_base;
98         natural_width guest_gdtr_base;
99         natural_width guest_idtr_base;
100         natural_width guest_dr7;
101         natural_width guest_rsp;
102         natural_width guest_rip;
103         natural_width guest_rflags;
104         natural_width guest_pending_dbg_exceptions;
105         natural_width guest_sysenter_esp;
106         natural_width guest_sysenter_eip;
107         natural_width host_cr0;
108         natural_width host_cr3;
109         natural_width host_cr4;
110         natural_width host_fs_base;
111         natural_width host_gs_base;
112         natural_width host_tr_base;
113         natural_width host_gdtr_base;
114         natural_width host_idtr_base;
115         natural_width host_ia32_sysenter_esp;
116         natural_width host_ia32_sysenter_eip;
117         natural_width host_rsp;
118         natural_width host_rip;
119         natural_width paddingl[8]; /* room for future expansion */
120         u32 pin_based_vm_exec_control;
121         u32 cpu_based_vm_exec_control;
122         u32 exception_bitmap;
123         u32 page_fault_error_code_mask;
124         u32 page_fault_error_code_match;
125         u32 cr3_target_count;
126         u32 vm_exit_controls;
127         u32 vm_exit_msr_store_count;
128         u32 vm_exit_msr_load_count;
129         u32 vm_entry_controls;
130         u32 vm_entry_msr_load_count;
131         u32 vm_entry_intr_info_field;
132         u32 vm_entry_exception_error_code;
133         u32 vm_entry_instruction_len;
134         u32 tpr_threshold;
135         u32 secondary_vm_exec_control;
136         u32 vm_instruction_error;
137         u32 vm_exit_reason;
138         u32 vm_exit_intr_info;
139         u32 vm_exit_intr_error_code;
140         u32 idt_vectoring_info_field;
141         u32 idt_vectoring_error_code;
142         u32 vm_exit_instruction_len;
143         u32 vmx_instruction_info;
144         u32 guest_es_limit;
145         u32 guest_cs_limit;
146         u32 guest_ss_limit;
147         u32 guest_ds_limit;
148         u32 guest_fs_limit;
149         u32 guest_gs_limit;
150         u32 guest_ldtr_limit;
151         u32 guest_tr_limit;
152         u32 guest_gdtr_limit;
153         u32 guest_idtr_limit;
154         u32 guest_es_ar_bytes;
155         u32 guest_cs_ar_bytes;
156         u32 guest_ss_ar_bytes;
157         u32 guest_ds_ar_bytes;
158         u32 guest_fs_ar_bytes;
159         u32 guest_gs_ar_bytes;
160         u32 guest_ldtr_ar_bytes;
161         u32 guest_tr_ar_bytes;
162         u32 guest_interruptibility_info;
163         u32 guest_activity_state;
164         u32 guest_sysenter_cs;
165         u32 host_ia32_sysenter_cs;
166         u32 vmx_preemption_timer_value;
167         u32 padding32[7]; /* room for future expansion */
168         u16 virtual_processor_id;
169         u16 posted_intr_nv;
170         u16 guest_es_selector;
171         u16 guest_cs_selector;
172         u16 guest_ss_selector;
173         u16 guest_ds_selector;
174         u16 guest_fs_selector;
175         u16 guest_gs_selector;
176         u16 guest_ldtr_selector;
177         u16 guest_tr_selector;
178         u16 guest_intr_status;
179         u16 host_es_selector;
180         u16 host_cs_selector;
181         u16 host_ss_selector;
182         u16 host_ds_selector;
183         u16 host_fs_selector;
184         u16 host_gs_selector;
185         u16 host_tr_selector;
186         u16 guest_pml_index;
187 };
188
189 /*
190  * VMCS12_REVISION is an arbitrary id that should be changed if the content or
191  * layout of struct vmcs12 is changed. MSR_IA32_VMX_BASIC returns this id, and
192  * VMPTRLD verifies that the VMCS region that L1 is loading contains this id.
193  *
194  * IMPORTANT: Changing this value will break save/restore compatibility with
195  * older kvm releases.
196  */
197 #define VMCS12_REVISION 0x11e57ed0
198
199 /*
200  * VMCS12_SIZE is the number of bytes L1 should allocate for the VMXON region
201  * and any VMCS region. Although only sizeof(struct vmcs12) are used by the
202  * current implementation, 4K are reserved to avoid future complications and
203  * to preserve userspace ABI.
204  */
205 #define VMCS12_SIZE             KVM_STATE_NESTED_VMX_VMCS_SIZE
206
207 /*
208  * VMCS12_MAX_FIELD_INDEX is the highest index value used in any
209  * supported VMCS12 field encoding.
210  */
211 #define VMCS12_MAX_FIELD_INDEX 0x17
212
213 /*
214  * For save/restore compatibility, the vmcs12 field offsets must not change.
215  */
216 #define CHECK_OFFSET(field, loc)                                \
217         BUILD_BUG_ON_MSG(offsetof(struct vmcs12, field) != (loc),       \
218                 "Offset of " #field " in struct vmcs12 has changed.")
219
220 static inline void vmx_check_vmcs12_offsets(void)
221 {
222         CHECK_OFFSET(hdr, 0);
223         CHECK_OFFSET(abort, 4);
224         CHECK_OFFSET(launch_state, 8);
225         CHECK_OFFSET(io_bitmap_a, 40);
226         CHECK_OFFSET(io_bitmap_b, 48);
227         CHECK_OFFSET(msr_bitmap, 56);
228         CHECK_OFFSET(vm_exit_msr_store_addr, 64);
229         CHECK_OFFSET(vm_exit_msr_load_addr, 72);
230         CHECK_OFFSET(vm_entry_msr_load_addr, 80);
231         CHECK_OFFSET(tsc_offset, 88);
232         CHECK_OFFSET(virtual_apic_page_addr, 96);
233         CHECK_OFFSET(apic_access_addr, 104);
234         CHECK_OFFSET(posted_intr_desc_addr, 112);
235         CHECK_OFFSET(ept_pointer, 120);
236         CHECK_OFFSET(eoi_exit_bitmap0, 128);
237         CHECK_OFFSET(eoi_exit_bitmap1, 136);
238         CHECK_OFFSET(eoi_exit_bitmap2, 144);
239         CHECK_OFFSET(eoi_exit_bitmap3, 152);
240         CHECK_OFFSET(xss_exit_bitmap, 160);
241         CHECK_OFFSET(guest_physical_address, 168);
242         CHECK_OFFSET(vmcs_link_pointer, 176);
243         CHECK_OFFSET(guest_ia32_debugctl, 184);
244         CHECK_OFFSET(guest_ia32_pat, 192);
245         CHECK_OFFSET(guest_ia32_efer, 200);
246         CHECK_OFFSET(guest_ia32_perf_global_ctrl, 208);
247         CHECK_OFFSET(guest_pdptr0, 216);
248         CHECK_OFFSET(guest_pdptr1, 224);
249         CHECK_OFFSET(guest_pdptr2, 232);
250         CHECK_OFFSET(guest_pdptr3, 240);
251         CHECK_OFFSET(guest_bndcfgs, 248);
252         CHECK_OFFSET(host_ia32_pat, 256);
253         CHECK_OFFSET(host_ia32_efer, 264);
254         CHECK_OFFSET(host_ia32_perf_global_ctrl, 272);
255         CHECK_OFFSET(vmread_bitmap, 280);
256         CHECK_OFFSET(vmwrite_bitmap, 288);
257         CHECK_OFFSET(vm_function_control, 296);
258         CHECK_OFFSET(eptp_list_address, 304);
259         CHECK_OFFSET(pml_address, 312);
260         CHECK_OFFSET(encls_exiting_bitmap, 320);
261         CHECK_OFFSET(cr0_guest_host_mask, 344);
262         CHECK_OFFSET(cr4_guest_host_mask, 352);
263         CHECK_OFFSET(cr0_read_shadow, 360);
264         CHECK_OFFSET(cr4_read_shadow, 368);
265         CHECK_OFFSET(dead_space, 376);
266         CHECK_OFFSET(exit_qualification, 408);
267         CHECK_OFFSET(guest_linear_address, 416);
268         CHECK_OFFSET(guest_cr0, 424);
269         CHECK_OFFSET(guest_cr3, 432);
270         CHECK_OFFSET(guest_cr4, 440);
271         CHECK_OFFSET(guest_es_base, 448);
272         CHECK_OFFSET(guest_cs_base, 456);
273         CHECK_OFFSET(guest_ss_base, 464);
274         CHECK_OFFSET(guest_ds_base, 472);
275         CHECK_OFFSET(guest_fs_base, 480);
276         CHECK_OFFSET(guest_gs_base, 488);
277         CHECK_OFFSET(guest_ldtr_base, 496);
278         CHECK_OFFSET(guest_tr_base, 504);
279         CHECK_OFFSET(guest_gdtr_base, 512);
280         CHECK_OFFSET(guest_idtr_base, 520);
281         CHECK_OFFSET(guest_dr7, 528);
282         CHECK_OFFSET(guest_rsp, 536);
283         CHECK_OFFSET(guest_rip, 544);
284         CHECK_OFFSET(guest_rflags, 552);
285         CHECK_OFFSET(guest_pending_dbg_exceptions, 560);
286         CHECK_OFFSET(guest_sysenter_esp, 568);
287         CHECK_OFFSET(guest_sysenter_eip, 576);
288         CHECK_OFFSET(host_cr0, 584);
289         CHECK_OFFSET(host_cr3, 592);
290         CHECK_OFFSET(host_cr4, 600);
291         CHECK_OFFSET(host_fs_base, 608);
292         CHECK_OFFSET(host_gs_base, 616);
293         CHECK_OFFSET(host_tr_base, 624);
294         CHECK_OFFSET(host_gdtr_base, 632);
295         CHECK_OFFSET(host_idtr_base, 640);
296         CHECK_OFFSET(host_ia32_sysenter_esp, 648);
297         CHECK_OFFSET(host_ia32_sysenter_eip, 656);
298         CHECK_OFFSET(host_rsp, 664);
299         CHECK_OFFSET(host_rip, 672);
300         CHECK_OFFSET(pin_based_vm_exec_control, 744);
301         CHECK_OFFSET(cpu_based_vm_exec_control, 748);
302         CHECK_OFFSET(exception_bitmap, 752);
303         CHECK_OFFSET(page_fault_error_code_mask, 756);
304         CHECK_OFFSET(page_fault_error_code_match, 760);
305         CHECK_OFFSET(cr3_target_count, 764);
306         CHECK_OFFSET(vm_exit_controls, 768);
307         CHECK_OFFSET(vm_exit_msr_store_count, 772);
308         CHECK_OFFSET(vm_exit_msr_load_count, 776);
309         CHECK_OFFSET(vm_entry_controls, 780);
310         CHECK_OFFSET(vm_entry_msr_load_count, 784);
311         CHECK_OFFSET(vm_entry_intr_info_field, 788);
312         CHECK_OFFSET(vm_entry_exception_error_code, 792);
313         CHECK_OFFSET(vm_entry_instruction_len, 796);
314         CHECK_OFFSET(tpr_threshold, 800);
315         CHECK_OFFSET(secondary_vm_exec_control, 804);
316         CHECK_OFFSET(vm_instruction_error, 808);
317         CHECK_OFFSET(vm_exit_reason, 812);
318         CHECK_OFFSET(vm_exit_intr_info, 816);
319         CHECK_OFFSET(vm_exit_intr_error_code, 820);
320         CHECK_OFFSET(idt_vectoring_info_field, 824);
321         CHECK_OFFSET(idt_vectoring_error_code, 828);
322         CHECK_OFFSET(vm_exit_instruction_len, 832);
323         CHECK_OFFSET(vmx_instruction_info, 836);
324         CHECK_OFFSET(guest_es_limit, 840);
325         CHECK_OFFSET(guest_cs_limit, 844);
326         CHECK_OFFSET(guest_ss_limit, 848);
327         CHECK_OFFSET(guest_ds_limit, 852);
328         CHECK_OFFSET(guest_fs_limit, 856);
329         CHECK_OFFSET(guest_gs_limit, 860);
330         CHECK_OFFSET(guest_ldtr_limit, 864);
331         CHECK_OFFSET(guest_tr_limit, 868);
332         CHECK_OFFSET(guest_gdtr_limit, 872);
333         CHECK_OFFSET(guest_idtr_limit, 876);
334         CHECK_OFFSET(guest_es_ar_bytes, 880);
335         CHECK_OFFSET(guest_cs_ar_bytes, 884);
336         CHECK_OFFSET(guest_ss_ar_bytes, 888);
337         CHECK_OFFSET(guest_ds_ar_bytes, 892);
338         CHECK_OFFSET(guest_fs_ar_bytes, 896);
339         CHECK_OFFSET(guest_gs_ar_bytes, 900);
340         CHECK_OFFSET(guest_ldtr_ar_bytes, 904);
341         CHECK_OFFSET(guest_tr_ar_bytes, 908);
342         CHECK_OFFSET(guest_interruptibility_info, 912);
343         CHECK_OFFSET(guest_activity_state, 916);
344         CHECK_OFFSET(guest_sysenter_cs, 920);
345         CHECK_OFFSET(host_ia32_sysenter_cs, 924);
346         CHECK_OFFSET(vmx_preemption_timer_value, 928);
347         CHECK_OFFSET(virtual_processor_id, 960);
348         CHECK_OFFSET(posted_intr_nv, 962);
349         CHECK_OFFSET(guest_es_selector, 964);
350         CHECK_OFFSET(guest_cs_selector, 966);
351         CHECK_OFFSET(guest_ss_selector, 968);
352         CHECK_OFFSET(guest_ds_selector, 970);
353         CHECK_OFFSET(guest_fs_selector, 972);
354         CHECK_OFFSET(guest_gs_selector, 974);
355         CHECK_OFFSET(guest_ldtr_selector, 976);
356         CHECK_OFFSET(guest_tr_selector, 978);
357         CHECK_OFFSET(guest_intr_status, 980);
358         CHECK_OFFSET(host_es_selector, 982);
359         CHECK_OFFSET(host_cs_selector, 984);
360         CHECK_OFFSET(host_ss_selector, 986);
361         CHECK_OFFSET(host_ds_selector, 988);
362         CHECK_OFFSET(host_fs_selector, 990);
363         CHECK_OFFSET(host_gs_selector, 992);
364         CHECK_OFFSET(host_tr_selector, 994);
365         CHECK_OFFSET(guest_pml_index, 996);
366 }
367
368 extern const unsigned short vmcs_field_to_offset_table[];
369 extern const unsigned int nr_vmcs12_fields;
370
371 #define ROL16(val, n) ((u16)(((u16)(val) << (n)) | ((u16)(val) >> (16 - (n)))))
372
373 static inline short vmcs_field_to_offset(unsigned long field)
374 {
375         unsigned short offset;
376         unsigned int index;
377
378         if (field >> 15)
379                 return -ENOENT;
380
381         index = ROL16(field, 6);
382         if (index >= nr_vmcs12_fields)
383                 return -ENOENT;
384
385         index = array_index_nospec(index, nr_vmcs12_fields);
386         offset = vmcs_field_to_offset_table[index];
387         if (offset == 0)
388                 return -ENOENT;
389         return offset;
390 }
391
392 #undef ROL16
393
394 static inline u64 vmcs12_read_any(struct vmcs12 *vmcs12, unsigned long field,
395                                   u16 offset)
396 {
397         char *p = (char *)vmcs12 + offset;
398
399         switch (vmcs_field_width(field)) {
400         case VMCS_FIELD_WIDTH_NATURAL_WIDTH:
401                 return *((natural_width *)p);
402         case VMCS_FIELD_WIDTH_U16:
403                 return *((u16 *)p);
404         case VMCS_FIELD_WIDTH_U32:
405                 return *((u32 *)p);
406         case VMCS_FIELD_WIDTH_U64:
407                 return *((u64 *)p);
408         default:
409                 WARN_ON_ONCE(1);
410                 return -1;
411         }
412 }
413
414 static inline void vmcs12_write_any(struct vmcs12 *vmcs12, unsigned long field,
415                                     u16 offset, u64 field_value)
416 {
417         char *p = (char *)vmcs12 + offset;
418
419         switch (vmcs_field_width(field)) {
420         case VMCS_FIELD_WIDTH_U16:
421                 *(u16 *)p = field_value;
422                 break;
423         case VMCS_FIELD_WIDTH_U32:
424                 *(u32 *)p = field_value;
425                 break;
426         case VMCS_FIELD_WIDTH_U64:
427                 *(u64 *)p = field_value;
428                 break;
429         case VMCS_FIELD_WIDTH_NATURAL_WIDTH:
430                 *(natural_width *)p = field_value;
431                 break;
432         default:
433                 WARN_ON_ONCE(1);
434                 break;
435         }
436 }
437
438 #endif /* __KVM_X86_VMX_VMCS12_H */