Merge branch 'work.afs' of git://git.kernel.org/pub/scm/linux/kernel/git/viro/vfs
[sfrench/cifs-2.6.git] / arch / arm64 / include / asm / stage2_pgtable.h
1 /*
2  * Copyright (C) 2016 - ARM Ltd
3  *
4  * stage2 page table helpers
5  *
6  * This program is free software; you can redistribute it and/or modify
7  * it under the terms of the GNU General Public License version 2 as
8  * published by the Free Software Foundation.
9  *
10  * This program is distributed in the hope that it will be useful,
11  * but WITHOUT ANY WARRANTY; without even the implied warranty of
12  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13  * GNU General Public License for more details.
14  *
15  * You should have received a copy of the GNU General Public License
16  * along with this program.  If not, see <http://www.gnu.org/licenses/>.
17  */
18
19 #ifndef __ARM64_S2_PGTABLE_H_
20 #define __ARM64_S2_PGTABLE_H_
21
22 #include <linux/hugetlb.h>
23 #include <asm/pgtable.h>
24
25 /*
26  * PGDIR_SHIFT determines the size a top-level page table entry can map
27  * and depends on the number of levels in the page table. Compute the
28  * PGDIR_SHIFT for a given number of levels.
29  */
30 #define pt_levels_pgdir_shift(lvls)     ARM64_HW_PGTABLE_LEVEL_SHIFT(4 - (lvls))
31
32 /*
33  * The hardware supports concatenation of up to 16 tables at stage2 entry level
34  * and we use the feature whenever possible.
35  *
36  * Now, the minimum number of bits resolved at any level is (PAGE_SHIFT - 3).
37  * On arm64, the smallest PAGE_SIZE supported is 4k, which means
38  *             (PAGE_SHIFT - 3) > 4 holds for all page sizes.
39  * This implies, the total number of page table levels at stage2 expected
40  * by the hardware is actually the number of levels required for (IPA_SHIFT - 4)
41  * in normal translations(e.g, stage1), since we cannot have another level in
42  * the range (IPA_SHIFT, IPA_SHIFT - 4).
43  */
44 #define stage2_pgtable_levels(ipa)      ARM64_HW_PGTABLE_LEVELS((ipa) - 4)
45 #define kvm_stage2_levels(kvm)          VTCR_EL2_LVLS(kvm->arch.vtcr)
46
47 /* stage2_pgdir_shift() is the size mapped by top-level stage2 entry for the VM */
48 #define stage2_pgdir_shift(kvm)         pt_levels_pgdir_shift(kvm_stage2_levels(kvm))
49 #define stage2_pgdir_size(kvm)          (1ULL << stage2_pgdir_shift(kvm))
50 #define stage2_pgdir_mask(kvm)          ~(stage2_pgdir_size(kvm) - 1)
51
52 /*
53  * The number of PTRS across all concatenated stage2 tables given by the
54  * number of bits resolved at the initial level.
55  * If we force more levels than necessary, we may have (stage2_pgdir_shift > IPA),
56  * in which case, stage2_pgd_ptrs will have one entry.
57  */
58 #define pgd_ptrs_shift(ipa, pgdir_shift)        \
59         ((ipa) > (pgdir_shift) ? ((ipa) - (pgdir_shift)) : 0)
60 #define __s2_pgd_ptrs(ipa, lvls)                \
61         (1 << (pgd_ptrs_shift((ipa), pt_levels_pgdir_shift(lvls))))
62 #define __s2_pgd_size(ipa, lvls)        (__s2_pgd_ptrs((ipa), (lvls)) * sizeof(pgd_t))
63
64 #define stage2_pgd_ptrs(kvm)            __s2_pgd_ptrs(kvm_phys_shift(kvm), kvm_stage2_levels(kvm))
65 #define stage2_pgd_size(kvm)            __s2_pgd_size(kvm_phys_shift(kvm), kvm_stage2_levels(kvm))
66
67 /*
68  * kvm_mmmu_cache_min_pages() is the number of pages required to install
69  * a stage-2 translation. We pre-allocate the entry level page table at
70  * the VM creation.
71  */
72 #define kvm_mmu_cache_min_pages(kvm)    (kvm_stage2_levels(kvm) - 1)
73
74 /* Stage2 PUD definitions when the level is present */
75 static inline bool kvm_stage2_has_pud(struct kvm *kvm)
76 {
77         return (CONFIG_PGTABLE_LEVELS > 3) && (kvm_stage2_levels(kvm) > 3);
78 }
79
80 #define S2_PUD_SHIFT                    ARM64_HW_PGTABLE_LEVEL_SHIFT(1)
81 #define S2_PUD_SIZE                     (1UL << S2_PUD_SHIFT)
82 #define S2_PUD_MASK                     (~(S2_PUD_SIZE - 1))
83
84 static inline bool stage2_pgd_none(struct kvm *kvm, pgd_t pgd)
85 {
86         if (kvm_stage2_has_pud(kvm))
87                 return pgd_none(pgd);
88         else
89                 return 0;
90 }
91
92 static inline void stage2_pgd_clear(struct kvm *kvm, pgd_t *pgdp)
93 {
94         if (kvm_stage2_has_pud(kvm))
95                 pgd_clear(pgdp);
96 }
97
98 static inline bool stage2_pgd_present(struct kvm *kvm, pgd_t pgd)
99 {
100         if (kvm_stage2_has_pud(kvm))
101                 return pgd_present(pgd);
102         else
103                 return 1;
104 }
105
106 static inline void stage2_pgd_populate(struct kvm *kvm, pgd_t *pgd, pud_t *pud)
107 {
108         if (kvm_stage2_has_pud(kvm))
109                 pgd_populate(NULL, pgd, pud);
110 }
111
112 static inline pud_t *stage2_pud_offset(struct kvm *kvm,
113                                        pgd_t *pgd, unsigned long address)
114 {
115         if (kvm_stage2_has_pud(kvm))
116                 return pud_offset(pgd, address);
117         else
118                 return (pud_t *)pgd;
119 }
120
121 static inline void stage2_pud_free(struct kvm *kvm, pud_t *pud)
122 {
123         if (kvm_stage2_has_pud(kvm))
124                 pud_free(NULL, pud);
125 }
126
127 static inline bool stage2_pud_table_empty(struct kvm *kvm, pud_t *pudp)
128 {
129         if (kvm_stage2_has_pud(kvm))
130                 return kvm_page_empty(pudp);
131         else
132                 return false;
133 }
134
135 static inline phys_addr_t
136 stage2_pud_addr_end(struct kvm *kvm, phys_addr_t addr, phys_addr_t end)
137 {
138         if (kvm_stage2_has_pud(kvm)) {
139                 phys_addr_t boundary = (addr + S2_PUD_SIZE) & S2_PUD_MASK;
140
141                 return (boundary - 1 < end - 1) ? boundary : end;
142         } else {
143                 return end;
144         }
145 }
146
147 /* Stage2 PMD definitions when the level is present */
148 static inline bool kvm_stage2_has_pmd(struct kvm *kvm)
149 {
150         return (CONFIG_PGTABLE_LEVELS > 2) && (kvm_stage2_levels(kvm) > 2);
151 }
152
153 #define S2_PMD_SHIFT                    ARM64_HW_PGTABLE_LEVEL_SHIFT(2)
154 #define S2_PMD_SIZE                     (1UL << S2_PMD_SHIFT)
155 #define S2_PMD_MASK                     (~(S2_PMD_SIZE - 1))
156
157 static inline bool stage2_pud_none(struct kvm *kvm, pud_t pud)
158 {
159         if (kvm_stage2_has_pmd(kvm))
160                 return pud_none(pud);
161         else
162                 return 0;
163 }
164
165 static inline void stage2_pud_clear(struct kvm *kvm, pud_t *pud)
166 {
167         if (kvm_stage2_has_pmd(kvm))
168                 pud_clear(pud);
169 }
170
171 static inline bool stage2_pud_present(struct kvm *kvm, pud_t pud)
172 {
173         if (kvm_stage2_has_pmd(kvm))
174                 return pud_present(pud);
175         else
176                 return 1;
177 }
178
179 static inline void stage2_pud_populate(struct kvm *kvm, pud_t *pud, pmd_t *pmd)
180 {
181         if (kvm_stage2_has_pmd(kvm))
182                 pud_populate(NULL, pud, pmd);
183 }
184
185 static inline pmd_t *stage2_pmd_offset(struct kvm *kvm,
186                                        pud_t *pud, unsigned long address)
187 {
188         if (kvm_stage2_has_pmd(kvm))
189                 return pmd_offset(pud, address);
190         else
191                 return (pmd_t *)pud;
192 }
193
194 static inline void stage2_pmd_free(struct kvm *kvm, pmd_t *pmd)
195 {
196         if (kvm_stage2_has_pmd(kvm))
197                 pmd_free(NULL, pmd);
198 }
199
200 static inline bool stage2_pud_huge(struct kvm *kvm, pud_t pud)
201 {
202         if (kvm_stage2_has_pmd(kvm))
203                 return pud_huge(pud);
204         else
205                 return 0;
206 }
207
208 static inline bool stage2_pmd_table_empty(struct kvm *kvm, pmd_t *pmdp)
209 {
210         if (kvm_stage2_has_pmd(kvm))
211                 return kvm_page_empty(pmdp);
212         else
213                 return 0;
214 }
215
216 static inline phys_addr_t
217 stage2_pmd_addr_end(struct kvm *kvm, phys_addr_t addr, phys_addr_t end)
218 {
219         if (kvm_stage2_has_pmd(kvm)) {
220                 phys_addr_t boundary = (addr + S2_PMD_SIZE) & S2_PMD_MASK;
221
222                 return (boundary - 1 < end - 1) ? boundary : end;
223         } else {
224                 return end;
225         }
226 }
227
228 static inline bool stage2_pte_table_empty(struct kvm *kvm, pte_t *ptep)
229 {
230         return kvm_page_empty(ptep);
231 }
232
233 static inline unsigned long stage2_pgd_index(struct kvm *kvm, phys_addr_t addr)
234 {
235         return (((addr) >> stage2_pgdir_shift(kvm)) & (stage2_pgd_ptrs(kvm) - 1));
236 }
237
238 static inline phys_addr_t
239 stage2_pgd_addr_end(struct kvm *kvm, phys_addr_t addr, phys_addr_t end)
240 {
241         phys_addr_t boundary = (addr + stage2_pgdir_size(kvm)) & stage2_pgdir_mask(kvm);
242
243         return (boundary - 1 < end - 1) ? boundary : end;
244 }
245
246 #endif  /* __ARM64_S2_PGTABLE_H_ */