Merge branch 'drm-fixes-5.2' of git://people.freedesktop.org/~agd5f/linux into drm...
[sfrench/cifs-2.6.git] / arch / arm64 / kernel / hibernate-asm.S
1 /*
2  * Hibernate low-level support
3  *
4  * Copyright (C) 2016 ARM Ltd.
5  * Author:      James Morse <james.morse@arm.com>
6  *
7  * This program is free software; you can redistribute it and/or modify
8  * it under the terms of the GNU General Public License version 2 as
9  * published by the Free Software Foundation.
10  *
11  * This program is distributed in the hope that it will be useful,
12  * but WITHOUT ANY WARRANTY; without even the implied warranty of
13  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
14  * GNU General Public License for more details.
15  *
16  * You should have received a copy of the GNU General Public License
17  * along with this program.  If not, see <http://www.gnu.org/licenses/>.
18  */
19 #include <linux/linkage.h>
20 #include <linux/errno.h>
21
22 #include <asm/asm-offsets.h>
23 #include <asm/assembler.h>
24 #include <asm/cputype.h>
25 #include <asm/memory.h>
26 #include <asm/page.h>
27 #include <asm/virt.h>
28
29 /*
30  * To prevent the possibility of old and new partial table walks being visible
31  * in the tlb, switch the ttbr to a zero page when we invalidate the old
32  * records. D4.7.1 'General TLB maintenance requirements' in ARM DDI 0487A.i
33  * Even switching to our copied tables will cause a changed output address at
34  * each stage of the walk.
35  */
36 .macro break_before_make_ttbr_switch zero_page, page_table, tmp
37         phys_to_ttbr \tmp, \zero_page
38         msr     ttbr1_el1, \tmp
39         isb
40         tlbi    vmalle1
41         dsb     nsh
42         phys_to_ttbr \tmp, \page_table
43         offset_ttbr1 \tmp
44         msr     ttbr1_el1, \tmp
45         isb
46 .endm
47
48
49 /*
50  * Resume from hibernate
51  *
52  * Loads temporary page tables then restores the memory image.
53  * Finally branches to cpu_resume() to restore the state saved by
54  * swsusp_arch_suspend().
55  *
56  * Because this code has to be copied to a 'safe' page, it can't call out to
57  * other functions by PC-relative address. Also remember that it may be
58  * mid-way through over-writing other functions. For this reason it contains
59  * code from flush_icache_range() and uses the copy_page() macro.
60  *
61  * This 'safe' page is mapped via ttbr0, and executed from there. This function
62  * switches to a copy of the linear map in ttbr1, performs the restore, then
63  * switches ttbr1 to the original kernel's swapper_pg_dir.
64  *
65  * All of memory gets written to, including code. We need to clean the kernel
66  * text to the Point of Coherence (PoC) before secondary cores can be booted.
67  * Because the kernel modules and executable pages mapped to user space are
68  * also written as data, we clean all pages we touch to the Point of
69  * Unification (PoU).
70  *
71  * x0: physical address of temporary page tables
72  * x1: physical address of swapper page tables
73  * x2: address of cpu_resume
74  * x3: linear map address of restore_pblist in the current kernel
75  * x4: physical address of __hyp_stub_vectors, or 0
76  * x5: physical address of a  zero page that remains zero after resume
77  */
78 .pushsection    ".hibernate_exit.text", "ax"
79 ENTRY(swsusp_arch_suspend_exit)
80         /*
81          * We execute from ttbr0, change ttbr1 to our copied linear map tables
82          * with a break-before-make via the zero page
83          */
84         break_before_make_ttbr_switch   x5, x0, x6
85
86         mov     x21, x1
87         mov     x30, x2
88         mov     x24, x4
89         mov     x25, x5
90
91         /* walk the restore_pblist and use copy_page() to over-write memory */
92         mov     x19, x3
93
94 1:      ldr     x10, [x19, #HIBERN_PBE_ORIG]
95         mov     x0, x10
96         ldr     x1, [x19, #HIBERN_PBE_ADDR]
97
98         copy_page       x0, x1, x2, x3, x4, x5, x6, x7, x8, x9
99
100         add     x1, x10, #PAGE_SIZE
101         /* Clean the copied page to PoU - based on flush_icache_range() */
102         raw_dcache_line_size x2, x3
103         sub     x3, x2, #1
104         bic     x4, x10, x3
105 2:      dc      cvau, x4        /* clean D line / unified line */
106         add     x4, x4, x2
107         cmp     x4, x1
108         b.lo    2b
109
110         ldr     x19, [x19, #HIBERN_PBE_NEXT]
111         cbnz    x19, 1b
112         dsb     ish             /* wait for PoU cleaning to finish */
113
114         /* switch to the restored kernels page tables */
115         break_before_make_ttbr_switch   x25, x21, x6
116
117         ic      ialluis
118         dsb     ish
119         isb
120
121         cbz     x24, 3f         /* Do we need to re-initialise EL2? */
122         hvc     #0
123 3:      ret
124
125         .ltorg
126 ENDPROC(swsusp_arch_suspend_exit)
127
128 /*
129  * Restore the hyp stub.
130  * This must be done before the hibernate page is unmapped by _cpu_resume(),
131  * but happens before any of the hyp-stub's code is cleaned to PoC.
132  *
133  * x24: The physical address of __hyp_stub_vectors
134  */
135 el1_sync:
136         msr     vbar_el2, x24
137         eret
138 ENDPROC(el1_sync)
139
140 .macro invalid_vector   label
141 \label:
142         b \label
143 ENDPROC(\label)
144 .endm
145
146         invalid_vector  el2_sync_invalid
147         invalid_vector  el2_irq_invalid
148         invalid_vector  el2_fiq_invalid
149         invalid_vector  el2_error_invalid
150         invalid_vector  el1_sync_invalid
151         invalid_vector  el1_irq_invalid
152         invalid_vector  el1_fiq_invalid
153         invalid_vector  el1_error_invalid
154
155 /* el2 vectors - switch el2 here while we restore the memory image. */
156         .align 11
157 ENTRY(hibernate_el2_vectors)
158         ventry  el2_sync_invalid                // Synchronous EL2t
159         ventry  el2_irq_invalid                 // IRQ EL2t
160         ventry  el2_fiq_invalid                 // FIQ EL2t
161         ventry  el2_error_invalid               // Error EL2t
162
163         ventry  el2_sync_invalid                // Synchronous EL2h
164         ventry  el2_irq_invalid                 // IRQ EL2h
165         ventry  el2_fiq_invalid                 // FIQ EL2h
166         ventry  el2_error_invalid               // Error EL2h
167
168         ventry  el1_sync                        // Synchronous 64-bit EL1
169         ventry  el1_irq_invalid                 // IRQ 64-bit EL1
170         ventry  el1_fiq_invalid                 // FIQ 64-bit EL1
171         ventry  el1_error_invalid               // Error 64-bit EL1
172
173         ventry  el1_sync_invalid                // Synchronous 32-bit EL1
174         ventry  el1_irq_invalid                 // IRQ 32-bit EL1
175         ventry  el1_fiq_invalid                 // FIQ 32-bit EL1
176         ventry  el1_error_invalid               // Error 32-bit EL1
177 END(hibernate_el2_vectors)
178
179 .popsection