Merge tag 'mailbox-v4.20' of git://git.linaro.org/landing-teams/working/fujitsu/integ...
[sfrench/cifs-2.6.git] / arch / powerpc / include / asm / asm-prototypes.h
1 #ifndef _ASM_POWERPC_ASM_PROTOTYPES_H
2 #define _ASM_POWERPC_ASM_PROTOTYPES_H
3 /*
4  * This file is for prototypes of C functions that are only called
5  * from asm, and any associated variables.
6  *
7  * Copyright 2016, Daniel Axtens, IBM Corporation.
8  *
9  * This program is free software; you can redistribute it and/or
10  * modify it under the terms of the GNU General Public License
11  * as published by the Free Software Foundation; either version 2
12  * of the License, or (at your option) any later version.
13  */
14
15 #include <linux/threads.h>
16 #include <asm/cacheflush.h>
17 #include <asm/checksum.h>
18 #include <linux/uaccess.h>
19 #include <asm/epapr_hcalls.h>
20 #include <asm/dcr.h>
21 #include <asm/mmu_context.h>
22
23 #include <uapi/asm/ucontext.h>
24
25 /* SMP */
26 extern struct thread_info *current_set[NR_CPUS];
27 extern struct thread_info *secondary_ti;
28 void start_secondary(void *unused);
29
30 /* kexec */
31 struct paca_struct;
32 struct kimage;
33 extern struct paca_struct kexec_paca;
34 void kexec_copy_flush(struct kimage *image);
35
36 /* pseries hcall tracing */
37 extern struct static_key hcall_tracepoint_key;
38 void __trace_hcall_entry(unsigned long opcode, unsigned long *args);
39 void __trace_hcall_exit(long opcode, long retval, unsigned long *retbuf);
40 /* OPAL tracing */
41 #ifdef HAVE_JUMP_LABEL
42 extern struct static_key opal_tracepoint_key;
43 #endif
44
45 void __trace_opal_entry(unsigned long opcode, unsigned long *args);
46 void __trace_opal_exit(long opcode, unsigned long retval);
47
48 /* VMX copying */
49 int enter_vmx_usercopy(void);
50 int exit_vmx_usercopy(void);
51 int enter_vmx_ops(void);
52 void *exit_vmx_ops(void *dest);
53
54 /* Traps */
55 long machine_check_early(struct pt_regs *regs);
56 long hmi_exception_realmode(struct pt_regs *regs);
57 void SMIException(struct pt_regs *regs);
58 void handle_hmi_exception(struct pt_regs *regs);
59 void instruction_breakpoint_exception(struct pt_regs *regs);
60 void RunModeException(struct pt_regs *regs);
61 void single_step_exception(struct pt_regs *regs);
62 void program_check_exception(struct pt_regs *regs);
63 void alignment_exception(struct pt_regs *regs);
64 void slb_miss_bad_addr(struct pt_regs *regs);
65 void StackOverflow(struct pt_regs *regs);
66 void kernel_fp_unavailable_exception(struct pt_regs *regs);
67 void altivec_unavailable_exception(struct pt_regs *regs);
68 void vsx_unavailable_exception(struct pt_regs *regs);
69 void fp_unavailable_tm(struct pt_regs *regs);
70 void altivec_unavailable_tm(struct pt_regs *regs);
71 void vsx_unavailable_tm(struct pt_regs *regs);
72 void facility_unavailable_exception(struct pt_regs *regs);
73 void TAUException(struct pt_regs *regs);
74 void altivec_assist_exception(struct pt_regs *regs);
75 void unrecoverable_exception(struct pt_regs *regs);
76 void kernel_bad_stack(struct pt_regs *regs);
77 void system_reset_exception(struct pt_regs *regs);
78 void machine_check_exception(struct pt_regs *regs);
79 void emulation_assist_interrupt(struct pt_regs *regs);
80 long do_slb_fault(struct pt_regs *regs, unsigned long ea);
81 void do_bad_slb_fault(struct pt_regs *regs, unsigned long ea, long err);
82
83 /* signals, syscalls and interrupts */
84 long sys_swapcontext(struct ucontext __user *old_ctx,
85                     struct ucontext __user *new_ctx,
86                     long ctx_size);
87 #ifdef CONFIG_PPC32
88 long sys_debug_setcontext(struct ucontext __user *ctx,
89                           int ndbg, struct sig_dbg_op __user *dbg);
90 int
91 ppc_select(int n, fd_set __user *inp, fd_set __user *outp, fd_set __user *exp, struct timeval __user *tvp);
92 unsigned long __init early_init(unsigned long dt_ptr);
93 void __init machine_init(u64 dt_ptr);
94 #endif
95
96 long ppc_fadvise64_64(int fd, int advice, u32 offset_high, u32 offset_low,
97                       u32 len_high, u32 len_low);
98 long sys_switch_endian(void);
99 notrace unsigned int __check_irq_replay(void);
100 void notrace restore_interrupts(void);
101
102 /* ptrace */
103 long do_syscall_trace_enter(struct pt_regs *regs);
104 void do_syscall_trace_leave(struct pt_regs *regs);
105
106 /* process */
107 void restore_math(struct pt_regs *regs);
108 void restore_tm_state(struct pt_regs *regs);
109
110 /* prom_init (OpenFirmware) */
111 unsigned long __init prom_init(unsigned long r3, unsigned long r4,
112                                unsigned long pp,
113                                unsigned long r6, unsigned long r7,
114                                unsigned long kbase);
115
116 /* setup */
117 void __init early_setup(unsigned long dt_ptr);
118 void early_setup_secondary(void);
119
120 /* time */
121 void accumulate_stolen_time(void);
122
123 /* misc runtime */
124 extern u64 __bswapdi2(u64);
125 extern s64 __lshrdi3(s64, int);
126 extern s64 __ashldi3(s64, int);
127 extern s64 __ashrdi3(s64, int);
128 extern int __cmpdi2(s64, s64);
129 extern int __ucmpdi2(u64, u64);
130
131 /* tracing */
132 void _mcount(void);
133 unsigned long prepare_ftrace_return(unsigned long parent, unsigned long ip);
134
135 void pnv_power9_force_smt4_catch(void);
136 void pnv_power9_force_smt4_release(void);
137
138 /* Transaction memory related */
139 void tm_enable(void);
140 void tm_disable(void);
141 void tm_abort(uint8_t cause);
142
143 struct kvm_vcpu;
144 void _kvmppc_restore_tm_pr(struct kvm_vcpu *vcpu, u64 guest_msr);
145 void _kvmppc_save_tm_pr(struct kvm_vcpu *vcpu, u64 guest_msr);
146
147 /* Patch sites */
148 extern s32 patch__call_flush_count_cache;
149 extern s32 patch__flush_count_cache_return;
150 extern s32 patch__memset_nocache, patch__memcpy_nocache;
151
152 extern long flush_count_cache;
153
154 #ifdef CONFIG_PPC_TRANSACTIONAL_MEM
155 void kvmppc_save_tm_hv(struct kvm_vcpu *vcpu, u64 msr, bool preserve_nv);
156 void kvmppc_restore_tm_hv(struct kvm_vcpu *vcpu, u64 msr, bool preserve_nv);
157 #else
158 static inline void kvmppc_save_tm_hv(struct kvm_vcpu *vcpu, u64 msr,
159                                      bool preserve_nv) { }
160 static inline void kvmppc_restore_tm_hv(struct kvm_vcpu *vcpu, u64 msr,
161                                         bool preserve_nv) { }
162 #endif /* CONFIG_PPC_TRANSACTIONAL_MEM */
163
164 void kvmhv_save_host_pmu(void);
165 void kvmhv_load_host_pmu(void);
166 void kvmhv_save_guest_pmu(struct kvm_vcpu *vcpu, bool pmu_in_use);
167 void kvmhv_load_guest_pmu(struct kvm_vcpu *vcpu);
168
169 int __kvmhv_vcpu_entry_p9(struct kvm_vcpu *vcpu);
170
171 long kvmppc_h_set_dabr(struct kvm_vcpu *vcpu, unsigned long dabr);
172 long kvmppc_h_set_xdabr(struct kvm_vcpu *vcpu, unsigned long dabr,
173                         unsigned long dabrx);
174
175 #endif /* _ASM_POWERPC_ASM_PROTOTYPES_H */