Merge branch 'x86-cleanups-for-linus' of git://git.kernel.org/pub/scm/linux/kernel...
authorLinus Torvalds <torvalds@linux-foundation.org>
Thu, 27 Dec 2018 01:03:51 +0000 (17:03 -0800)
committerLinus Torvalds <torvalds@linux-foundation.org>
Thu, 27 Dec 2018 01:03:51 +0000 (17:03 -0800)
Pull x86 cleanups from Ingo Molnar:
 "Misc cleanups"

* 'x86-cleanups-for-linus' of git://git.kernel.org/pub/scm/linux/kernel/git/tip/tip:
  x86/kprobes: Remove trampoline_handler() prototype
  x86/kernel: Fix more -Wmissing-prototypes warnings
  x86: Fix various typos in comments
  x86/headers: Fix -Wmissing-prototypes warning
  x86/process: Avoid unnecessary NULL check in get_wchan()
  x86/traps: Complete prototype declarations
  x86/mce: Fix -Wmissing-prototypes warnings
  x86/gart: Rewrite early_gart_iommu_check() comment

69 files changed:
arch/x86/crypto/cast5_avx_glue.c
arch/x86/crypto/cast6_avx_glue.c
arch/x86/entry/common.c
arch/x86/entry/vdso/vma.c
arch/x86/events/intel/bts.c
arch/x86/events/intel/core.c
arch/x86/events/intel/ds.c
arch/x86/events/intel/p4.c
arch/x86/include/asm/alternative.h
arch/x86/include/asm/cmpxchg.h
arch/x86/include/asm/crash.h
arch/x86/include/asm/efi.h
arch/x86/include/asm/irq.h
arch/x86/include/asm/irq_work.h
arch/x86/include/asm/kvm_para.h
arch/x86/include/asm/paravirt.h
arch/x86/include/asm/reboot.h
arch/x86/include/asm/setup.h
arch/x86/include/asm/sighandling.h
arch/x86/include/asm/smp.h
arch/x86/include/asm/trace/exceptions.h
arch/x86/include/asm/trace/irq_vectors.h
arch/x86/include/asm/traps.h
arch/x86/include/asm/tsc.h
arch/x86/kernel/acpi/boot.c
arch/x86/kernel/aperture_64.c
arch/x86/kernel/apic/apic.c
arch/x86/kernel/apic/apic_flat_64.c
arch/x86/kernel/apic/vector.c
arch/x86/kernel/apic/x2apic_uv_x.c
arch/x86/kernel/asm-offsets.c
arch/x86/kernel/check.c
arch/x86/kernel/cpu/amd.c
arch/x86/kernel/cpu/aperfmperf.c
arch/x86/kernel/cpu/bugs.c
arch/x86/kernel/cpu/cacheinfo.c
arch/x86/kernel/cpu/mce/amd.c
arch/x86/kernel/cpu/mce/core.c
arch/x86/kernel/cpu/mce/therm_throt.c
arch/x86/kernel/cpu/mce/threshold.c
arch/x86/kernel/cpu/scattered.c
arch/x86/kernel/cpu/topology.c
arch/x86/kernel/crash.c
arch/x86/kernel/crash_dump_64.c
arch/x86/kernel/devicetree.c
arch/x86/kernel/fpu/xstate.c
arch/x86/kernel/jailhouse.c
arch/x86/kernel/kprobes/core.c
arch/x86/kernel/process.c
arch/x86/kernel/process_64.c
arch/x86/kernel/quirks.c
arch/x86/kernel/sysfb_efi.c
arch/x86/kernel/tracepoint.c
arch/x86/kvm/vmx/vmx.c
arch/x86/mm/pageattr.c
arch/x86/platform/ce4100/ce4100.c
arch/x86/platform/intel-mid/device_libs/platform_bcm43xx.c
arch/x86/platform/intel-mid/device_libs/platform_mrfld_spidev.c
arch/x86/platform/intel-mid/device_libs/platform_pcal9555a.c
arch/x86/platform/intel/iosf_mbi.c
arch/x86/platform/olpc/olpc-xo1-sci.c
arch/x86/platform/uv/uv_nmi.c
arch/x86/xen/setup.c
include/acpi/cppc_acpi.h
include/linux/ftrace.h
include/linux/kexec.h
include/linux/kprobes.h
include/linux/of_fdt.h
include/linux/ptrace.h

index 41034745d6a2af2e9938c00dd103fdf5db71320a..d1ce49119da87d68fb91c88c1d83b0abe794447e 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Glue Code for the AVX assembler implemention of the Cast5 Cipher
+ * Glue Code for the AVX assembler implementation of the Cast5 Cipher
  *
  * Copyright (C) 2012 Johannes Goetzfried
  *     <Johannes.Goetzfried@informatik.stud.uni-erlangen.de>
index 9fb66b5e94b23ec9958e669b5a749b98060742a8..18965c39305e99202788ef5455a318038f04a633 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * Glue Code for the AVX assembler implemention of the Cast6 Cipher
+ * Glue Code for the AVX assembler implementation of the Cast6 Cipher
  *
  * Copyright (C) 2012 Johannes Goetzfried
  *     <Johannes.Goetzfried@informatik.stud.uni-erlangen.de>
index 3b2490b81918128a61f6df1807788436d4f8ceb7..7bc105f47d21aa7fba9d9cd56b08532a345db74b 100644 (file)
@@ -140,7 +140,7 @@ static void exit_to_usermode_loop(struct pt_regs *regs, u32 cached_flags)
        /*
         * In order to return to user mode, we need to have IRQs off with
         * none of EXIT_TO_USERMODE_LOOP_FLAGS set.  Several of these flags
-        * can be set at any time on preemptable kernels if we have IRQs on,
+        * can be set at any time on preemptible kernels if we have IRQs on,
         * so we need to loop.  Disabling preemption wouldn't help: doing the
         * work to clear some of the flags can sleep.
         */
index 7eb878561910f168b82a84bb4c52efdd5a901595..babc4e7a519c62a6184de3af38ee8edd4b71c18f 100644 (file)
@@ -261,7 +261,7 @@ int map_vdso_once(const struct vdso_image *image, unsigned long addr)
         * abusing from userspace install_speciall_mapping, which may
         * not do accounting and rlimit right.
         * We could search vma near context.vdso, but it's a slowpath,
-        * so let's explicitely check all VMAs to be completely sure.
+        * so let's explicitly check all VMAs to be completely sure.
         */
        for (vma = mm->mmap; vma; vma = vma->vm_next) {
                if (vma_is_special_mapping(vma, &vdso_mapping) ||
index 24ffa1e88cf948ecbe9839f6d956c69a12ecd4f0..a01ef1b0f8833fd08285ef18f7307fada4d3c059 100644 (file)
@@ -589,7 +589,7 @@ static __init int bts_init(void)
                 * the AUX buffer.
                 *
                 * However, since this driver supports per-CPU and per-task inherit
-                * we cannot use the user mapping since it will not be availble
+                * we cannot use the user mapping since it will not be available
                 * if we're not running the owning process.
                 *
                 * With PTI we can't use the kernal map either, because its not
index ecc3e34ca955f720579aef805afe26f2b49a9e57..40e12cfc87f62eb5b68490053c0861ac05af18e6 100644 (file)
@@ -1930,7 +1930,7 @@ static void intel_pmu_enable_all(int added)
  *   in sequence on the same PMC or on different PMCs.
  *
  * In practise it appears some of these events do in fact count, and
- * we need to programm all 4 events.
+ * we need to program all 4 events.
  */
 static void intel_pmu_nhm_workaround(void)
 {
index b7b01d762d32a3a6a30f4e2bd640aeae23dd7a3f..e9acf1d2e7b28874a3708c21ea59f75591650312 100644 (file)
@@ -1199,7 +1199,7 @@ static void setup_pebs_sample_data(struct perf_event *event,
        /*
         * We must however always use iregs for the unwinder to stay sane; the
         * record BP,SP,IP can point into thin air when the record is from a
-        * previous PMI context or an (I)RET happend between the record and
+        * previous PMI context or an (I)RET happened between the record and
         * PMI.
         */
        if (sample_type & PERF_SAMPLE_CALLCHAIN)
index d32c0eed38ca92665d378fa2d0792eed12aad818..dee579efb2b23048b0c43e475564e179e20c2181 100644 (file)
@@ -1259,7 +1259,7 @@ again:
                }
                /*
                 * Perf does test runs to see if a whole group can be assigned
-                * together succesfully.  There can be multiple rounds of this.
+                * together successfully.  There can be multiple rounds of this.
                 * Unfortunately, p4_pmu_swap_config_ts touches the hwc->config
                 * bits, such that the next round of group assignments will
                 * cause the above p4_should_swap_ts to pass instead of fail.
index 4cd6a3b71824293ae3edb664bc5ed6e48ca5a459..0660e14690c8bcd61306a4ffc9f5df99dc5d6a61 100644 (file)
@@ -174,7 +174,7 @@ static inline int alternatives_text_reserved(void *start, void *end)
 /*
  * Alternative inline assembly with input.
  *
- * Pecularities:
+ * Peculiarities:
  * No memory clobber here.
  * Argument numbers start with 1.
  * Best is to use constraints that are fixed size (like (%1) ... "r")
index bfb85e5844ab8348a2b9332870ce3b5dcd67cbe5..a8bfac13125650e5bd725f3506dc39504ae73d61 100644 (file)
@@ -7,7 +7,7 @@
 #include <asm/alternative.h> /* Provides LOCK_PREFIX */
 
 /*
- * Non-existant functions to indicate usage errors at link time
+ * Non-existent functions to indicate usage errors at link time
  * (or compile-time if the compiler implements __compiletime_error().
  */
 extern void __xchg_wrong_size(void)
index a7adb2bfbf0b819b6c4c6c8d8ff97e2d28519a17..0acf5ee45a21a3c8c4e6cf18334cfc22fc2bbc2a 100644 (file)
@@ -6,5 +6,6 @@ int crash_load_segments(struct kimage *image);
 int crash_copy_backup_region(struct kimage *image);
 int crash_setup_memmap_entries(struct kimage *image,
                struct boot_params *params);
+void crash_smp_send_stop(void);
 
 #endif /* _ASM_X86_CRASH_H */
index d1e64ac80b9ce9eb7ff0c8014cc1e8b5db56735b..42982a6cc6cf966edb03d264a0fc235712ce5051 100644 (file)
@@ -19,7 +19,7 @@
  * This is the main reason why we're doing stable VA mappings for RT
  * services.
  *
- * This flag is used in conjuction with a chicken bit called
+ * This flag is used in conjunction with a chicken bit called
  * "efi=old_map" which can be used as a fallback to the old runtime
  * services mapping method in case there's some b0rkage with a
  * particular EFI implementation (haha, it is hard to hold up the
index 2395bb794c7bb89211abb69a3f6deab2abf4d132..fbb16e6b6c18b14de64bce525ab02e236b373eef 100644 (file)
@@ -30,6 +30,9 @@ extern void fixup_irqs(void);
 
 #ifdef CONFIG_HAVE_KVM
 extern void kvm_set_posted_intr_wakeup_handler(void (*handler)(void));
+extern __visible void smp_kvm_posted_intr_ipi(struct pt_regs *regs);
+extern __visible void smp_kvm_posted_intr_wakeup_ipi(struct pt_regs *regs);
+extern __visible void smp_kvm_posted_intr_nested_ipi(struct pt_regs *regs);
 #endif
 
 extern void (*x86_platform_ipi_callback)(void);
@@ -41,9 +44,13 @@ extern __visible unsigned int do_IRQ(struct pt_regs *regs);
 
 extern void init_ISA_irqs(void);
 
+extern void __init init_IRQ(void);
+
 #ifdef CONFIG_X86_LOCAL_APIC
 void arch_trigger_cpumask_backtrace(const struct cpumask *mask,
                                    bool exclude_self);
+
+extern __visible void smp_x86_platform_ipi(struct pt_regs *regs);
 #define arch_trigger_cpumask_backtrace arch_trigger_cpumask_backtrace
 #endif
 
index 800ffce0db29e3d768f215aaf2e2f1dd31bf021f..80b35e3adf039cedde3c8efd56c6dc6dda999e4a 100644 (file)
@@ -10,6 +10,7 @@ static inline bool arch_irq_work_has_interrupt(void)
        return boot_cpu_has(X86_FEATURE_APIC);
 }
 extern void arch_irq_work_raise(void);
+extern __visible void smp_irq_work_interrupt(struct pt_regs *regs);
 #else
 static inline bool arch_irq_work_has_interrupt(void)
 {
index 4c723632c036e4c53f320e5caf39dbf472a41486..5ed3cf1c393427c43584851eccc6ff25fb5f9f5e 100644 (file)
@@ -92,6 +92,7 @@ void kvm_async_pf_task_wait(u32 token, int interrupt_kernel);
 void kvm_async_pf_task_wake(u32 token);
 u32 kvm_read_and_reset_pf_reason(void);
 extern void kvm_disable_steal_time(void);
+void do_async_page_fault(struct pt_regs *regs, unsigned long error_code);
 
 #ifdef CONFIG_PARAVIRT_SPINLOCKS
 void __init kvm_spinlock_init(void);
index 4bf42f9e4eea098101d2609d313f9d2d9c4a140f..a97f28d914d564abc99228d99ca0e4d637b143fb 100644 (file)
@@ -26,6 +26,11 @@ struct static_key;
 extern struct static_key paravirt_steal_enabled;
 extern struct static_key paravirt_steal_rq_enabled;
 
+__visible void __native_queued_spin_unlock(struct qspinlock *lock);
+bool pv_is_native_spin_unlock(void);
+__visible bool __native_vcpu_is_preempted(long cpu);
+bool pv_is_native_vcpu_is_preempted(void);
+
 static inline u64 paravirt_steal_clock(int cpu)
 {
        return PVOP_CALL1(u64, time.steal_clock, cpu);
index a671a1145906db8b0d18e24d608c53afc395a1ef..04c17be9b5fdab86845999cc594634558fec18e3 100644 (file)
@@ -26,6 +26,7 @@ void __noreturn machine_real_restart(unsigned int type);
 #define MRR_APM                1
 
 typedef void (*nmi_shootdown_cb)(int, struct pt_regs*);
+void nmi_panic_self_stop(struct pt_regs *regs);
 void nmi_shootdown_cpus(nmi_shootdown_cb callback);
 void run_crash_ipi_callback(struct pt_regs *regs);
 
index ae13bc974416fd8483f822684165de310933f407..ed8ec011a9fdc6d3af834b67ed63d5a30d8f0adb 100644 (file)
@@ -46,6 +46,9 @@ extern unsigned long saved_video_mode;
 
 extern void reserve_standard_io_resources(void);
 extern void i386_reserve_resources(void);
+extern unsigned long __startup_64(unsigned long physaddr, struct boot_params *bp);
+extern unsigned long __startup_secondary_64(void);
+extern int early_make_pgtable(unsigned long address);
 
 #ifdef CONFIG_X86_INTEL_MID
 extern void x86_intel_mid_early_setup(void);
index bd26834724e52918b754053ef9ad231a1f19fd68..2fcbd6f33ef74b22b9a3245261a17f13ca6b8855 100644 (file)
@@ -17,4 +17,9 @@ void signal_fault(struct pt_regs *regs, void __user *frame, char *where);
 int setup_sigcontext(struct sigcontext __user *sc, void __user *fpstate,
                     struct pt_regs *regs, unsigned long mask);
 
+
+#ifdef CONFIG_X86_X32_ABI
+asmlinkage long sys32_x32_rt_sigreturn(void);
+#endif
+
 #endif /* _ASM_X86_SIGHANDLING_H */
index 547c4fe50711fded022dad93f05185142f21ac4f..2e95b6c1bca3f517555e99c81b262d386bae5530 100644 (file)
@@ -148,6 +148,12 @@ void x86_idle_thread_init(unsigned int cpu, struct task_struct *idle);
 
 void smp_store_boot_cpu_info(void);
 void smp_store_cpu_info(int id);
+
+asmlinkage __visible void smp_reboot_interrupt(void);
+__visible void smp_reschedule_interrupt(struct pt_regs *regs);
+__visible void smp_call_function_interrupt(struct pt_regs *regs);
+__visible void smp_call_function_single_interrupt(struct pt_regs *r);
+
 #define cpu_physical_id(cpu)   per_cpu(x86_cpu_to_apicid, cpu)
 #define cpu_acpi_id(cpu)       per_cpu(x86_cpu_to_acpiid, cpu)
 
index 69615e387973ea3c6cc2c60b3d7ded6533751000..e0e6d7f213990f7c2dc53c33accc4d448fab13a6 100644 (file)
@@ -45,6 +45,7 @@ DEFINE_PAGE_FAULT_EVENT(page_fault_user);
 DEFINE_PAGE_FAULT_EVENT(page_fault_kernel);
 
 #undef TRACE_INCLUDE_PATH
+#undef TRACE_INCLUDE_FILE
 #define TRACE_INCLUDE_PATH .
 #define TRACE_INCLUDE_FILE exceptions
 #endif /*  _TRACE_PAGE_FAULT_H */
index 0af81b590a0c44e9984f8373ff750a93d317dfba..33b9d0f0aafe59e5f5dc2f663ea082e5914073d7 100644 (file)
@@ -389,6 +389,7 @@ TRACE_EVENT(vector_free_moved,
 #endif /* CONFIG_X86_LOCAL_APIC */
 
 #undef TRACE_INCLUDE_PATH
+#undef TRACE_INCLUDE_FILE
 #define TRACE_INCLUDE_PATH .
 #define TRACE_INCLUDE_FILE irq_vectors
 #endif /*  _TRACE_IRQ_VECTORS_H */
index 3de69330e6c50e1747f6a19b62f6fd31b47e9316..7d6f3f3fad786916bfcfdb378d0a790ddaa54f5f 100644 (file)
@@ -61,34 +61,38 @@ asmlinkage void xen_machine_check(void);
 asmlinkage void xen_simd_coprocessor_error(void);
 #endif
 
-dotraplinkage void do_divide_error(struct pt_regs *, long);
-dotraplinkage void do_debug(struct pt_regs *, long);
-dotraplinkage void do_nmi(struct pt_regs *, long);
-dotraplinkage void do_int3(struct pt_regs *, long);
-dotraplinkage void do_overflow(struct pt_regs *, long);
-dotraplinkage void do_bounds(struct pt_regs *, long);
-dotraplinkage void do_invalid_op(struct pt_regs *, long);
-dotraplinkage void do_device_not_available(struct pt_regs *, long);
-dotraplinkage void do_coprocessor_segment_overrun(struct pt_regs *, long);
-dotraplinkage void do_invalid_TSS(struct pt_regs *, long);
-dotraplinkage void do_segment_not_present(struct pt_regs *, long);
-dotraplinkage void do_stack_segment(struct pt_regs *, long);
+dotraplinkage void do_divide_error(struct pt_regs *regs, long error_code);
+dotraplinkage void do_debug(struct pt_regs *regs, long error_code);
+dotraplinkage void do_nmi(struct pt_regs *regs, long error_code);
+dotraplinkage void do_int3(struct pt_regs *regs, long error_code);
+dotraplinkage void do_overflow(struct pt_regs *regs, long error_code);
+dotraplinkage void do_bounds(struct pt_regs *regs, long error_code);
+dotraplinkage void do_invalid_op(struct pt_regs *regs, long error_code);
+dotraplinkage void do_device_not_available(struct pt_regs *regs, long error_code);
+dotraplinkage void do_coprocessor_segment_overrun(struct pt_regs *regs, long error_code);
+dotraplinkage void do_invalid_TSS(struct pt_regs *regs, long error_code);
+dotraplinkage void do_segment_not_present(struct pt_regs *regs, long error_code);
+dotraplinkage void do_stack_segment(struct pt_regs *regs, long error_code);
 #ifdef CONFIG_X86_64
-dotraplinkage void do_double_fault(struct pt_regs *, long);
+dotraplinkage void do_double_fault(struct pt_regs *regs, long error_code);
+asmlinkage __visible notrace struct pt_regs *sync_regs(struct pt_regs *eregs);
+asmlinkage __visible notrace
+struct bad_iret_stack *fixup_bad_iret(struct bad_iret_stack *s);
+void __init trap_init(void);
 #endif
-dotraplinkage void do_general_protection(struct pt_regs *, long);
-dotraplinkage void do_page_fault(struct pt_regs *, unsigned long);
-dotraplinkage void do_spurious_interrupt_bug(struct pt_regs *, long);
-dotraplinkage void do_coprocessor_error(struct pt_regs *, long);
-dotraplinkage void do_alignment_check(struct pt_regs *, long);
+dotraplinkage void do_general_protection(struct pt_regs *regs, long error_code);
+dotraplinkage void do_page_fault(struct pt_regs *regs, unsigned long error_code);
+dotraplinkage void do_spurious_interrupt_bug(struct pt_regs *regs, long error_code);
+dotraplinkage void do_coprocessor_error(struct pt_regs *regs, long error_code);
+dotraplinkage void do_alignment_check(struct pt_regs *regs, long error_code);
 #ifdef CONFIG_X86_MCE
-dotraplinkage void do_machine_check(struct pt_regs *, long);
+dotraplinkage void do_machine_check(struct pt_regs *regs, long error_code);
 #endif
-dotraplinkage void do_simd_coprocessor_error(struct pt_regs *, long);
+dotraplinkage void do_simd_coprocessor_error(struct pt_regs *regs, long error_code);
 #ifdef CONFIG_X86_32
-dotraplinkage void do_iret_error(struct pt_regs *, long);
+dotraplinkage void do_iret_error(struct pt_regs *regs, long error_code);
 #endif
-dotraplinkage void do_mce(struct pt_regs *, long);
+dotraplinkage void do_mce(struct pt_regs *regs, long error_code);
 
 static inline int get_si_code(unsigned long condition)
 {
@@ -104,11 +108,16 @@ extern int panic_on_unrecovered_nmi;
 
 void math_emulate(struct math_emu_info *);
 #ifndef CONFIG_X86_32
-asmlinkage void smp_thermal_interrupt(void);
-asmlinkage void smp_threshold_interrupt(void);
-asmlinkage void smp_deferred_error_interrupt(void);
+asmlinkage void smp_thermal_interrupt(struct pt_regs *regs);
+asmlinkage void smp_threshold_interrupt(struct pt_regs *regs);
+asmlinkage void smp_deferred_error_interrupt(struct pt_regs *regs);
 #endif
 
+void smp_apic_timer_interrupt(struct pt_regs *regs);
+void smp_spurious_interrupt(struct pt_regs *regs);
+void smp_error_interrupt(struct pt_regs *regs);
+asmlinkage void smp_irq_move_cleanup_interrupt(void);
+
 extern void ist_enter(struct pt_regs *regs);
 extern void ist_exit(struct pt_regs *regs);
 extern void ist_begin_non_atomic(struct pt_regs *regs);
index eb5bbfeccb66133bf6cb0408b0785178b3230d1c..8a0c25c6bf099cf9858568d67e382f940e493a47 100644 (file)
@@ -35,6 +35,7 @@ extern struct system_counterval_t convert_art_ns_to_tsc(u64 art_ns);
 
 extern void tsc_early_init(void);
 extern void tsc_init(void);
+extern unsigned long calibrate_delay_is_known(void);
 extern void mark_tsc_unstable(char *reason);
 extern int unsynchronized_tsc(void);
 extern int check_tsc_unstable(void);
index 06635fbca81c0359c170bc1ef2266e499f526983..2624de16cd7abd3d3443d411abc5fb57919e5f70 100644 (file)
@@ -848,7 +848,7 @@ EXPORT_SYMBOL(acpi_unregister_ioapic);
 /**
  * acpi_ioapic_registered - Check whether IOAPIC assoicatied with @gsi_base
  *                         has been registered
- * @handle:    ACPI handle of the IOAPIC deivce
+ * @handle:    ACPI handle of the IOAPIC device
  * @gsi_base:  GSI base associated with the IOAPIC
  *
  * Assume caller holds some type of lock to serialize acpi_ioapic_registered()
index 2c4d5ece74565f10330b4121af72f33622f820bc..58176b56354e4977ff20fb6140ef119f912f9fb8 100644 (file)
@@ -264,18 +264,23 @@ static int __init parse_gart_mem(char *p)
 }
 early_param("gart_fix_e820", parse_gart_mem);
 
+/*
+ * With kexec/kdump, if the first kernel doesn't shut down the GART and the
+ * second kernel allocates a different GART region, there might be two
+ * overlapping GART regions present:
+ *
+ * - the first still used by the GART initialized in the first kernel.
+ * - (sub-)set of it used as normal RAM by the second kernel.
+ *
+ * which leads to memory corruptions and a kernel panic eventually.
+ *
+ * This can also happen if the BIOS has forgotten to mark the GART region
+ * as reserved.
+ *
+ * Try to update the e820 map to mark that new region as reserved.
+ */
 void __init early_gart_iommu_check(void)
 {
-       /*
-        * in case it is enabled before, esp for kexec/kdump,
-        * previous kernel already enable that. memset called
-        * by allocate_aperture/__alloc_bootmem_nopanic cause restart.
-        * or second kernel have different position for GART hole. and new
-        * kernel could use hole as RAM that is still used by GART set by
-        * first kernel
-        * or BIOS forget to put that in reserved.
-        * try to update e820 to make that region as reserved.
-        */
        u32 agp_aper_order = 0;
        int i, fix, slot, valid_agp = 0;
        u32 ctl;
index 32b2b7a41ef5d37d7bad942435341a15fa046aba..b7bcdd7816513a0eeb4def5ca0b58b752c161a84 100644 (file)
@@ -44,6 +44,7 @@
 #include <asm/mpspec.h>
 #include <asm/i8259.h>
 #include <asm/proto.h>
+#include <asm/traps.h>
 #include <asm/apic.h>
 #include <asm/io_apic.h>
 #include <asm/desc.h>
index e84c9eb4e5b414a8e1ba2a094c19a1c0e22a177c..0005c284a5c5ce64a615a1c07855e04809724503 100644 (file)
@@ -8,6 +8,7 @@
  * Martin Bligh, Andi Kleen, James Bottomley, John Stultz, and
  * James Cleverdon.
  */
+#include <linux/acpi.h>
 #include <linux/errno.h>
 #include <linux/threads.h>
 #include <linux/cpumask.h>
 #include <linux/ctype.h>
 #include <linux/hardirq.h>
 #include <linux/export.h>
+
 #include <asm/smp.h>
-#include <asm/apic.h>
 #include <asm/ipi.h>
+#include <asm/apic.h>
+#include <asm/apic_flat_64.h>
 #include <asm/jailhouse_para.h>
 
-#include <linux/acpi.h>
-
 static struct apic apic_physflat;
 static struct apic apic_flat;
 
index 652e7ffa9b9de5d616b8da67624466c00ad14722..3173e07d3791bef133a94563db30299c1b53abca 100644 (file)
@@ -18,6 +18,7 @@
 #include <linux/slab.h>
 #include <asm/irqdomain.h>
 #include <asm/hw_irq.h>
+#include <asm/traps.h>
 #include <asm/apic.h>
 #include <asm/i8259.h>
 #include <asm/desc.h>
index 391f358ebb4c6d823f0640e7c92d1d762538cf40..a555da094157096a50668940dc550b7f7f62ddb7 100644 (file)
@@ -1079,7 +1079,7 @@ late_initcall(uv_init_heartbeat);
 #endif /* !CONFIG_HOTPLUG_CPU */
 
 /* Direct Legacy VGA I/O traffic to designated IOH */
-int uv_set_vga_state(struct pci_dev *pdev, bool decode, unsigned int command_bits, u32 flags)
+static int uv_set_vga_state(struct pci_dev *pdev, bool decode, unsigned int command_bits, u32 flags)
 {
        int domain, bus, rc;
 
@@ -1148,7 +1148,7 @@ static void get_mn(struct mn *mnp)
        mnp->m_shift = mnp->m_val ? 64 - mnp->m_val : 0;
 }
 
-void __init uv_init_hub_info(struct uv_hub_info_s *hi)
+static void __init uv_init_hub_info(struct uv_hub_info_s *hi)
 {
        union uvh_node_id_u node_id;
        struct mn mn;
index 72adf6c335dca2e2db24c2560919d4807692d936..168543d077d7e6024e14063fbb84a68506fc42bd 100644 (file)
@@ -29,7 +29,8 @@
 # include "asm-offsets_64.c"
 #endif
 
-void common(void) {
+static void __used common(void)
+{
        BLANK();
        OFFSET(TASK_threadsp, task_struct, thread.sp);
 #ifdef CONFIG_STACKPROTECTOR
index 1979a76bfaddc52bdd0cb7aa4f99aa936e98f3b1..5136e6818da8dd1d0c9138c39be197e2ac183c52 100644 (file)
@@ -9,6 +9,7 @@
 #include <linux/memblock.h>
 
 #include <asm/proto.h>
+#include <asm/setup.h>
 
 /*
  * Some BIOSes seem to corrupt the low 64k of memory during events
@@ -136,7 +137,7 @@ void __init setup_bios_corruption_check(void)
 }
 
 
-void check_for_bios_corruption(void)
+static void check_for_bios_corruption(void)
 {
        int i;
        int corruption = 0;
index eeea634bee0a73291a6f879706ef2e280f8e0d4f..69f6bbb41be0bfb8a3e360a8294dd5861eb44582 100644 (file)
@@ -15,6 +15,7 @@
 #include <asm/smp.h>
 #include <asm/pci-direct.h>
 #include <asm/delay.h>
+#include <asm/debugreg.h>
 
 #ifdef CONFIG_X86_64
 # include <asm/mmconfig.h>
index 7eba34df54c3d44e17e3685321a7e9a6ca3b0f25..804c49493938bfc06a8a5f91507a36f993b467b9 100644 (file)
@@ -12,6 +12,7 @@
 #include <linux/ktime.h>
 #include <linux/math64.h>
 #include <linux/percpu.h>
+#include <linux/cpufreq.h>
 #include <linux/smp.h>
 
 #include "cpu.h"
index 77bf22546ddd4945b5a8d0db8dcf71551d4e610c..8654b8b0c8484bd6a39150a81e7b5ee5dd363b23 100644 (file)
@@ -32,6 +32,8 @@
 #include <asm/e820/api.h>
 #include <asm/hypervisor.h>
 
+#include "cpu.h"
+
 static void __init spectre_v2_select_mitigation(void);
 static void __init ssb_select_mitigation(void);
 static void __init l1tf_select_mitigation(void);
index dc1b9342e9c4f9ff7fbdd6a26309186b37e47ec0..c4d1023fb0abc5fa570c2c3202d229599b9a0d64 100644 (file)
@@ -17,6 +17,7 @@
 #include <linux/pci.h>
 
 #include <asm/cpufeature.h>
+#include <asm/cacheinfo.h>
 #include <asm/amd_nb.h>
 #include <asm/smp.h>
 
index 4a2fb59a372e77f01a36a0e34370cdadec263519..89298c83de53b226227d4271ee5fcc85f2a118fc 100644 (file)
@@ -23,6 +23,7 @@
 #include <linux/string.h>
 
 #include <asm/amd_nb.h>
+#include <asm/traps.h>
 #include <asm/apic.h>
 #include <asm/mce.h>
 #include <asm/msr.h>
@@ -99,7 +100,7 @@ static u32 smca_bank_addrs[MAX_NR_BANKS][NR_BLOCKS] __ro_after_init =
        [0 ... MAX_NR_BANKS - 1] = { [0 ... NR_BLOCKS - 1] = -1 }
 };
 
-const char *smca_get_name(enum smca_bank_types t)
+static const char *smca_get_name(enum smca_bank_types t)
 {
        if (t >= N_SMCA_BANK_TYPES)
                return NULL;
@@ -824,7 +825,7 @@ static void __log_error(unsigned int bank, u64 status, u64 addr, u64 misc)
        mce_log(&m);
 }
 
-asmlinkage __visible void __irq_entry smp_deferred_error_interrupt(void)
+asmlinkage __visible void __irq_entry smp_deferred_error_interrupt(struct pt_regs *regs)
 {
        entering_irq();
        trace_deferred_error_apic_entry(DEFERRED_ERROR_VECTOR);
index ad8f62a0c706a9c7674777c3491c6fd61cd99e3d..672c7225cb1b89426b682f40b4a4b33a73803d89 100644 (file)
@@ -684,7 +684,7 @@ DEFINE_PER_CPU(unsigned, mce_poll_count);
  * errors here. However this would be quite problematic --
  * we would need to reimplement the Monarch handling and
  * it would mess up the exclusion between exception handler
- * and poll hander -- * so we skip this for now.
+ * and poll handler -- * so we skip this for now.
  * These cases should not happen anyways, or only when the CPU
  * is already totally * confused. In this case it's likely it will
  * not fully execute the machine check handler either.
index df01ff8513a5a2823a6d096c5e2c0fa8ad0ebc80..10a3b05993003f2567168e5fdeced4febddea416 100644 (file)
@@ -25,6 +25,7 @@
 #include <linux/cpu.h>
 
 #include <asm/processor.h>
+#include <asm/traps.h>
 #include <asm/apic.h>
 #include <asm/mce.h>
 #include <asm/msr.h>
@@ -392,7 +393,7 @@ static void unexpected_thermal_interrupt(void)
 
 static void (*smp_thermal_vector)(void) = unexpected_thermal_interrupt;
 
-asmlinkage __visible void __irq_entry smp_thermal_interrupt(struct pt_regs *r)
+asmlinkage __visible void __irq_entry smp_thermal_interrupt(struct pt_regs *regs)
 {
        entering_irq();
        trace_thermal_apic_entry(THERMAL_APIC_VECTOR);
index 10586a85c23f08030f0c2262fe47bf5a572023b4..28812cc15300d9fd6bb35bde0f17bfb2af874f63 100644 (file)
@@ -6,6 +6,7 @@
 #include <linux/kernel.h>
 
 #include <asm/irq_vectors.h>
+#include <asm/traps.h>
 #include <asm/apic.h>
 #include <asm/mce.h>
 #include <asm/trace/irq_vectors.h>
@@ -20,7 +21,7 @@ static void default_threshold_interrupt(void)
 
 void (*mce_threshold_vector)(void) = default_threshold_interrupt;
 
-asmlinkage __visible void __irq_entry smp_threshold_interrupt(void)
+asmlinkage __visible void __irq_entry smp_threshold_interrupt(struct pt_regs *regs)
 {
        entering_irq();
        trace_threshold_apic_entry(THRESHOLD_APIC_VECTOR);
index a4d74d616222aacd50a50922051b046a6ae4b344..0277267239f24d7243e39e3cdc0bcf43cdbdcda8 100644 (file)
@@ -5,9 +5,10 @@
 #include <linux/cpu.h>
 
 #include <asm/pat.h>
+#include <asm/apic.h>
 #include <asm/processor.h>
 
-#include <asm/apic.h>
+#include "cpu.h"
 
 struct cpuid_bit {
        u16 feature;
index 71ca064e379488f072468f0d3bc57a37beec7855..8f6c784141d1197a38cd88a50f8abeb4f144b693 100644 (file)
@@ -10,6 +10,8 @@
 #include <asm/pat.h>
 #include <asm/processor.h>
 
+#include "cpu.h"
+
 /* leaf 0xb SMT level */
 #define SMT_LEVEL      0
 
index f631a3f155875bfad8b8e709364a1e5c38706e24..c8b07d8ea5a2bba61448b169a0cd0ea3daa086ad 100644 (file)
@@ -37,6 +37,7 @@
 #include <asm/reboot.h>
 #include <asm/virtext.h>
 #include <asm/intel_pt.h>
+#include <asm/crash.h>
 
 /* Used while preparing memory map entries for second kernel */
 struct crash_memmap_data {
index eb8ab3915268d2ab5e1f170a361bf079bdd1ac75..22369dd5de3b87788dededb535bdf991cfdb3cb6 100644 (file)
@@ -62,7 +62,7 @@ ssize_t copy_oldmem_page(unsigned long pfn, char *buf, size_t csize,
 
 /**
  * copy_oldmem_page_encrypted - same as copy_oldmem_page() above but ioremap the
- * memory with the encryption mask set to accomodate kdump on SME-enabled
+ * memory with the encryption mask set to accommodate kdump on SME-enabled
  * machines.
  */
 ssize_t copy_oldmem_page_encrypted(unsigned long pfn, char *buf, size_t csize,
index 7299dcbf8e852a22f3f6055b13d07812852bd450..8d85e00bb40a5ad54e4164563b57941931f9e3ce 100644 (file)
@@ -23,6 +23,7 @@
 #include <asm/pci_x86.h>
 #include <asm/setup.h>
 #include <asm/i8259.h>
+#include <asm/prom.h>
 
 __initdata u64 initial_dtb;
 char __initdata cmd_line[COMMAND_LINE_SIZE];
index 87a57b7642d3673420b272fec0f442b9baf76414..cd3956fc8158d58d00033173d0c0ea11253f14d3 100644 (file)
@@ -811,7 +811,7 @@ void fpu__resume_cpu(void)
  *
  * Note: does not work for compacted buffers.
  */
-void *__raw_xsave_addr(struct xregs_state *xsave, int xstate_feature_mask)
+static void *__raw_xsave_addr(struct xregs_state *xsave, int xstate_feature_mask)
 {
        int feature_nr = fls64(xstate_feature_mask) - 1;
 
index 108c48d0d40e70e24010eb43024429cefa1677e9..1b2ee55a2dfb4af6ec210046cb2e8ab10aacd024 100644 (file)
@@ -19,6 +19,7 @@
 #include <asm/pci_x86.h>
 #include <asm/reboot.h>
 #include <asm/setup.h>
+#include <asm/jailhouse_para.h>
 
 static __initdata struct jailhouse_setup_data setup_data;
 static unsigned int precalibrated_tsc_khz;
index d5f88fe570644eaa050020557ba89d044d6f0031..4ba75afba5271e599565dbe355ca10d5d8a802cd 100644 (file)
@@ -751,7 +751,7 @@ STACK_FRAME_NON_STANDARD(kretprobe_trampoline);
 /*
  * Called from kretprobe_trampoline
  */
-__visible __used void *trampoline_handler(struct pt_regs *regs)
+static __used void *trampoline_handler(struct pt_regs *regs)
 {
        struct kretprobe_instance *ri = NULL;
        struct hlist_head *head, empty_rp;
index 7d31192296a87d09104ab605540ce4264d56f6bf..90ae0ca51083768df899edd88f6016be224c3316 100644 (file)
@@ -22,6 +22,8 @@
 #include <linux/utsname.h>
 #include <linux/stackprotector.h>
 #include <linux/cpuidle.h>
+#include <linux/acpi.h>
+#include <linux/elf-randomize.h>
 #include <trace/events/power.h>
 #include <linux/hw_breakpoint.h>
 #include <asm/cpu.h>
@@ -39,6 +41,7 @@
 #include <asm/desc.h>
 #include <asm/prctl.h>
 #include <asm/spec-ctrl.h>
+#include <asm/proto.h>
 
 #include "process.h"
 
@@ -793,7 +796,7 @@ unsigned long get_wchan(struct task_struct *p)
        unsigned long start, bottom, top, sp, fp, ip, ret = 0;
        int count = 0;
 
-       if (!p || p == current || p->state == TASK_RUNNING)
+       if (p == current || p->state == TASK_RUNNING)
                return 0;
 
        if (!try_get_task_stack(p))
index 60783b318936d6376500942c4f0732f12c96f8db..721d02bd2d0d696e64d2869d1b13e1cfc87a40f5 100644 (file)
@@ -646,7 +646,7 @@ void set_personality_64bit(void)
        /* TBD: overwrites user setup. Should have two bits.
           But 64bit processes have always behaved this way,
           so it's not too bad. The main problem is just that
-          32bit childs are affected again. */
+          32bit children are affected again. */
        current->personality &= ~READ_IMPLIES_EXEC;
 }
 
index 736348ead4218a0007b715efbc1d56bd1bb73e65..8451f38ad3999fcb95d85c7c453de544745d0c4b 100644 (file)
@@ -7,6 +7,7 @@
 #include <linux/irq.h>
 
 #include <asm/hpet.h>
+#include <asm/setup.h>
 
 #if defined(CONFIG_X86_IO_APIC) && defined(CONFIG_SMP) && defined(CONFIG_PCI)
 
index 623965e86b65eda431b8e5fdbc2204c47bcb8b33..fa51723571c8fa51d14c662a585f4b0882f1fa63 100644 (file)
 
 #include <linux/dmi.h>
 #include <linux/err.h>
+#include <linux/efi.h>
 #include <linux/init.h>
 #include <linux/kernel.h>
 #include <linux/mm.h>
 #include <linux/pci.h>
 #include <linux/screen_info.h>
 #include <video/vga.h>
+
+#include <asm/efi.h>
 #include <asm/sysfb.h>
 
 enum {
index 5bd30c442794888ace52ffc2658c7b9b6e21d32a..496748ed266a97311d8125785c780a3a387b0306 100644 (file)
@@ -10,6 +10,8 @@
 
 #include <asm/hw_irq.h>
 #include <asm/desc.h>
+#include <asm/trace/exceptions.h>
+#include <asm/trace/irq_vectors.h>
 
 DEFINE_STATIC_KEY_FALSE(trace_pagefault_key);
 
index 41d6f7081ff76f3894646d027ad4d84d25a87f6a..4d39f731bc33298831cf7b093de8acca9f7b964b 100644 (file)
@@ -2494,7 +2494,7 @@ static __init int alloc_kvm_area(void)
                 * vmcs->revision_id to KVM_EVMCS_VERSION instead of
                 * revision_id reported by MSR_IA32_VMX_BASIC.
                 *
-                * However, even though not explictly documented by
+                * However, even though not explicitly documented by
                 * TLFS, VMXArea passed as VMXON argument should
                 * still be marked with revision_id reported by
                 * physical CPU.
index 61bc7d1800d76560839666e55522ae766646041a..e44fe1a63f728adbc8a08578c0a36fbb9938c554 100644 (file)
@@ -1712,7 +1712,7 @@ static int change_page_attr_set_clr(unsigned long *addr, int numpages,
        } else if (!(in_flag & CPA_PAGES_ARRAY)) {
                /*
                 * in_flag of CPA_PAGES_ARRAY implies it is aligned.
-                * No need to cehck in that case
+                * No need to check in that case
                 */
                if (*addr & ~PAGE_MASK) {
                        *addr &= PAGE_MASK;
index ce4b06733c0920c4032ad25f0ab4619ff8470feb..b3233b1835eaf031436c3b67981a861e4026df7f 100644 (file)
@@ -84,7 +84,7 @@ static void ce4100_mem_serial_out(struct uart_port *p, int offset, int value)
 }
 
 static void ce4100_serial_fixup(int port, struct uart_port *up,
-       u32 *capabilites)
+       u32 *capabilities)
 {
 #ifdef CONFIG_EARLY_PRINTK
        /*
@@ -111,7 +111,7 @@ static void ce4100_serial_fixup(int port, struct uart_port *up,
        up->serial_in = ce4100_mem_serial_in;
        up->serial_out = ce4100_mem_serial_out;
 
-       *capabilites |= (1 << 12);
+       *capabilities |= (1 << 12);
 }
 
 static __init void sdv_serial_fixup(void)
index dbfc5cf2aa9310b62f405bb1cd53fc89a7ad4a00..96f438d4b026f397f306feb2bd64b11d20602192 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * platform_bcm43xx.c: bcm43xx platform data initilization file
+ * platform_bcm43xx.c: bcm43xx platform data initialization file
  *
  * (C) Copyright 2016 Intel Corporation
  * Author: Andy Shevchenko <andriy.shevchenko@linux.intel.com>
index 27186ad654c97846a42ef61f850d48affd602048..7a7fc54c449ba7647fac3a6530b48f607621a950 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * spidev platform data initilization file
+ * spidev platform data initialization file
  *
  * (C) Copyright 2014, 2016 Intel Corporation
  * Authors: Andy Shevchenko <andriy.shevchenko@linux.intel.com>
index 429a94192671e814a2e151c85121c1e9ba224f9e..8344d5a928c9209d2bf101c160288bd8eb2f08d9 100644 (file)
@@ -1,5 +1,5 @@
 /*
- * PCAL9555a platform data initilization file
+ * PCAL9555a platform data initialization file
  *
  * Copyright (C) 2016, Intel Corporation
  *
index 2e569d10f2d083c1fbf4fd2125aaec6534861838..a9f2e888e13593eda7532fe5d1792ecc0865cb80 100644 (file)
@@ -13,7 +13,7 @@
  *
  *
  * The IOSF-SB is a fabric bus available on Atom based SOC's that uses a
- * mailbox interface (MBI) to communicate with mutiple devices. This
+ * mailbox interface (MBI) to communicate with multiple devices. This
  * driver implements access to this interface for those platforms that can
  * enumerate the device using PCI.
  */
index 7fa8b3b53bc0a563737f1d32de8e467b79d85ce0..d9b8a1c1ab0fe5bf8c5cd054cdbabfec099ebcf5 100644 (file)
@@ -109,7 +109,7 @@ static void detect_lid_state(void)
         * the edge detector hookup on the gpio inputs on the geode is
         * odd, to say the least.  See http://dev.laptop.org/ticket/5703
         * for details, but in a nutshell:  we don't use the edge
-        * detectors.  instead, we make use of an anomoly:  with the both
+        * detectors.  instead, we make use of an anomaly:  with the both
         * edge detectors turned off, we still get an edge event on a
         * positive edge transition.  to take advantage of this, we use the
         * front-end inverter to ensure that that's the edge we're always
index 5f64f30873e257757091b88f8e263711d8db548f..b21a932c220c4e52cc5a6e2c0059de6b645f9faf 100644 (file)
@@ -560,7 +560,7 @@ static inline void uv_clear_nmi(int cpu)
        }
 }
 
-/* Ping non-responding CPU's attemping to force them into the NMI handler */
+/* Ping non-responding CPU's attempting to force them into the NMI handler */
 static void uv_nmi_nr_cpus_ping(void)
 {
        int cpu;
index 075ed47993bbf5c1bf9b760511268613c035d8c1..d5f303c0e6563041b3c9e7fa5cff8dc47e9af840 100644 (file)
@@ -493,7 +493,7 @@ static unsigned long __init xen_foreach_remap_area(unsigned long nr_pages,
  * The remap information (which mfn remap to which pfn) is contained in the
  * to be remapped memory itself in a linked list anchored at xen_remap_mfn.
  * This scheme allows to remap the different chunks in arbitrary order while
- * the resulting mapping will be independant from the order.
+ * the resulting mapping will be independent from the order.
  */
 void __init xen_remap_memory(void)
 {
index cf59e6210d271c55500e7ceb597533ad6a5c90ad..4f34734e7f3616bb5e07a77a4c8573ff6e155b42 100644 (file)
@@ -142,5 +142,8 @@ extern int cppc_set_perf(int cpu, struct cppc_perf_ctrls *perf_ctrls);
 extern int cppc_get_perf_caps(int cpu, struct cppc_perf_caps *caps);
 extern int acpi_get_psd_map(struct cppc_cpudata **);
 extern unsigned int cppc_get_transition_latency(int cpu);
+extern bool cpc_ffh_supported(void);
+extern int cpc_read_ffh(int cpunum, struct cpc_reg *reg, u64 *val);
+extern int cpc_write_ffh(int cpunum, struct cpc_reg *reg, u64 val);
 
 #endif /* _CPPC_ACPI_H*/
index dd16e8218db3a7a9cb3988b973ae500f683cd076..5c990e891d6a089a067402853e5d58a478130318 100644 (file)
@@ -420,6 +420,9 @@ enum {
 };
 
 void arch_ftrace_update_code(int command);
+void arch_ftrace_update_trampoline(struct ftrace_ops *ops);
+void *arch_ftrace_trampoline_func(struct ftrace_ops *ops, struct dyn_ftrace *rec);
+void arch_ftrace_trampoline_free(struct ftrace_ops *ops);
 
 struct ftrace_rec_iter;
 
index d58d1f2fab107794f17ca9a0ec3b88a1040f81b5..b9b1bc5f966903a01172f603d2aec30b9d43e583 100644 (file)
@@ -183,6 +183,7 @@ int kexec_purgatory_get_set_symbol(struct kimage *image, const char *name,
                                   bool get_value);
 void *kexec_purgatory_get_symbol_addr(struct kimage *image, const char *name);
 
+void * __weak arch_kexec_kernel_image_load(struct kimage *image);
 int __weak arch_kexec_apply_relocations_add(struct purgatory_info *pi,
                                            Elf_Shdr *section,
                                            const Elf_Shdr *relsec,
index 5da8a1de2187c989247c4116042a4b3a650a97aa..e07e91daaacc5c8d476ebe010d37ec6513bb648a 100644 (file)
@@ -382,6 +382,9 @@ int enable_kprobe(struct kprobe *kp);
 
 void dump_kprobe(struct kprobe *kp);
 
+void *alloc_insn_page(void);
+void free_insn_page(void *page);
+
 #else /* !CONFIG_KPROBES: */
 
 static inline int kprobes_built_in(void)
index b9cd9ebdf9b9c8fd2c7d5f09e9ede6cf4ab1c6ee..a713e5d156d8573ca3ee5a28a294054a23e4fbce 100644 (file)
@@ -76,6 +76,7 @@ extern int early_init_dt_scan_memory(unsigned long node, const char *uname,
 extern int early_init_dt_scan_chosen_stdout(void);
 extern void early_init_fdt_scan_reserved_mem(void);
 extern void early_init_fdt_reserve_self(void);
+extern void __init early_init_dt_scan_chosen_arch(unsigned long node);
 extern void early_init_dt_add_memory_arch(u64 base, u64 size);
 extern int early_init_dt_mark_hotplug_memory_arch(u64 base, u64 size);
 extern int early_init_dt_reserve_memory_arch(phys_addr_t base, phys_addr_t size,
index de20ede2c5c81fe9c0f78676fb8a7a9a63b3cd3a..edb9b040c94c31fe1ff91242232c10d0aea514ac 100644 (file)
@@ -411,4 +411,5 @@ extern int task_current_syscall(struct task_struct *target, long *callno,
                                unsigned long args[6], unsigned int maxargs,
                                unsigned long *sp, unsigned long *pc);
 
+extern void sigaction_compat_abi(struct k_sigaction *act, struct k_sigaction *oact);
 #endif