x86: unify __cpu_up.
[sfrench/cifs-2.6.git] / include / asm-x86 / smp_32.h
1 #ifndef __ASM_SMP_H
2 #define __ASM_SMP_H
3
4 #ifndef __ASSEMBLY__
5 #include <linux/cpumask.h>
6 #include <linux/init.h>
7
8 /*
9  * We need the APIC definitions automatically as part of 'smp.h'
10  */
11 #ifdef CONFIG_X86_LOCAL_APIC
12 # include <asm/mpspec.h>
13 # include <asm/apic.h>
14 # ifdef CONFIG_X86_IO_APIC
15 #  include <asm/io_apic.h>
16 # endif
17 #endif
18
19 extern cpumask_t cpu_callin_map;
20
21 extern void (*mtrr_hook) (void);
22 extern void zap_low_mappings (void);
23
24 extern u8 __initdata x86_cpu_to_apicid_init[];
25 extern void *x86_cpu_to_apicid_early_ptr;
26
27 DECLARE_PER_CPU(cpumask_t, cpu_sibling_map);
28 DECLARE_PER_CPU(cpumask_t, cpu_core_map);
29 DECLARE_PER_CPU(u8, cpu_llc_id);
30 DECLARE_PER_CPU(u8, x86_cpu_to_apicid);
31
32 #ifdef CONFIG_HOTPLUG_CPU
33 extern void cpu_exit_clear(void);
34 extern void cpu_uninit(void);
35 extern void remove_siblinginfo(int cpu);
36 #endif
37
38 /* Globals due to paravirt */
39 extern void set_cpu_sibling_map(int cpu);
40
41 #ifdef CONFIG_SMP
42 static inline void smp_prepare_boot_cpu(void)
43 {
44         smp_ops.smp_prepare_boot_cpu();
45 }
46 static inline void smp_prepare_cpus(unsigned int max_cpus)
47 {
48         smp_ops.smp_prepare_cpus(max_cpus);
49 }
50 static inline void smp_cpus_done(unsigned int max_cpus)
51 {
52         smp_ops.smp_cpus_done(max_cpus);
53 }
54
55 static inline void smp_send_stop(void)
56 {
57         smp_ops.smp_send_stop();
58 }
59
60 void native_smp_prepare_boot_cpu(void);
61 void native_smp_prepare_cpus(unsigned int max_cpus);
62 void native_smp_cpus_done(unsigned int max_cpus);
63
64 #ifndef CONFIG_PARAVIRT
65 #define startup_ipi_hook(phys_apicid, start_eip, start_esp) do { } while (0)
66 #endif
67
68 extern int __cpu_disable(void);
69 extern void __cpu_die(unsigned int cpu);
70
71 /*
72  * This function is needed by all SMP systems. It must _always_ be valid
73  * from the initial startup. We map APIC_BASE very early in page_setup(),
74  * so this is correct in the x86 case.
75  */
76 DECLARE_PER_CPU(int, cpu_number);
77 #define raw_smp_processor_id() (x86_read_percpu(cpu_number))
78
79 #define cpu_physical_id(cpu)    per_cpu(x86_cpu_to_apicid, cpu)
80
81 extern int safe_smp_processor_id(void);
82
83 void __cpuinit smp_store_cpu_info(int id);
84
85 /* We don't mark CPUs online until __cpu_up(), so we need another measure */
86 static inline int num_booting_cpus(void)
87 {
88         return cpus_weight(cpu_callout_map);
89 }
90
91 #else /* CONFIG_SMP */
92
93 #define safe_smp_processor_id()         0
94 #define cpu_physical_id(cpu)            boot_cpu_physical_apicid
95
96 #endif /* !CONFIG_SMP */
97
98 #ifdef CONFIG_X86_LOCAL_APIC
99
100 static __inline int logical_smp_processor_id(void)
101 {
102         /* we don't want to mark this access volatile - bad code generation */
103         return GET_APIC_LOGICAL_ID(*(u32 *)(APIC_BASE + APIC_LDR));
104 }
105
106 # ifdef APIC_DEFINITION
107 extern int hard_smp_processor_id(void);
108 # else
109 #  include <mach_apicdef.h>
110 static inline int hard_smp_processor_id(void)
111 {
112         /* we don't want to mark this access volatile - bad code generation */
113         return GET_APIC_ID(*(u32 *)(APIC_BASE + APIC_ID));
114 }
115 # endif /* APIC_DEFINITION */
116
117 #else /* CONFIG_X86_LOCAL_APIC */
118
119 # ifndef CONFIG_SMP
120 #  define hard_smp_processor_id()       0
121 # endif
122
123 #endif /* CONFIG_X86_LOCAL_APIC */
124
125 #endif /* !ASSEMBLY */
126 #endif