Merge master.kernel.org:/home/rmk/linux-2.6-arm
[sfrench/cifs-2.6.git] / include / asm-x86_64 / smp.h
1 #ifndef __ASM_SMP_H
2 #define __ASM_SMP_H
3
4 /*
5  * We need the APIC definitions automatically as part of 'smp.h'
6  */
7 #ifndef __ASSEMBLY__
8 #include <linux/threads.h>
9 #include <linux/cpumask.h>
10 #include <linux/bitops.h>
11 extern int disable_apic;
12 #endif
13
14 #ifdef CONFIG_X86_LOCAL_APIC
15 #ifndef __ASSEMBLY__
16 #include <asm/fixmap.h>
17 #include <asm/mpspec.h>
18 #ifdef CONFIG_X86_IO_APIC
19 #include <asm/io_apic.h>
20 #endif
21 #include <asm/apic.h>
22 #include <asm/thread_info.h>
23 #endif
24 #endif
25
26 #ifdef CONFIG_SMP
27 #ifndef ASSEMBLY
28
29 #include <asm/pda.h>
30
31 struct pt_regs;
32
33 extern cpumask_t cpu_present_mask;
34 extern cpumask_t cpu_possible_map;
35 extern cpumask_t cpu_online_map;
36 extern cpumask_t cpu_callout_map;
37 extern cpumask_t cpu_initialized;
38
39 /*
40  * Private routines/data
41  */
42  
43 extern void smp_alloc_memory(void);
44 extern volatile unsigned long smp_invalidate_needed;
45 extern int pic_mode;
46 extern void lock_ipi_call_lock(void);
47 extern void unlock_ipi_call_lock(void);
48 extern int smp_num_siblings;
49 extern void smp_send_reschedule(int cpu);
50 void smp_stop_cpu(void);
51 extern int smp_call_function_single(int cpuid, void (*func) (void *info),
52                                 void *info, int retry, int wait);
53
54 extern cpumask_t cpu_sibling_map[NR_CPUS];
55 extern cpumask_t cpu_core_map[NR_CPUS];
56 extern u8 cpu_llc_id[NR_CPUS];
57
58 #define SMP_TRAMPOLINE_BASE 0x6000
59
60 /*
61  * On x86 all CPUs are mapped 1:1 to the APIC space.
62  * This simplifies scheduling and IPI sending and
63  * compresses data structures.
64  */
65
66 static inline int num_booting_cpus(void)
67 {
68         return cpus_weight(cpu_callout_map);
69 }
70
71 #define raw_smp_processor_id() read_pda(cpunumber)
72
73 static inline int hard_smp_processor_id(void)
74 {
75         /* we don't want to mark this access volatile - bad code generation */
76         return GET_APIC_ID(*(unsigned int *)(APIC_BASE+APIC_ID));
77 }
78
79 extern int safe_smp_processor_id(void);
80 extern int __cpu_disable(void);
81 extern void __cpu_die(unsigned int cpu);
82 extern void prefill_possible_map(void);
83 extern unsigned num_processors;
84 extern unsigned disabled_cpus;
85
86 #endif /* !ASSEMBLY */
87
88 #define NO_PROC_ID              0xFF            /* No processor magic marker */
89
90 #endif
91
92 #ifndef ASSEMBLY
93 /*
94  * Some lowlevel functions might want to know about
95  * the real APIC ID <-> CPU # mapping.
96  */
97 extern u8 x86_cpu_to_apicid[NR_CPUS];   /* physical ID */
98 extern u8 x86_cpu_to_log_apicid[NR_CPUS];
99 extern u8 bios_cpu_apicid[];
100
101 static inline unsigned int cpu_mask_to_apicid(cpumask_t cpumask)
102 {
103         return cpus_addr(cpumask)[0];
104 }
105
106 static inline int cpu_present_to_apicid(int mps_cpu)
107 {
108         if (mps_cpu < NR_CPUS)
109                 return (int)bios_cpu_apicid[mps_cpu];
110         else
111                 return BAD_APICID;
112 }
113
114 #endif /* !ASSEMBLY */
115
116 #ifndef CONFIG_SMP
117 #define stack_smp_processor_id() 0
118 #define safe_smp_processor_id() 0
119 #define cpu_logical_map(x) (x)
120 #else
121 #include <asm/thread_info.h>
122 #define stack_smp_processor_id() \
123 ({                                                              \
124         struct thread_info *ti;                                 \
125         __asm__("andq %%rsp,%0; ":"=r" (ti) : "0" (CURRENT_MASK));      \
126         ti->cpu;                                                \
127 })
128 #endif
129
130 #ifndef __ASSEMBLY__
131 static __inline int logical_smp_processor_id(void)
132 {
133         /* we don't want to mark this access volatile - bad code generation */
134         return GET_APIC_LOGICAL_ID(*(unsigned long *)(APIC_BASE+APIC_LDR));
135 }
136 #endif
137
138 #ifdef CONFIG_SMP
139 #define cpu_physical_id(cpu)            x86_cpu_to_apicid[cpu]
140 #else
141 #define cpu_physical_id(cpu)            boot_cpu_id
142 #endif
143
144 #endif
145