5045abe91e37f2230cf94259bd54f44b4b2919c4
[sfrench/cifs-2.6.git] / include / asm-x86 / processor_64.h
1 /*
2  * Copyright (C) 1994 Linus Torvalds
3  */
4
5 #ifndef __ASM_X86_64_PROCESSOR_H
6 #define __ASM_X86_64_PROCESSOR_H
7
8 #include <asm/segment.h>
9 #include <asm/page.h>
10 #include <asm/types.h>
11 #include <asm/sigcontext.h>
12 #include <asm/cpufeature.h>
13 #include <linux/threads.h>
14 #include <asm/msr.h>
15 #include <asm/current.h>
16 #include <asm/system.h>
17 #include <asm/mmsegment.h>
18 #include <linux/personality.h>
19 #include <asm/desc_defs.h>
20
21 extern char ignore_irq13;
22
23 extern void identify_cpu(struct cpuinfo_x86 *);
24
25 /*
26  * User space process size. 47bits minus one guard page.
27  */
28 #define TASK_SIZE64     (0x800000000000UL - 4096)
29
30 /* This decides where the kernel will search for a free chunk of vm
31  * space during mmap's.
32  */
33 #define IA32_PAGE_OFFSET ((current->personality & ADDR_LIMIT_3GB) ? 0xc0000000 : 0xFFFFe000)
34
35 #define TASK_SIZE               (test_thread_flag(TIF_IA32) ? IA32_PAGE_OFFSET : TASK_SIZE64)
36 #define TASK_SIZE_OF(child)     ((test_tsk_thread_flag(child, TIF_IA32)) ? IA32_PAGE_OFFSET : TASK_SIZE64)
37
38
39 struct i387_fxsave_struct {
40         u16     cwd;
41         u16     swd;
42         u16     twd;
43         u16     fop;
44         u64     rip;
45         u64     rdp; 
46         u32     mxcsr;
47         u32     mxcsr_mask;
48         u32     st_space[32];   /* 8*16 bytes for each FP-reg = 128 bytes */
49         u32     xmm_space[64];  /* 16*16 bytes for each XMM-reg = 256 bytes */
50         u32     padding[24];
51 } __attribute__ ((aligned (16)));
52
53 union i387_union {
54         struct i387_fxsave_struct       fxsave;
55 };
56
57 /* Save the original ist values for checking stack pointers during debugging */
58 struct orig_ist {
59         unsigned long ist[7];
60 };
61 DECLARE_PER_CPU(struct orig_ist, orig_ist);
62
63 #define INIT_THREAD  { \
64         .sp0 = (unsigned long)&init_stack + sizeof(init_stack) \
65 }
66
67 #define INIT_TSS  { \
68         .x86_tss.sp0 = (unsigned long)&init_stack + sizeof(init_stack) \
69 }
70
71 #define INIT_MMAP \
72 { &init_mm, 0, 0, NULL, PAGE_SHARED, VM_READ | VM_WRITE | VM_EXEC, 1, NULL, NULL }
73
74 #define start_thread(regs,new_rip,new_rsp) do { \
75         asm volatile("movl %0,%%fs; movl %0,%%es; movl %0,%%ds": :"r" (0));      \
76         load_gs_index(0);                                                       \
77         (regs)->ip = (new_rip);                                          \
78         (regs)->sp = (new_rsp);                                          \
79         write_pda(oldrsp, (new_rsp));                                            \
80         (regs)->cs = __USER_CS;                                                  \
81         (regs)->ss = __USER_DS;                                                  \
82         (regs)->flags = 0x200;                                                   \
83         set_fs(USER_DS);                                                         \
84 } while(0) 
85
86 /*
87  * Return saved PC of a blocked thread.
88  * What is this good for? it will be always the scheduler or ret_from_fork.
89  */
90 #define thread_saved_pc(t) (*(unsigned long *)((t)->thread.sp - 8))
91
92 #define task_pt_regs(tsk) ((struct pt_regs *)(tsk)->thread.sp0 - 1)
93 #define KSTK_ESP(tsk) -1 /* sorry. doesn't work for syscall. */
94
95
96 #if defined(CONFIG_MPSC) || defined(CONFIG_MCORE2)
97 #define ASM_NOP1 P6_NOP1
98 #define ASM_NOP2 P6_NOP2
99 #define ASM_NOP3 P6_NOP3
100 #define ASM_NOP4 P6_NOP4
101 #define ASM_NOP5 P6_NOP5
102 #define ASM_NOP6 P6_NOP6
103 #define ASM_NOP7 P6_NOP7
104 #define ASM_NOP8 P6_NOP8
105 #else
106 #define ASM_NOP1 K8_NOP1
107 #define ASM_NOP2 K8_NOP2
108 #define ASM_NOP3 K8_NOP3
109 #define ASM_NOP4 K8_NOP4
110 #define ASM_NOP5 K8_NOP5
111 #define ASM_NOP6 K8_NOP6
112 #define ASM_NOP7 K8_NOP7
113 #define ASM_NOP8 K8_NOP8
114 #endif
115
116 /* Opteron nops */
117 #define K8_NOP1 ".byte 0x90\n"
118 #define K8_NOP2 ".byte 0x66,0x90\n" 
119 #define K8_NOP3 ".byte 0x66,0x66,0x90\n" 
120 #define K8_NOP4 ".byte 0x66,0x66,0x66,0x90\n" 
121 #define K8_NOP5 K8_NOP3 K8_NOP2 
122 #define K8_NOP6 K8_NOP3 K8_NOP3
123 #define K8_NOP7 K8_NOP4 K8_NOP3
124 #define K8_NOP8 K8_NOP4 K8_NOP4
125
126 /* P6 nops */
127 /* uses eax dependencies (Intel-recommended choice) */
128 #define P6_NOP1 ".byte 0x90\n"
129 #define P6_NOP2 ".byte 0x66,0x90\n"
130 #define P6_NOP3 ".byte 0x0f,0x1f,0x00\n"
131 #define P6_NOP4 ".byte 0x0f,0x1f,0x40,0\n"
132 #define P6_NOP5 ".byte 0x0f,0x1f,0x44,0x00,0\n"
133 #define P6_NOP6 ".byte 0x66,0x0f,0x1f,0x44,0x00,0\n"
134 #define P6_NOP7 ".byte 0x0f,0x1f,0x80,0,0,0,0\n"
135 #define P6_NOP8 ".byte 0x0f,0x1f,0x84,0x00,0,0,0,0\n"
136
137 #define ASM_NOP_MAX 8
138
139 static inline void prefetchw(void *x) 
140
141         alternative_input("prefetcht0 (%1)",
142                           "prefetchw (%1)",
143                           X86_FEATURE_3DNOW,
144                           "r" (x));
145
146
147
148 #define stack_current() \
149 ({                                                              \
150         struct thread_info *ti;                                 \
151         asm("andq %%rsp,%0; ":"=r" (ti) : "0" (CURRENT_MASK));  \
152         ti->task;                                       \
153 })
154
155
156 #endif /* __ASM_X86_64_PROCESSOR_H */