x86: remove mpc_oem_bus_info()
[sfrench/cifs-2.6.git] / arch / x86 / kernel / mpparse_32.c
1 /*
2  *      Intel Multiprocessor Specification 1.1 and 1.4
3  *      compliant MP-table parsing routines.
4  *
5  *      (c) 1995 Alan Cox, Building #3 <alan@redhat.com>
6  *      (c) 1998, 1999, 2000 Ingo Molnar <mingo@redhat.com>
7  *
8  *      Fixes
9  *              Erich Boleyn    :       MP v1.4 and additional changes.
10  *              Alan Cox        :       Added EBDA scanning
11  *              Ingo Molnar     :       various cleanups and rewrites
12  *              Maciej W. Rozycki:      Bits for default MP configurations
13  *              Paul Diefenbaugh:       Added full ACPI support
14  */
15
16 #include <linux/mm.h>
17 #include <linux/init.h>
18 #include <linux/acpi.h>
19 #include <linux/delay.h>
20 #include <linux/bootmem.h>
21 #include <linux/kernel_stat.h>
22 #include <linux/mc146818rtc.h>
23 #include <linux/bitops.h>
24
25 #include <asm/smp.h>
26 #include <asm/acpi.h>
27 #include <asm/mtrr.h>
28 #include <asm/mpspec.h>
29 #include <asm/io_apic.h>
30 #include <asm/bios_ebda.h>
31
32 #include <mach_apic.h>
33 #include <mach_apicdef.h>
34 #include <mach_mpparse.h>
35
36 /* Have we found an MP table */
37 int smp_found_config;
38 unsigned int __cpuinitdata maxcpus = NR_CPUS;
39
40 /*
41  * Various Linux-internal data structures created from the
42  * MP-table.
43  */
44 int apic_version [MAX_APICS];
45 #if defined (CONFIG_MCA) || defined (CONFIG_EISA)
46 int mp_bus_id_to_type [MAX_MP_BUSSES];
47 #endif
48 DECLARE_BITMAP(mp_bus_not_pci, MAX_MP_BUSSES);
49 int mp_bus_id_to_pci_bus [MAX_MP_BUSSES] = { [0 ... MAX_MP_BUSSES-1] = -1 };
50 static int mp_current_pci_id;
51
52 /* I/O APIC entries */
53 struct mpc_config_ioapic mp_ioapics[MAX_IO_APICS];
54
55 /* # of MP IRQ source entries */
56 struct mpc_config_intsrc mp_irqs[MAX_IRQ_SOURCES];
57
58 /* MP IRQ source entries */
59 int mp_irq_entries;
60
61 int nr_ioapics;
62
63 int pic_mode;
64 unsigned long mp_lapic_addr;
65
66 unsigned int def_to_bigsmp = 0;
67
68 /* Processor that is doing the boot up */
69 unsigned int boot_cpu_physical_apicid = -1U;
70 /* Internal processor count */
71 unsigned int num_processors;
72
73 unsigned disabled_cpus __cpuinitdata;
74
75 /* Bitmask of physically existing CPUs */
76 physid_mask_t phys_cpu_present_map;
77
78 #ifndef CONFIG_SMP
79 DEFINE_PER_CPU(u16, x86_bios_cpu_apicid) = BAD_APICID;
80 #endif
81
82 /*
83  * Intel MP BIOS table parsing routines:
84  */
85
86
87 /*
88  * Checksum an MP configuration block.
89  */
90
91 static int __init mpf_checksum(unsigned char *mp, int len)
92 {
93         int sum = 0;
94
95         while (len--)
96                 sum += *mp++;
97
98         return sum & 0xFF;
99 }
100
101 /*
102  * Have to match translation table entries to main table entries by counter
103  * hence the mpc_record variable .... can't see a less disgusting way of
104  * doing this ....
105  */
106
107 static int mpc_record; 
108 static struct mpc_config_translation *translation_table[MAX_MPC_ENTRY] __cpuinitdata;
109
110 static void __cpuinit MP_processor_info (struct mpc_config_processor *m)
111 {
112         int ver, apicid, cpu;
113         cpumask_t tmp_map;
114         physid_mask_t phys_cpu;
115         
116         if (!(m->mpc_cpuflag & CPU_ENABLED)) {
117                 disabled_cpus++;
118                 return;
119         }
120
121 #ifdef CONFIG_X86_NUMAQ
122         apicid = mpc_apic_id(m, translation_table[mpc_record]);
123 #else
124         Dprintk("Processor #%d %u:%u APIC version %d\n",
125                 m->mpc_apicid,
126                 (m->mpc_cpufeature & CPU_FAMILY_MASK) >> 8,
127                 (m->mpc_cpufeature & CPU_MODEL_MASK) >> 4,
128                 m->mpc_apicver);
129         apicid = m->mpc_apicid;
130 #endif
131
132         if (m->mpc_featureflag&(1<<0))
133                 Dprintk("    Floating point unit present.\n");
134         if (m->mpc_featureflag&(1<<7))
135                 Dprintk("    Machine Exception supported.\n");
136         if (m->mpc_featureflag&(1<<8))
137                 Dprintk("    64 bit compare & exchange supported.\n");
138         if (m->mpc_featureflag&(1<<9))
139                 Dprintk("    Internal APIC present.\n");
140         if (m->mpc_featureflag&(1<<11))
141                 Dprintk("    SEP present.\n");
142         if (m->mpc_featureflag&(1<<12))
143                 Dprintk("    MTRR  present.\n");
144         if (m->mpc_featureflag&(1<<13))
145                 Dprintk("    PGE  present.\n");
146         if (m->mpc_featureflag&(1<<14))
147                 Dprintk("    MCA  present.\n");
148         if (m->mpc_featureflag&(1<<15))
149                 Dprintk("    CMOV  present.\n");
150         if (m->mpc_featureflag&(1<<16))
151                 Dprintk("    PAT  present.\n");
152         if (m->mpc_featureflag&(1<<17))
153                 Dprintk("    PSE  present.\n");
154         if (m->mpc_featureflag&(1<<18))
155                 Dprintk("    PSN  present.\n");
156         if (m->mpc_featureflag&(1<<19))
157                 Dprintk("    Cache Line Flush Instruction present.\n");
158         /* 20 Reserved */
159         if (m->mpc_featureflag&(1<<21))
160                 Dprintk("    Debug Trace and EMON Store present.\n");
161         if (m->mpc_featureflag&(1<<22))
162                 Dprintk("    ACPI Thermal Throttle Registers  present.\n");
163         if (m->mpc_featureflag&(1<<23))
164                 Dprintk("    MMX  present.\n");
165         if (m->mpc_featureflag&(1<<24))
166                 Dprintk("    FXSR  present.\n");
167         if (m->mpc_featureflag&(1<<25))
168                 Dprintk("    XMM  present.\n");
169         if (m->mpc_featureflag&(1<<26))
170                 Dprintk("    Willamette New Instructions  present.\n");
171         if (m->mpc_featureflag&(1<<27))
172                 Dprintk("    Self Snoop  present.\n");
173         if (m->mpc_featureflag&(1<<28))
174                 Dprintk("    HT  present.\n");
175         if (m->mpc_featureflag&(1<<29))
176                 Dprintk("    Thermal Monitor present.\n");
177         /* 30, 31 Reserved */
178
179
180         if (m->mpc_cpuflag & CPU_BOOTPROCESSOR) {
181                 Dprintk("    Bootup CPU\n");
182                 boot_cpu_physical_apicid = m->mpc_apicid;
183         }
184
185         ver = m->mpc_apicver;
186
187         /*
188          * Validate version
189          */
190         if (ver == 0x0) {
191                 printk(KERN_WARNING "BIOS bug, APIC version is 0 for CPU#%d! "
192                                 "fixing up to 0x10. (tell your hw vendor)\n",
193                                 m->mpc_apicid);
194                 ver = 0x10;
195         }
196         apic_version[m->mpc_apicid] = ver;
197
198         phys_cpu = apicid_to_cpu_present(apicid);
199         physids_or(phys_cpu_present_map, phys_cpu_present_map, phys_cpu);
200
201         if (num_processors >= NR_CPUS) {
202                 printk(KERN_WARNING "WARNING: NR_CPUS limit of %i reached."
203                         "  Processor ignored.\n", NR_CPUS);
204                 return;
205         }
206
207         if (num_processors >= maxcpus) {
208                 printk(KERN_WARNING "WARNING: maxcpus limit of %i reached."
209                         " Processor ignored.\n", maxcpus);
210                 return;
211         }
212
213         cpu_set(num_processors, cpu_possible_map);
214         num_processors++;
215         cpus_complement(tmp_map, cpu_present_map);
216         cpu = first_cpu(tmp_map);
217
218         if (m->mpc_cpuflag & CPU_BOOTPROCESSOR)
219                 /*
220                  * x86_bios_cpu_apicid is required to have processors listed
221                  * in same order as logical cpu numbers. Hence the first
222                  * entry is BSP, and so on.
223                  */
224                 cpu = 0;
225
226         /*
227          * Would be preferable to switch to bigsmp when CONFIG_HOTPLUG_CPU=y
228          * but we need to work other dependencies like SMP_SUSPEND etc
229          * before this can be done without some confusion.
230          * if (CPU_HOTPLUG_ENABLED || num_processors > 8)
231          *       - Ashok Raj <ashok.raj@intel.com>
232          */
233         if (num_processors > 8) {
234                 switch (boot_cpu_data.x86_vendor) {
235                 case X86_VENDOR_INTEL:
236                         if (!APIC_XAPIC(ver)) {
237                                 def_to_bigsmp = 0;
238                                 break;
239                         }
240                         /* If P4 and above fall through */
241                 case X86_VENDOR_AMD:
242                         def_to_bigsmp = 1;
243                 }
244         }
245 #ifdef CONFIG_SMP
246         /* are we being called early in kernel startup? */
247         if (x86_cpu_to_apicid_early_ptr) {
248                 u16 *cpu_to_apicid = x86_cpu_to_apicid_early_ptr;
249                 u16 *bios_cpu_apicid = x86_bios_cpu_apicid_early_ptr;
250
251                 cpu_to_apicid[cpu] = m->mpc_apicid;
252                 bios_cpu_apicid[num_processors - 1] = m->mpc_apicid;
253         } else {
254                 per_cpu(x86_cpu_to_apicid, cpu) = m->mpc_apicid;
255                 per_cpu(x86_bios_cpu_apicid, cpu) = m->mpc_apicid;
256         }
257 #endif
258         cpu_set(cpu, cpu_present_map);
259 }
260
261 static void __init MP_bus_info (struct mpc_config_bus *m)
262 {
263         char str[7];
264
265         memcpy(str, m->mpc_bustype, 6);
266         str[6] = 0;
267
268 #ifdef CONFIG_X86_NUMAQ
269         mpc_oem_bus_info(m, str, translation_table[mpc_record]);
270 #else
271         Dprintk("Bus #%d is %s\n", m->mpc_busid, str);
272 #endif
273
274 #if MAX_MP_BUSSES < 256
275         if (m->mpc_busid >= MAX_MP_BUSSES) {
276                 printk(KERN_WARNING "MP table busid value (%d) for bustype %s "
277                         " is too large, max. supported is %d\n",
278                         m->mpc_busid, str, MAX_MP_BUSSES - 1);
279                 return;
280         }
281 #endif
282
283         set_bit(m->mpc_busid, mp_bus_not_pci);
284         if (strncmp(str, BUSTYPE_PCI, sizeof(BUSTYPE_PCI)-1) == 0) {
285 #ifdef CONFIG_X86_NUMAQ
286                 mpc_oem_pci_bus(m, translation_table[mpc_record]);
287 #endif
288                 clear_bit(m->mpc_busid, mp_bus_not_pci);
289                 mp_bus_id_to_pci_bus[m->mpc_busid] = mp_current_pci_id;
290                 mp_current_pci_id++;
291 #if defined(CONFIG_EISA) || defined (CONFIG_MCA)
292                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_PCI;
293         } else if (strncmp(str, BUSTYPE_ISA, sizeof(BUSTYPE_ISA)-1) == 0) {
294                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_ISA;
295         } else if (strncmp(str, BUSTYPE_EISA, sizeof(BUSTYPE_EISA)-1) == 0) {
296                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_EISA;
297         } else if (strncmp(str, BUSTYPE_MCA, sizeof(BUSTYPE_MCA)-1) == 0) {
298                 mp_bus_id_to_type[m->mpc_busid] = MP_BUS_MCA;
299         } else {
300                 printk(KERN_WARNING "Unknown bustype %s - ignoring\n", str);
301 #endif
302         }
303 }
304
305 static int bad_ioapic(unsigned long address)
306 {
307         if (nr_ioapics >= MAX_IO_APICS) {
308                 printk(KERN_ERR "ERROR: Max # of I/O APICs (%d) exceeded "
309                        "(found %d)\n", MAX_IO_APICS, nr_ioapics);
310                 panic("Recompile kernel with bigger MAX_IO_APICS!\n");
311         }
312         if (!address) {
313                 printk(KERN_ERR "WARNING: Bogus (zero) I/O APIC address"
314                        " found in table, skipping!\n");
315                 return 1;
316         }
317         return 0;
318 }
319
320 static void __init MP_ioapic_info (struct mpc_config_ioapic *m)
321 {
322         if (!(m->mpc_flags & MPC_APIC_USABLE))
323                 return;
324
325         printk(KERN_INFO "I/O APIC #%d Version %d at 0x%X.\n",
326                 m->mpc_apicid, m->mpc_apicver, m->mpc_apicaddr);
327
328         if (bad_ioapic(m->mpc_apicaddr))
329                 return;
330
331         mp_ioapics[nr_ioapics] = *m;
332         nr_ioapics++;
333 }
334
335 static void __init MP_intsrc_info (struct mpc_config_intsrc *m)
336 {
337         mp_irqs [mp_irq_entries] = *m;
338         Dprintk("Int: type %d, pol %d, trig %d, bus %d,"
339                 " IRQ %02x, APIC ID %x, APIC INT %02x\n",
340                         m->mpc_irqtype, m->mpc_irqflag & 3,
341                         (m->mpc_irqflag >> 2) & 3, m->mpc_srcbus,
342                         m->mpc_srcbusirq, m->mpc_dstapic, m->mpc_dstirq);
343         if (++mp_irq_entries == MAX_IRQ_SOURCES)
344                 panic("Max # of irq sources exceeded!!\n");
345 }
346
347 static void __init MP_lintsrc_info (struct mpc_config_lintsrc *m)
348 {
349         Dprintk("Lint: type %d, pol %d, trig %d, bus %d,"
350                 " IRQ %02x, APIC ID %x, APIC LINT %02x\n",
351                         m->mpc_irqtype, m->mpc_irqflag & 3,
352                         (m->mpc_irqflag >> 2) &3, m->mpc_srcbusid,
353                         m->mpc_srcbusirq, m->mpc_destapic, m->mpc_destapiclint);
354 }
355
356 #ifdef CONFIG_X86_NUMAQ
357 static void __init MP_translation_info (struct mpc_config_translation *m)
358 {
359         printk(KERN_INFO "Translation: record %d, type %d, quad %d, global %d, local %d\n", mpc_record, m->trans_type, m->trans_quad, m->trans_global, m->trans_local);
360
361         if (mpc_record >= MAX_MPC_ENTRY) 
362                 printk(KERN_ERR "MAX_MPC_ENTRY exceeded!\n");
363         else
364                 translation_table[mpc_record] = m; /* stash this for later */
365         if (m->trans_quad < MAX_NUMNODES && !node_online(m->trans_quad))
366                 node_set_online(m->trans_quad);
367 }
368
369 /*
370  * Read/parse the MPC oem tables
371  */
372
373 static void __init smp_read_mpc_oem(struct mp_config_oemtable *oemtable, \
374         unsigned short oemsize)
375 {
376         int count = sizeof (*oemtable); /* the header size */
377         unsigned char *oemptr = ((unsigned char *)oemtable)+count;
378         
379         mpc_record = 0;
380         printk(KERN_INFO "Found an OEM MPC table at %8p - parsing it ... \n", oemtable);
381         if (memcmp(oemtable->oem_signature,MPC_OEM_SIGNATURE,4))
382         {
383                 printk(KERN_WARNING "SMP mpc oemtable: bad signature [%c%c%c%c]!\n",
384                         oemtable->oem_signature[0],
385                         oemtable->oem_signature[1],
386                         oemtable->oem_signature[2],
387                         oemtable->oem_signature[3]);
388                 return;
389         }
390         if (mpf_checksum((unsigned char *)oemtable,oemtable->oem_length))
391         {
392                 printk(KERN_WARNING "SMP oem mptable: checksum error!\n");
393                 return;
394         }
395         while (count < oemtable->oem_length) {
396                 switch (*oemptr) {
397                         case MP_TRANSLATION:
398                         {
399                                 struct mpc_config_translation *m=
400                                         (struct mpc_config_translation *)oemptr;
401                                 MP_translation_info(m);
402                                 oemptr += sizeof(*m);
403                                 count += sizeof(*m);
404                                 ++mpc_record;
405                                 break;
406                         }
407                         default:
408                         {
409                                 printk(KERN_WARNING "Unrecognised OEM table entry type! - %d\n", (int) *oemptr);
410                                 return;
411                         }
412                 }
413        }
414 }
415
416 static inline void mps_oem_check(struct mp_config_table *mpc, char *oem,
417                 char *productid)
418 {
419         if (strncmp(oem, "IBM NUMA", 8))
420                 printk("Warning!  May not be a NUMA-Q system!\n");
421         if (mpc->mpc_oemptr)
422                 smp_read_mpc_oem((struct mp_config_oemtable *) mpc->mpc_oemptr,
423                                 mpc->mpc_oemsize);
424 }
425 #endif  /* CONFIG_X86_NUMAQ */
426
427 /*
428  * Read/parse the MPC
429  */
430
431 static int __init smp_read_mpc(struct mp_config_table *mpc)
432 {
433         char str[16];
434         char oem[10];
435         int count=sizeof(*mpc);
436         unsigned char *mpt=((unsigned char *)mpc)+count;
437
438         if (memcmp(mpc->mpc_signature,MPC_SIGNATURE,4)) {
439                 printk(KERN_ERR "SMP mptable: bad signature [0x%x]!\n",
440                         *(u32 *)mpc->mpc_signature);
441                 return 0;
442         }
443         if (mpf_checksum((unsigned char *)mpc,mpc->mpc_length)) {
444                 printk(KERN_ERR "SMP mptable: checksum error!\n");
445                 return 0;
446         }
447         if (mpc->mpc_spec!=0x01 && mpc->mpc_spec!=0x04) {
448                 printk(KERN_ERR "SMP mptable: bad table version (%d)!!\n",
449                         mpc->mpc_spec);
450                 return 0;
451         }
452         if (!mpc->mpc_lapic) {
453                 printk(KERN_ERR "SMP mptable: null local APIC address!\n");
454                 return 0;
455         }
456         memcpy(oem,mpc->mpc_oem,8);
457         oem[8]=0;
458         printk(KERN_INFO "OEM ID: %s ",oem);
459
460         memcpy(str,mpc->mpc_productid,12);
461         str[12]=0;
462         printk("Product ID: %s ",str);
463
464         mps_oem_check(mpc, oem, str);
465
466         printk("APIC at: 0x%X\n", mpc->mpc_lapic);
467
468         /*
469          * Save the local APIC address (it might be non-default) -- but only
470          * if we're not using ACPI.
471          */
472         if (!acpi_lapic)
473                 mp_lapic_addr = mpc->mpc_lapic;
474
475         /*
476          *      Now process the configuration blocks.
477          */
478         mpc_record = 0;
479         while (count < mpc->mpc_length) {
480                 switch(*mpt) {
481                         case MP_PROCESSOR:
482                         {
483                                 struct mpc_config_processor *m=
484                                         (struct mpc_config_processor *)mpt;
485                                 /* ACPI may have already provided this data */
486                                 if (!acpi_lapic)
487                                         MP_processor_info(m);
488                                 mpt += sizeof(*m);
489                                 count += sizeof(*m);
490                                 break;
491                         }
492                         case MP_BUS:
493                         {
494                                 struct mpc_config_bus *m=
495                                         (struct mpc_config_bus *)mpt;
496                                 MP_bus_info(m);
497                                 mpt += sizeof(*m);
498                                 count += sizeof(*m);
499                                 break;
500                         }
501                         case MP_IOAPIC:
502                         {
503                                 struct mpc_config_ioapic *m=
504                                         (struct mpc_config_ioapic *)mpt;
505                                 MP_ioapic_info(m);
506                                 mpt+=sizeof(*m);
507                                 count+=sizeof(*m);
508                                 break;
509                         }
510                         case MP_INTSRC:
511                         {
512                                 struct mpc_config_intsrc *m=
513                                         (struct mpc_config_intsrc *)mpt;
514
515                                 MP_intsrc_info(m);
516                                 mpt+=sizeof(*m);
517                                 count+=sizeof(*m);
518                                 break;
519                         }
520                         case MP_LINTSRC:
521                         {
522                                 struct mpc_config_lintsrc *m=
523                                         (struct mpc_config_lintsrc *)mpt;
524                                 MP_lintsrc_info(m);
525                                 mpt+=sizeof(*m);
526                                 count+=sizeof(*m);
527                                 break;
528                         }
529                         default:
530                         {
531                                 count = mpc->mpc_length;
532                                 break;
533                         }
534                 }
535                 ++mpc_record;
536         }
537         setup_apic_routing();
538         if (!num_processors)
539                 printk(KERN_ERR "SMP mptable: no processors registered!\n");
540         return num_processors;
541 }
542
543 static int __init ELCR_trigger(unsigned int irq)
544 {
545         unsigned int port;
546
547         port = 0x4d0 + (irq >> 3);
548         return (inb(port) >> (irq & 7)) & 1;
549 }
550
551 static void __init construct_default_ioirq_mptable(int mpc_default_type)
552 {
553         struct mpc_config_intsrc intsrc;
554         int i;
555         int ELCR_fallback = 0;
556
557         intsrc.mpc_type = MP_INTSRC;
558         intsrc.mpc_irqflag = 0;                 /* conforming */
559         intsrc.mpc_srcbus = 0;
560         intsrc.mpc_dstapic = mp_ioapics[0].mpc_apicid;
561
562         intsrc.mpc_irqtype = mp_INT;
563
564         /*
565          *  If true, we have an ISA/PCI system with no IRQ entries
566          *  in the MP table. To prevent the PCI interrupts from being set up
567          *  incorrectly, we try to use the ELCR. The sanity check to see if
568          *  there is good ELCR data is very simple - IRQ0, 1, 2 and 13 can
569          *  never be level sensitive, so we simply see if the ELCR agrees.
570          *  If it does, we assume it's valid.
571          */
572         if (mpc_default_type == 5) {
573                 printk(KERN_INFO "ISA/PCI bus type with no IRQ information... falling back to ELCR\n");
574
575                 if (ELCR_trigger(0) || ELCR_trigger(1) || ELCR_trigger(2) || ELCR_trigger(13))
576                         printk(KERN_WARNING "ELCR contains invalid data... not using ELCR\n");
577                 else {
578                         printk(KERN_INFO "Using ELCR to identify PCI interrupts\n");
579                         ELCR_fallback = 1;
580                 }
581         }
582
583         for (i = 0; i < 16; i++) {
584                 switch (mpc_default_type) {
585                 case 2:
586                         if (i == 0 || i == 13)
587                                 continue;       /* IRQ0 & IRQ13 not connected */
588                         /* fall through */
589                 default:
590                         if (i == 2)
591                                 continue;       /* IRQ2 is never connected */
592                 }
593
594                 if (ELCR_fallback) {
595                         /*
596                          *  If the ELCR indicates a level-sensitive interrupt, we
597                          *  copy that information over to the MP table in the
598                          *  irqflag field (level sensitive, active high polarity).
599                          */
600                         if (ELCR_trigger(i))
601                                 intsrc.mpc_irqflag = 13;
602                         else
603                                 intsrc.mpc_irqflag = 0;
604                 }
605
606                 intsrc.mpc_srcbusirq = i;
607                 intsrc.mpc_dstirq = i ? i : 2;          /* IRQ0 to INTIN2 */
608                 MP_intsrc_info(&intsrc);
609         }
610
611         intsrc.mpc_irqtype = mp_ExtINT;
612         intsrc.mpc_srcbusirq = 0;
613         intsrc.mpc_dstirq = 0;                          /* 8259A to INTIN0 */
614         MP_intsrc_info(&intsrc);
615 }
616
617 static inline void __init construct_default_ISA_mptable(int mpc_default_type)
618 {
619         struct mpc_config_processor processor;
620         struct mpc_config_bus bus;
621         struct mpc_config_ioapic ioapic;
622         struct mpc_config_lintsrc lintsrc;
623         int linttypes[2] = { mp_ExtINT, mp_NMI };
624         int i;
625
626         /*
627          * local APIC has default address
628          */
629         mp_lapic_addr = APIC_DEFAULT_PHYS_BASE;
630
631         /*
632          * 2 CPUs, numbered 0 & 1.
633          */
634         processor.mpc_type = MP_PROCESSOR;
635         /* Either an integrated APIC or a discrete 82489DX. */
636         processor.mpc_apicver = mpc_default_type > 4 ? 0x10 : 0x01;
637         processor.mpc_cpuflag = CPU_ENABLED;
638         processor.mpc_cpufeature = (boot_cpu_data.x86 << 8) |
639                                    (boot_cpu_data.x86_model << 4) |
640                                    boot_cpu_data.x86_mask;
641         processor.mpc_featureflag = boot_cpu_data.x86_capability[0];
642         processor.mpc_reserved[0] = 0;
643         processor.mpc_reserved[1] = 0;
644         for (i = 0; i < 2; i++) {
645                 processor.mpc_apicid = i;
646                 MP_processor_info(&processor);
647         }
648
649         bus.mpc_type = MP_BUS;
650         bus.mpc_busid = 0;
651         switch (mpc_default_type) {
652                 default:
653                         printk("???\n");
654                         printk(KERN_ERR "Unknown standard configuration %d\n",
655                                 mpc_default_type);
656                         /* fall through */
657                 case 1:
658                 case 5:
659                         memcpy(bus.mpc_bustype, "ISA   ", 6);
660                         break;
661                 case 2:
662                 case 6:
663                 case 3:
664                         memcpy(bus.mpc_bustype, "EISA  ", 6);
665                         break;
666                 case 4:
667                 case 7:
668                         memcpy(bus.mpc_bustype, "MCA   ", 6);
669         }
670         MP_bus_info(&bus);
671         if (mpc_default_type > 4) {
672                 bus.mpc_busid = 1;
673                 memcpy(bus.mpc_bustype, "PCI   ", 6);
674                 MP_bus_info(&bus);
675         }
676
677         ioapic.mpc_type = MP_IOAPIC;
678         ioapic.mpc_apicid = 2;
679         ioapic.mpc_apicver = mpc_default_type > 4 ? 0x10 : 0x01;
680         ioapic.mpc_flags = MPC_APIC_USABLE;
681         ioapic.mpc_apicaddr = 0xFEC00000;
682         MP_ioapic_info(&ioapic);
683
684         /*
685          * We set up most of the low 16 IO-APIC pins according to MPS rules.
686          */
687         construct_default_ioirq_mptable(mpc_default_type);
688
689         lintsrc.mpc_type = MP_LINTSRC;
690         lintsrc.mpc_irqflag = 0;                /* conforming */
691         lintsrc.mpc_srcbusid = 0;
692         lintsrc.mpc_srcbusirq = 0;
693         lintsrc.mpc_destapic = MP_APIC_ALL;
694         for (i = 0; i < 2; i++) {
695                 lintsrc.mpc_irqtype = linttypes[i];
696                 lintsrc.mpc_destapiclint = i;
697                 MP_lintsrc_info(&lintsrc);
698         }
699 }
700
701 static struct intel_mp_floating *mpf_found;
702
703 /*
704  * Scan the memory blocks for an SMP configuration block.
705  */
706 void __init get_smp_config (void)
707 {
708         struct intel_mp_floating *mpf = mpf_found;
709
710         /*
711          * ACPI supports both logical (e.g. Hyper-Threading) and physical 
712          * processors, where MPS only supports physical.
713          */
714         if (acpi_lapic && acpi_ioapic) {
715                 printk(KERN_INFO "Using ACPI (MADT) for SMP configuration information\n");
716                 return;
717         }
718         else if (acpi_lapic)
719                 printk(KERN_INFO "Using ACPI for processor (LAPIC) configuration information\n");
720
721         printk(KERN_INFO "Intel MultiProcessor Specification v1.%d\n", mpf->mpf_specification);
722         if (mpf->mpf_feature2 & (1<<7)) {
723                 printk(KERN_INFO "    IMCR and PIC compatibility mode.\n");
724                 pic_mode = 1;
725         } else {
726                 printk(KERN_INFO "    Virtual Wire compatibility mode.\n");
727                 pic_mode = 0;
728         }
729
730         /*
731          * Now see if we need to read further.
732          */
733         if (mpf->mpf_feature1 != 0) {
734
735                 printk(KERN_INFO "Default MP configuration #%d\n", mpf->mpf_feature1);
736                 construct_default_ISA_mptable(mpf->mpf_feature1);
737
738         } else if (mpf->mpf_physptr) {
739
740                 /*
741                  * Read the physical hardware table.  Anything here will
742                  * override the defaults.
743                  */
744                 if (!smp_read_mpc(phys_to_virt(mpf->mpf_physptr))) {
745                         smp_found_config = 0;
746                         printk(KERN_ERR "BIOS bug, MP table errors detected!...\n");
747                         printk(KERN_ERR "... disabling SMP support. (tell your hw vendor)\n");
748                         return;
749                 }
750                 /*
751                  * If there are no explicit MP IRQ entries, then we are
752                  * broken.  We set up most of the low 16 IO-APIC pins to
753                  * ISA defaults and hope it will work.
754                  */
755                 if (!mp_irq_entries) {
756                         struct mpc_config_bus bus;
757
758                         printk(KERN_ERR "BIOS bug, no explicit IRQ entries, using default mptable. (tell your hw vendor)\n");
759
760                         bus.mpc_type = MP_BUS;
761                         bus.mpc_busid = 0;
762                         memcpy(bus.mpc_bustype, "ISA   ", 6);
763                         MP_bus_info(&bus);
764
765                         construct_default_ioirq_mptable(0);
766                 }
767
768         } else
769                 BUG();
770
771         printk(KERN_INFO "Processors: %d\n", num_processors);
772         /*
773          * Only use the first configuration found.
774          */
775 }
776
777 static int __init smp_scan_config (unsigned long base, unsigned long length)
778 {
779         unsigned long *bp = phys_to_virt(base);
780         struct intel_mp_floating *mpf;
781
782         printk(KERN_INFO "Scan SMP from %p for %ld bytes.\n", bp,length);
783         if (sizeof(*mpf) != 16)
784                 printk("Error: MPF size\n");
785
786         while (length > 0) {
787                 mpf = (struct intel_mp_floating *)bp;
788                 if ((*bp == SMP_MAGIC_IDENT) &&
789                         (mpf->mpf_length == 1) &&
790                         !mpf_checksum((unsigned char *)bp, 16) &&
791                         ((mpf->mpf_specification == 1)
792                                 || (mpf->mpf_specification == 4)) ) {
793
794                         smp_found_config = 1;
795                         printk(KERN_INFO "found SMP MP-table at [%p] %08lx\n",
796                                 mpf, virt_to_phys(mpf));
797                         reserve_bootmem(virt_to_phys(mpf), PAGE_SIZE,
798                                         BOOTMEM_DEFAULT);
799                         if (mpf->mpf_physptr) {
800                                 /*
801                                  * We cannot access to MPC table to compute
802                                  * table size yet, as only few megabytes from
803                                  * the bottom is mapped now.
804                                  * PC-9800's MPC table places on the very last
805                                  * of physical memory; so that simply reserving
806                                  * PAGE_SIZE from mpg->mpf_physptr yields BUG()
807                                  * in reserve_bootmem.
808                                  */
809                                 unsigned long size = PAGE_SIZE;
810                                 unsigned long end = max_low_pfn * PAGE_SIZE;
811                                 if (mpf->mpf_physptr + size > end)
812                                         size = end - mpf->mpf_physptr;
813                                 reserve_bootmem(mpf->mpf_physptr, size,
814                                                 BOOTMEM_DEFAULT);
815                         }
816
817                         mpf_found = mpf;
818                         return 1;
819                 }
820                 bp += 4;
821                 length -= 16;
822         }
823         return 0;
824 }
825
826 void __init find_smp_config (void)
827 {
828         unsigned int address;
829
830         /*
831          * FIXME: Linux assumes you have 640K of base ram..
832          * this continues the error...
833          *
834          * 1) Scan the bottom 1K for a signature
835          * 2) Scan the top 1K of base RAM
836          * 3) Scan the 64K of bios
837          */
838         if (smp_scan_config(0x0,0x400) ||
839                 smp_scan_config(639*0x400,0x400) ||
840                         smp_scan_config(0xF0000,0x10000))
841                 return;
842         /*
843          * If it is an SMP machine we should know now, unless the
844          * configuration is in an EISA/MCA bus machine with an
845          * extended bios data area.
846          *
847          * there is a real-mode segmented pointer pointing to the
848          * 4K EBDA area at 0x40E, calculate and scan it here.
849          *
850          * NOTE! There are Linux loaders that will corrupt the EBDA
851          * area, and as such this kind of SMP config may be less
852          * trustworthy, simply because the SMP table may have been
853          * stomped on during early boot. These loaders are buggy and
854          * should be fixed.
855          *
856          * MP1.4 SPEC states to only scan first 1K of 4K EBDA.
857          */
858
859         address = get_bios_ebda();
860         if (address)
861                 smp_scan_config(address, 0x400);
862 }
863
864 int es7000_plat;
865
866 /* --------------------------------------------------------------------------
867                             ACPI-based MP Configuration
868    -------------------------------------------------------------------------- */
869
870 #ifdef CONFIG_ACPI
871
872 void __init mp_register_lapic_address(u64 address)
873 {
874         mp_lapic_addr = (unsigned long) address;
875
876         set_fixmap_nocache(FIX_APIC_BASE, mp_lapic_addr);
877
878         if (boot_cpu_physical_apicid == -1U)
879                 boot_cpu_physical_apicid = GET_APIC_ID(apic_read(APIC_ID));
880
881         Dprintk("Boot CPU = %d\n", boot_cpu_physical_apicid);
882 }
883
884 void __cpuinit mp_register_lapic (u8 id, u8 enabled)
885 {
886         struct mpc_config_processor processor;
887         int boot_cpu = 0;
888         
889         if (MAX_APICS - id <= 0) {
890                 printk(KERN_WARNING "Processor #%d invalid (max %d)\n",
891                         id, MAX_APICS);
892                 return;
893         }
894
895         if (id == boot_cpu_physical_apicid)
896                 boot_cpu = 1;
897
898         processor.mpc_type = MP_PROCESSOR;
899         processor.mpc_apicid = id;
900         processor.mpc_apicver = GET_APIC_VERSION(apic_read(APIC_LVR));
901         processor.mpc_cpuflag = (enabled ? CPU_ENABLED : 0);
902         processor.mpc_cpuflag |= (boot_cpu ? CPU_BOOTPROCESSOR : 0);
903         processor.mpc_cpufeature = (boot_cpu_data.x86 << 8) | 
904                 (boot_cpu_data.x86_model << 4) | boot_cpu_data.x86_mask;
905         processor.mpc_featureflag = boot_cpu_data.x86_capability[0];
906         processor.mpc_reserved[0] = 0;
907         processor.mpc_reserved[1] = 0;
908
909         MP_processor_info(&processor);
910 }
911
912 #ifdef  CONFIG_X86_IO_APIC
913
914 #define MP_ISA_BUS              0
915 #define MP_MAX_IOAPIC_PIN       127
916
917 static struct mp_ioapic_routing {
918         int                     apic_id;
919         int                     gsi_base;
920         int                     gsi_end;
921         u32                     pin_programmed[4];
922 } mp_ioapic_routing[MAX_IO_APICS];
923
924 static int mp_find_ioapic (int gsi)
925 {
926         int i = 0;
927
928         /* Find the IOAPIC that manages this GSI. */
929         for (i = 0; i < nr_ioapics; i++) {
930                 if ((gsi >= mp_ioapic_routing[i].gsi_base)
931                         && (gsi <= mp_ioapic_routing[i].gsi_end))
932                         return i;
933         }
934
935         printk(KERN_ERR "ERROR: Unable to locate IOAPIC for GSI %d\n", gsi);
936
937         return -1;
938 }
939
940 static u8 uniq_ioapic_id(u8 id)
941 {
942         if ((boot_cpu_data.x86_vendor == X86_VENDOR_INTEL) &&
943             !APIC_XAPIC(apic_version[boot_cpu_physical_apicid]))
944                 return io_apic_get_unique_id(nr_ioapics, id);
945         else
946                 return id;
947 }
948
949 void __init mp_register_ioapic(u8 id, u32 address, u32 gsi_base)
950 {
951         int idx = 0;
952
953         if (bad_ioapic(address))
954                 return;
955
956         idx = nr_ioapics;
957
958         mp_ioapics[idx].mpc_type = MP_IOAPIC;
959         mp_ioapics[idx].mpc_flags = MPC_APIC_USABLE;
960         mp_ioapics[idx].mpc_apicaddr = address;
961
962         set_fixmap_nocache(FIX_IO_APIC_BASE_0 + idx, address);
963         mp_ioapics[idx].mpc_apicid = uniq_ioapic_id(id);
964         mp_ioapics[idx].mpc_apicver = io_apic_get_version(idx);
965         
966         /* 
967          * Build basic GSI lookup table to facilitate gsi->io_apic lookups
968          * and to prevent reprogramming of IOAPIC pins (PCI GSIs).
969          */
970         mp_ioapic_routing[idx].apic_id = mp_ioapics[idx].mpc_apicid;
971         mp_ioapic_routing[idx].gsi_base = gsi_base;
972         mp_ioapic_routing[idx].gsi_end = gsi_base +
973                 io_apic_get_redir_entries(idx);
974
975         printk("IOAPIC[%d]: apic_id %d, version %d, address 0x%x, "
976                "GSI %d-%d\n", idx, mp_ioapics[idx].mpc_apicid,
977                mp_ioapics[idx].mpc_apicver,
978                mp_ioapics[idx].mpc_apicaddr,
979                mp_ioapic_routing[idx].gsi_base,
980                mp_ioapic_routing[idx].gsi_end);
981
982         nr_ioapics++;
983 }
984
985 void __init
986 mp_override_legacy_irq(u8 bus_irq, u8 polarity, u8 trigger, u32 gsi)
987 {
988         struct mpc_config_intsrc intsrc;
989         int                     ioapic = -1;
990         int                     pin = -1;
991
992         /* 
993          * Convert 'gsi' to 'ioapic.pin'.
994          */
995         ioapic = mp_find_ioapic(gsi);
996         if (ioapic < 0)
997                 return;
998         pin = gsi - mp_ioapic_routing[ioapic].gsi_base;
999
1000         /*
1001          * TBD: This check is for faulty timer entries, where the override
1002          *      erroneously sets the trigger to level, resulting in a HUGE 
1003          *      increase of timer interrupts!
1004          */
1005         if ((bus_irq == 0) && (trigger == 3))
1006                 trigger = 1;
1007
1008         intsrc.mpc_type = MP_INTSRC;
1009         intsrc.mpc_irqtype = mp_INT;
1010         intsrc.mpc_irqflag = (trigger << 2) | polarity;
1011         intsrc.mpc_srcbus = MP_ISA_BUS;
1012         intsrc.mpc_srcbusirq = bus_irq;                                /* IRQ */
1013         intsrc.mpc_dstapic = mp_ioapics[ioapic].mpc_apicid;        /* APIC ID */
1014         intsrc.mpc_dstirq = pin;                                    /* INTIN# */
1015
1016         Dprintk("Int: type %d, pol %d, trig %d, bus %d, irq %d, %d-%d\n",
1017                 intsrc.mpc_irqtype, intsrc.mpc_irqflag & 3, 
1018                 (intsrc.mpc_irqflag >> 2) & 3, intsrc.mpc_srcbus, 
1019                 intsrc.mpc_srcbusirq, intsrc.mpc_dstapic, intsrc.mpc_dstirq);
1020
1021         mp_irqs[mp_irq_entries] = intsrc;
1022         if (++mp_irq_entries == MAX_IRQ_SOURCES)
1023                 panic("Max # of irq sources exceeded!\n");
1024 }
1025
1026 void __init mp_config_acpi_legacy_irqs (void)
1027 {
1028         struct mpc_config_intsrc intsrc;
1029         int i = 0;
1030         int ioapic = -1;
1031
1032 #if defined (CONFIG_MCA) || defined (CONFIG_EISA)
1033         /* 
1034          * Fabricate the legacy ISA bus (bus #31).
1035          */
1036         mp_bus_id_to_type[MP_ISA_BUS] = MP_BUS_ISA;
1037 #endif
1038         set_bit(MP_ISA_BUS, mp_bus_not_pci);
1039         Dprintk("Bus #%d is ISA\n", MP_ISA_BUS);
1040
1041         /*
1042          * Older generations of ES7000 have no legacy identity mappings
1043          */
1044         if (es7000_plat == 1)
1045                 return;
1046
1047         /* 
1048          * Locate the IOAPIC that manages the ISA IRQs (0-15). 
1049          */
1050         ioapic = mp_find_ioapic(0);
1051         if (ioapic < 0)
1052                 return;
1053
1054         intsrc.mpc_type = MP_INTSRC;
1055         intsrc.mpc_irqflag = 0;                                 /* Conforming */
1056         intsrc.mpc_srcbus = MP_ISA_BUS;
1057         intsrc.mpc_dstapic = mp_ioapics[ioapic].mpc_apicid;
1058
1059         /* 
1060          * Use the default configuration for the IRQs 0-15.  Unless
1061          * overridden by (MADT) interrupt source override entries.
1062          */
1063         for (i = 0; i < 16; i++) {
1064                 int idx;
1065
1066                 for (idx = 0; idx < mp_irq_entries; idx++) {
1067                         struct mpc_config_intsrc *irq = mp_irqs + idx;
1068
1069                         /* Do we already have a mapping for this ISA IRQ? */
1070                         if (irq->mpc_srcbus == MP_ISA_BUS && irq->mpc_srcbusirq == i)
1071                                 break;
1072
1073                         /* Do we already have a mapping for this IOAPIC pin */
1074                         if ((irq->mpc_dstapic == intsrc.mpc_dstapic) &&
1075                                 (irq->mpc_dstirq == i))
1076                                 break;
1077                 }
1078
1079                 if (idx != mp_irq_entries) {
1080                         printk(KERN_DEBUG "ACPI: IRQ%d used by override.\n", i);
1081                         continue;                       /* IRQ already used */
1082                 }
1083
1084                 intsrc.mpc_irqtype = mp_INT;
1085                 intsrc.mpc_srcbusirq = i;                  /* Identity mapped */
1086                 intsrc.mpc_dstirq = i;
1087
1088                 Dprintk("Int: type %d, pol %d, trig %d, bus %d, irq %d, "
1089                         "%d-%d\n", intsrc.mpc_irqtype, intsrc.mpc_irqflag & 3, 
1090                         (intsrc.mpc_irqflag >> 2) & 3, intsrc.mpc_srcbus, 
1091                         intsrc.mpc_srcbusirq, intsrc.mpc_dstapic, 
1092                         intsrc.mpc_dstirq);
1093
1094                 mp_irqs[mp_irq_entries] = intsrc;
1095                 if (++mp_irq_entries == MAX_IRQ_SOURCES)
1096                         panic("Max # of irq sources exceeded!\n");
1097         }
1098 }
1099
1100 #define MAX_GSI_NUM     4096
1101 #define IRQ_COMPRESSION_START   64
1102
1103 int mp_register_gsi(u32 gsi, int triggering, int polarity)
1104 {
1105         int ioapic = -1;
1106         int ioapic_pin = 0;
1107         int idx, bit = 0;
1108         static int pci_irq = IRQ_COMPRESSION_START;
1109         /*
1110          * Mapping between Global System Interrupts, which
1111          * represent all possible interrupts, and IRQs
1112          * assigned to actual devices.
1113          */
1114         static int              gsi_to_irq[MAX_GSI_NUM];
1115
1116         /* Don't set up the ACPI SCI because it's already set up */
1117         if (acpi_gbl_FADT.sci_interrupt == gsi)
1118                 return gsi;
1119
1120         ioapic = mp_find_ioapic(gsi);
1121         if (ioapic < 0) {
1122                 printk(KERN_WARNING "No IOAPIC for GSI %u\n", gsi);
1123                 return gsi;
1124         }
1125
1126         ioapic_pin = gsi - mp_ioapic_routing[ioapic].gsi_base;
1127
1128         if (ioapic_renumber_irq)
1129                 gsi = ioapic_renumber_irq(ioapic, gsi);
1130
1131         /* 
1132          * Avoid pin reprogramming.  PRTs typically include entries  
1133          * with redundant pin->gsi mappings (but unique PCI devices);
1134          * we only program the IOAPIC on the first.
1135          */
1136         bit = ioapic_pin % 32;
1137         idx = (ioapic_pin < 32) ? 0 : (ioapic_pin / 32);
1138         if (idx > 3) {
1139                 printk(KERN_ERR "Invalid reference to IOAPIC pin "
1140                         "%d-%d\n", mp_ioapic_routing[ioapic].apic_id, 
1141                         ioapic_pin);
1142                 return gsi;
1143         }
1144         if ((1<<bit) & mp_ioapic_routing[ioapic].pin_programmed[idx]) {
1145                 Dprintk(KERN_DEBUG "Pin %d-%d already programmed\n",
1146                         mp_ioapic_routing[ioapic].apic_id, ioapic_pin);
1147                 return (gsi < IRQ_COMPRESSION_START ? gsi : gsi_to_irq[gsi]);
1148         }
1149
1150         mp_ioapic_routing[ioapic].pin_programmed[idx] |= (1<<bit);
1151
1152         /*
1153          * For GSI >= 64, use IRQ compression
1154          */
1155         if ((gsi >= IRQ_COMPRESSION_START)
1156                 && (triggering == ACPI_LEVEL_SENSITIVE)) {
1157                 /*
1158                  * For PCI devices assign IRQs in order, avoiding gaps
1159                  * due to unused I/O APIC pins.
1160                  */
1161                 int irq = gsi;
1162                 if (gsi < MAX_GSI_NUM) {
1163                         /*
1164                          * Retain the VIA chipset work-around (gsi > 15), but
1165                          * avoid a problem where the 8254 timer (IRQ0) is setup
1166                          * via an override (so it's not on pin 0 of the ioapic),
1167                          * and at the same time, the pin 0 interrupt is a PCI
1168                          * type.  The gsi > 15 test could cause these two pins
1169                          * to be shared as IRQ0, and they are not shareable.
1170                          * So test for this condition, and if necessary, avoid
1171                          * the pin collision.
1172                          */
1173                         if (gsi > 15 || (gsi == 0 && !timer_uses_ioapic_pin_0))
1174                                 gsi = pci_irq++;
1175                         /*
1176                          * Don't assign IRQ used by ACPI SCI
1177                          */
1178                         if (gsi == acpi_gbl_FADT.sci_interrupt)
1179                                 gsi = pci_irq++;
1180                         gsi_to_irq[irq] = gsi;
1181                 } else {
1182                         printk(KERN_ERR "GSI %u is too high\n", gsi);
1183                         return gsi;
1184                 }
1185         }
1186
1187         io_apic_set_pci_routing(ioapic, ioapic_pin, gsi,
1188                     triggering == ACPI_EDGE_SENSITIVE ? 0 : 1,
1189                     polarity == ACPI_ACTIVE_HIGH ? 0 : 1);
1190         return gsi;
1191 }
1192
1193 #endif /* CONFIG_X86_IO_APIC */
1194 #endif /* CONFIG_ACPI */