Merge master.kernel.org:/pub/scm/linux/kernel/git/gregkh/pci-2.6
[sfrench/cifs-2.6.git] / drivers / pci / pci.c
1 /*
2  *      $Id: pci.c,v 1.91 1999/01/21 13:34:01 davem Exp $
3  *
4  *      PCI Bus Services, see include/linux/pci.h for further explanation.
5  *
6  *      Copyright 1993 -- 1997 Drew Eckhardt, Frederic Potter,
7  *      David Mosberger-Tang
8  *
9  *      Copyright 1997 -- 2000 Martin Mares <mj@ucw.cz>
10  */
11
12 #include <linux/kernel.h>
13 #include <linux/delay.h>
14 #include <linux/init.h>
15 #include <linux/pci.h>
16 #include <linux/module.h>
17 #include <linux/spinlock.h>
18 #include <linux/string.h>
19 #include <asm/dma.h>    /* isa_dma_bridge_buggy */
20 #include "pci.h"
21
22 unsigned int pci_pm_d3_delay = 10;
23
24 /**
25  * pci_bus_max_busnr - returns maximum PCI bus number of given bus' children
26  * @bus: pointer to PCI bus structure to search
27  *
28  * Given a PCI bus, returns the highest PCI bus number present in the set
29  * including the given PCI bus and its list of child PCI buses.
30  */
31 unsigned char __devinit
32 pci_bus_max_busnr(struct pci_bus* bus)
33 {
34         struct list_head *tmp;
35         unsigned char max, n;
36
37         max = bus->subordinate;
38         list_for_each(tmp, &bus->children) {
39                 n = pci_bus_max_busnr(pci_bus_b(tmp));
40                 if(n > max)
41                         max = n;
42         }
43         return max;
44 }
45 EXPORT_SYMBOL_GPL(pci_bus_max_busnr);
46
47 #if 0
48 /**
49  * pci_max_busnr - returns maximum PCI bus number
50  *
51  * Returns the highest PCI bus number present in the system global list of
52  * PCI buses.
53  */
54 unsigned char __devinit
55 pci_max_busnr(void)
56 {
57         struct pci_bus *bus = NULL;
58         unsigned char max, n;
59
60         max = 0;
61         while ((bus = pci_find_next_bus(bus)) != NULL) {
62                 n = pci_bus_max_busnr(bus);
63                 if(n > max)
64                         max = n;
65         }
66         return max;
67 }
68
69 #endif  /*  0  */
70
71 #define PCI_FIND_CAP_TTL        48
72
73 static int __pci_find_next_cap_ttl(struct pci_bus *bus, unsigned int devfn,
74                                    u8 pos, int cap, int *ttl)
75 {
76         u8 id;
77
78         while ((*ttl)--) {
79                 pci_bus_read_config_byte(bus, devfn, pos, &pos);
80                 if (pos < 0x40)
81                         break;
82                 pos &= ~3;
83                 pci_bus_read_config_byte(bus, devfn, pos + PCI_CAP_LIST_ID,
84                                          &id);
85                 if (id == 0xff)
86                         break;
87                 if (id == cap)
88                         return pos;
89                 pos += PCI_CAP_LIST_NEXT;
90         }
91         return 0;
92 }
93
94 static int __pci_find_next_cap(struct pci_bus *bus, unsigned int devfn,
95                                u8 pos, int cap)
96 {
97         int ttl = PCI_FIND_CAP_TTL;
98
99         return __pci_find_next_cap_ttl(bus, devfn, pos, cap, &ttl);
100 }
101
102 int pci_find_next_capability(struct pci_dev *dev, u8 pos, int cap)
103 {
104         return __pci_find_next_cap(dev->bus, dev->devfn,
105                                    pos + PCI_CAP_LIST_NEXT, cap);
106 }
107 EXPORT_SYMBOL_GPL(pci_find_next_capability);
108
109 static int __pci_bus_find_cap_start(struct pci_bus *bus,
110                                     unsigned int devfn, u8 hdr_type)
111 {
112         u16 status;
113
114         pci_bus_read_config_word(bus, devfn, PCI_STATUS, &status);
115         if (!(status & PCI_STATUS_CAP_LIST))
116                 return 0;
117
118         switch (hdr_type) {
119         case PCI_HEADER_TYPE_NORMAL:
120         case PCI_HEADER_TYPE_BRIDGE:
121                 return PCI_CAPABILITY_LIST;
122         case PCI_HEADER_TYPE_CARDBUS:
123                 return PCI_CB_CAPABILITY_LIST;
124         default:
125                 return 0;
126         }
127
128         return 0;
129 }
130
131 /**
132  * pci_find_capability - query for devices' capabilities 
133  * @dev: PCI device to query
134  * @cap: capability code
135  *
136  * Tell if a device supports a given PCI capability.
137  * Returns the address of the requested capability structure within the
138  * device's PCI configuration space or 0 in case the device does not
139  * support it.  Possible values for @cap:
140  *
141  *  %PCI_CAP_ID_PM           Power Management 
142  *  %PCI_CAP_ID_AGP          Accelerated Graphics Port 
143  *  %PCI_CAP_ID_VPD          Vital Product Data 
144  *  %PCI_CAP_ID_SLOTID       Slot Identification 
145  *  %PCI_CAP_ID_MSI          Message Signalled Interrupts
146  *  %PCI_CAP_ID_CHSWP        CompactPCI HotSwap 
147  *  %PCI_CAP_ID_PCIX         PCI-X
148  *  %PCI_CAP_ID_EXP          PCI Express
149  */
150 int pci_find_capability(struct pci_dev *dev, int cap)
151 {
152         int pos;
153
154         pos = __pci_bus_find_cap_start(dev->bus, dev->devfn, dev->hdr_type);
155         if (pos)
156                 pos = __pci_find_next_cap(dev->bus, dev->devfn, pos, cap);
157
158         return pos;
159 }
160
161 /**
162  * pci_bus_find_capability - query for devices' capabilities 
163  * @bus:   the PCI bus to query
164  * @devfn: PCI device to query
165  * @cap:   capability code
166  *
167  * Like pci_find_capability() but works for pci devices that do not have a
168  * pci_dev structure set up yet. 
169  *
170  * Returns the address of the requested capability structure within the
171  * device's PCI configuration space or 0 in case the device does not
172  * support it.
173  */
174 int pci_bus_find_capability(struct pci_bus *bus, unsigned int devfn, int cap)
175 {
176         int pos;
177         u8 hdr_type;
178
179         pci_bus_read_config_byte(bus, devfn, PCI_HEADER_TYPE, &hdr_type);
180
181         pos = __pci_bus_find_cap_start(bus, devfn, hdr_type & 0x7f);
182         if (pos)
183                 pos = __pci_find_next_cap(bus, devfn, pos, cap);
184
185         return pos;
186 }
187
188 /**
189  * pci_find_ext_capability - Find an extended capability
190  * @dev: PCI device to query
191  * @cap: capability code
192  *
193  * Returns the address of the requested extended capability structure
194  * within the device's PCI configuration space or 0 if the device does
195  * not support it.  Possible values for @cap:
196  *
197  *  %PCI_EXT_CAP_ID_ERR         Advanced Error Reporting
198  *  %PCI_EXT_CAP_ID_VC          Virtual Channel
199  *  %PCI_EXT_CAP_ID_DSN         Device Serial Number
200  *  %PCI_EXT_CAP_ID_PWR         Power Budgeting
201  */
202 int pci_find_ext_capability(struct pci_dev *dev, int cap)
203 {
204         u32 header;
205         int ttl = 480; /* 3840 bytes, minimum 8 bytes per capability */
206         int pos = 0x100;
207
208         if (dev->cfg_size <= 256)
209                 return 0;
210
211         if (pci_read_config_dword(dev, pos, &header) != PCIBIOS_SUCCESSFUL)
212                 return 0;
213
214         /*
215          * If we have no capabilities, this is indicated by cap ID,
216          * cap version and next pointer all being 0.
217          */
218         if (header == 0)
219                 return 0;
220
221         while (ttl-- > 0) {
222                 if (PCI_EXT_CAP_ID(header) == cap)
223                         return pos;
224
225                 pos = PCI_EXT_CAP_NEXT(header);
226                 if (pos < 0x100)
227                         break;
228
229                 if (pci_read_config_dword(dev, pos, &header) != PCIBIOS_SUCCESSFUL)
230                         break;
231         }
232
233         return 0;
234 }
235 EXPORT_SYMBOL_GPL(pci_find_ext_capability);
236
237 static int __pci_find_next_ht_cap(struct pci_dev *dev, int pos, int ht_cap)
238 {
239         int rc, ttl = PCI_FIND_CAP_TTL;
240         u8 cap, mask;
241
242         if (ht_cap == HT_CAPTYPE_SLAVE || ht_cap == HT_CAPTYPE_HOST)
243                 mask = HT_3BIT_CAP_MASK;
244         else
245                 mask = HT_5BIT_CAP_MASK;
246
247         pos = __pci_find_next_cap_ttl(dev->bus, dev->devfn, pos,
248                                       PCI_CAP_ID_HT, &ttl);
249         while (pos) {
250                 rc = pci_read_config_byte(dev, pos + 3, &cap);
251                 if (rc != PCIBIOS_SUCCESSFUL)
252                         return 0;
253
254                 if ((cap & mask) == ht_cap)
255                         return pos;
256
257                 pos = __pci_find_next_cap_ttl(dev->bus, dev->devfn, pos,
258                                               PCI_CAP_ID_HT, &ttl);
259         }
260
261         return 0;
262 }
263 /**
264  * pci_find_next_ht_capability - query a device's Hypertransport capabilities
265  * @dev: PCI device to query
266  * @pos: Position from which to continue searching
267  * @ht_cap: Hypertransport capability code
268  *
269  * To be used in conjunction with pci_find_ht_capability() to search for
270  * all capabilities matching @ht_cap. @pos should always be a value returned
271  * from pci_find_ht_capability().
272  *
273  * NB. To be 100% safe against broken PCI devices, the caller should take
274  * steps to avoid an infinite loop.
275  */
276 int pci_find_next_ht_capability(struct pci_dev *dev, int pos, int ht_cap)
277 {
278         return __pci_find_next_ht_cap(dev, pos + PCI_CAP_LIST_NEXT, ht_cap);
279 }
280 EXPORT_SYMBOL_GPL(pci_find_next_ht_capability);
281
282 /**
283  * pci_find_ht_capability - query a device's Hypertransport capabilities
284  * @dev: PCI device to query
285  * @ht_cap: Hypertransport capability code
286  *
287  * Tell if a device supports a given Hypertransport capability.
288  * Returns an address within the device's PCI configuration space
289  * or 0 in case the device does not support the request capability.
290  * The address points to the PCI capability, of type PCI_CAP_ID_HT,
291  * which has a Hypertransport capability matching @ht_cap.
292  */
293 int pci_find_ht_capability(struct pci_dev *dev, int ht_cap)
294 {
295         int pos;
296
297         pos = __pci_bus_find_cap_start(dev->bus, dev->devfn, dev->hdr_type);
298         if (pos)
299                 pos = __pci_find_next_ht_cap(dev, pos, ht_cap);
300
301         return pos;
302 }
303 EXPORT_SYMBOL_GPL(pci_find_ht_capability);
304
305 /**
306  * pci_find_parent_resource - return resource region of parent bus of given region
307  * @dev: PCI device structure contains resources to be searched
308  * @res: child resource record for which parent is sought
309  *
310  *  For given resource region of given device, return the resource
311  *  region of parent bus the given region is contained in or where
312  *  it should be allocated from.
313  */
314 struct resource *
315 pci_find_parent_resource(const struct pci_dev *dev, struct resource *res)
316 {
317         const struct pci_bus *bus = dev->bus;
318         int i;
319         struct resource *best = NULL;
320
321         for(i = 0; i < PCI_BUS_NUM_RESOURCES; i++) {
322                 struct resource *r = bus->resource[i];
323                 if (!r)
324                         continue;
325                 if (res->start && !(res->start >= r->start && res->end <= r->end))
326                         continue;       /* Not contained */
327                 if ((res->flags ^ r->flags) & (IORESOURCE_IO | IORESOURCE_MEM))
328                         continue;       /* Wrong type */
329                 if (!((res->flags ^ r->flags) & IORESOURCE_PREFETCH))
330                         return r;       /* Exact match */
331                 if ((res->flags & IORESOURCE_PREFETCH) && !(r->flags & IORESOURCE_PREFETCH))
332                         best = r;       /* Approximating prefetchable by non-prefetchable */
333         }
334         return best;
335 }
336
337 /**
338  * pci_restore_bars - restore a devices BAR values (e.g. after wake-up)
339  * @dev: PCI device to have its BARs restored
340  *
341  * Restore the BAR values for a given device, so as to make it
342  * accessible by its driver.
343  */
344 void
345 pci_restore_bars(struct pci_dev *dev)
346 {
347         int i, numres;
348
349         switch (dev->hdr_type) {
350         case PCI_HEADER_TYPE_NORMAL:
351                 numres = 6;
352                 break;
353         case PCI_HEADER_TYPE_BRIDGE:
354                 numres = 2;
355                 break;
356         case PCI_HEADER_TYPE_CARDBUS:
357                 numres = 1;
358                 break;
359         default:
360                 /* Should never get here, but just in case... */
361                 return;
362         }
363
364         for (i = 0; i < numres; i ++)
365                 pci_update_resource(dev, &dev->resource[i], i);
366 }
367
368 int (*platform_pci_set_power_state)(struct pci_dev *dev, pci_power_t t);
369
370 /**
371  * pci_set_power_state - Set the power state of a PCI device
372  * @dev: PCI device to be suspended
373  * @state: PCI power state (D0, D1, D2, D3hot, D3cold) we're entering
374  *
375  * Transition a device to a new power state, using the Power Management 
376  * Capabilities in the device's config space.
377  *
378  * RETURN VALUE: 
379  * -EINVAL if trying to enter a lower state than we're already in.
380  * 0 if we're already in the requested state.
381  * -EIO if device does not support PCI PM.
382  * 0 if we can successfully change the power state.
383  */
384 int
385 pci_set_power_state(struct pci_dev *dev, pci_power_t state)
386 {
387         int pm, need_restore = 0;
388         u16 pmcsr, pmc;
389
390         /* bound the state we're entering */
391         if (state > PCI_D3hot)
392                 state = PCI_D3hot;
393
394         /* Validate current state:
395          * Can enter D0 from any state, but if we can only go deeper 
396          * to sleep if we're already in a low power state
397          */
398         if (state != PCI_D0 && dev->current_state > state) {
399                 printk(KERN_ERR "%s(): %s: state=%d, current state=%d\n",
400                         __FUNCTION__, pci_name(dev), state, dev->current_state);
401                 return -EINVAL;
402         } else if (dev->current_state == state)
403                 return 0;        /* we're already there */
404
405         /*
406          * If the device or the parent bridge can't support PCI PM, ignore
407          * the request if we're doing anything besides putting it into D0
408          * (which would only happen on boot).
409          */
410         if ((state == PCI_D1 || state == PCI_D2) && pci_no_d1d2(dev))
411                 return 0;
412
413         /* find PCI PM capability in list */
414         pm = pci_find_capability(dev, PCI_CAP_ID_PM);
415         
416         /* abort if the device doesn't support PM capabilities */
417         if (!pm)
418                 return -EIO; 
419
420         pci_read_config_word(dev,pm + PCI_PM_PMC,&pmc);
421         if ((pmc & PCI_PM_CAP_VER_MASK) > 3) {
422                 printk(KERN_DEBUG
423                        "PCI: %s has unsupported PM cap regs version (%u)\n",
424                        pci_name(dev), pmc & PCI_PM_CAP_VER_MASK);
425                 return -EIO;
426         }
427
428         /* check if this device supports the desired state */
429         if (state == PCI_D1 && !(pmc & PCI_PM_CAP_D1))
430                 return -EIO;
431         else if (state == PCI_D2 && !(pmc & PCI_PM_CAP_D2))
432                 return -EIO;
433
434         pci_read_config_word(dev, pm + PCI_PM_CTRL, &pmcsr);
435
436         /* If we're (effectively) in D3, force entire word to 0.
437          * This doesn't affect PME_Status, disables PME_En, and
438          * sets PowerState to 0.
439          */
440         switch (dev->current_state) {
441         case PCI_D0:
442         case PCI_D1:
443         case PCI_D2:
444                 pmcsr &= ~PCI_PM_CTRL_STATE_MASK;
445                 pmcsr |= state;
446                 break;
447         case PCI_UNKNOWN: /* Boot-up */
448                 if ((pmcsr & PCI_PM_CTRL_STATE_MASK) == PCI_D3hot
449                  && !(pmcsr & PCI_PM_CTRL_NO_SOFT_RESET))
450                         need_restore = 1;
451                 /* Fall-through: force to D0 */
452         default:
453                 pmcsr = 0;
454                 break;
455         }
456
457         /* enter specified state */
458         pci_write_config_word(dev, pm + PCI_PM_CTRL, pmcsr);
459
460         /* Mandatory power management transition delays */
461         /* see PCI PM 1.1 5.6.1 table 18 */
462         if (state == PCI_D3hot || dev->current_state == PCI_D3hot)
463                 msleep(pci_pm_d3_delay);
464         else if (state == PCI_D2 || dev->current_state == PCI_D2)
465                 udelay(200);
466
467         /*
468          * Give firmware a chance to be called, such as ACPI _PRx, _PSx
469          * Firmware method after native method ?
470          */
471         if (platform_pci_set_power_state)
472                 platform_pci_set_power_state(dev, state);
473
474         dev->current_state = state;
475
476         /* According to section 5.4.1 of the "PCI BUS POWER MANAGEMENT
477          * INTERFACE SPECIFICATION, REV. 1.2", a device transitioning
478          * from D3hot to D0 _may_ perform an internal reset, thereby
479          * going to "D0 Uninitialized" rather than "D0 Initialized".
480          * For example, at least some versions of the 3c905B and the
481          * 3c556B exhibit this behaviour.
482          *
483          * At least some laptop BIOSen (e.g. the Thinkpad T21) leave
484          * devices in a D3hot state at boot.  Consequently, we need to
485          * restore at least the BARs so that the device will be
486          * accessible to its driver.
487          */
488         if (need_restore)
489                 pci_restore_bars(dev);
490
491         return 0;
492 }
493
494 int (*platform_pci_choose_state)(struct pci_dev *dev, pm_message_t state);
495  
496 /**
497  * pci_choose_state - Choose the power state of a PCI device
498  * @dev: PCI device to be suspended
499  * @state: target sleep state for the whole system. This is the value
500  *      that is passed to suspend() function.
501  *
502  * Returns PCI power state suitable for given device and given system
503  * message.
504  */
505
506 pci_power_t pci_choose_state(struct pci_dev *dev, pm_message_t state)
507 {
508         int ret;
509
510         if (!pci_find_capability(dev, PCI_CAP_ID_PM))
511                 return PCI_D0;
512
513         if (platform_pci_choose_state) {
514                 ret = platform_pci_choose_state(dev, state);
515                 if (ret >= 0)
516                         state.event = ret;
517         }
518
519         switch (state.event) {
520         case PM_EVENT_ON:
521                 return PCI_D0;
522         case PM_EVENT_FREEZE:
523         case PM_EVENT_PRETHAW:
524                 /* REVISIT both freeze and pre-thaw "should" use D0 */
525         case PM_EVENT_SUSPEND:
526                 return PCI_D3hot;
527         default:
528                 printk("Unrecognized suspend event %d\n", state.event);
529                 BUG();
530         }
531         return PCI_D0;
532 }
533
534 EXPORT_SYMBOL(pci_choose_state);
535
536 static int pci_save_pcie_state(struct pci_dev *dev)
537 {
538         int pos, i = 0;
539         struct pci_cap_saved_state *save_state;
540         u16 *cap;
541
542         pos = pci_find_capability(dev, PCI_CAP_ID_EXP);
543         if (pos <= 0)
544                 return 0;
545
546         save_state = kzalloc(sizeof(*save_state) + sizeof(u16) * 4, GFP_KERNEL);
547         if (!save_state) {
548                 dev_err(&dev->dev, "Out of memory in pci_save_pcie_state\n");
549                 return -ENOMEM;
550         }
551         cap = (u16 *)&save_state->data[0];
552
553         pci_read_config_word(dev, pos + PCI_EXP_DEVCTL, &cap[i++]);
554         pci_read_config_word(dev, pos + PCI_EXP_LNKCTL, &cap[i++]);
555         pci_read_config_word(dev, pos + PCI_EXP_SLTCTL, &cap[i++]);
556         pci_read_config_word(dev, pos + PCI_EXP_RTCTL, &cap[i++]);
557         pci_add_saved_cap(dev, save_state);
558         return 0;
559 }
560
561 static void pci_restore_pcie_state(struct pci_dev *dev)
562 {
563         int i = 0, pos;
564         struct pci_cap_saved_state *save_state;
565         u16 *cap;
566
567         save_state = pci_find_saved_cap(dev, PCI_CAP_ID_EXP);
568         pos = pci_find_capability(dev, PCI_CAP_ID_EXP);
569         if (!save_state || pos <= 0)
570                 return;
571         cap = (u16 *)&save_state->data[0];
572
573         pci_write_config_word(dev, pos + PCI_EXP_DEVCTL, cap[i++]);
574         pci_write_config_word(dev, pos + PCI_EXP_LNKCTL, cap[i++]);
575         pci_write_config_word(dev, pos + PCI_EXP_SLTCTL, cap[i++]);
576         pci_write_config_word(dev, pos + PCI_EXP_RTCTL, cap[i++]);
577         pci_remove_saved_cap(save_state);
578         kfree(save_state);
579 }
580
581
582 static int pci_save_pcix_state(struct pci_dev *dev)
583 {
584         int pos, i = 0;
585         struct pci_cap_saved_state *save_state;
586         u16 *cap;
587
588         pos = pci_find_capability(dev, PCI_CAP_ID_PCIX);
589         if (pos <= 0)
590                 return 0;
591
592         save_state = kzalloc(sizeof(*save_state) + sizeof(u16), GFP_KERNEL);
593         if (!save_state) {
594                 dev_err(&dev->dev, "Out of memory in pci_save_pcie_state\n");
595                 return -ENOMEM;
596         }
597         cap = (u16 *)&save_state->data[0];
598
599         pci_read_config_word(dev, pos + PCI_X_CMD, &cap[i++]);
600         pci_add_saved_cap(dev, save_state);
601         return 0;
602 }
603
604 static void pci_restore_pcix_state(struct pci_dev *dev)
605 {
606         int i = 0, pos;
607         struct pci_cap_saved_state *save_state;
608         u16 *cap;
609
610         save_state = pci_find_saved_cap(dev, PCI_CAP_ID_PCIX);
611         pos = pci_find_capability(dev, PCI_CAP_ID_PCIX);
612         if (!save_state || pos <= 0)
613                 return;
614         cap = (u16 *)&save_state->data[0];
615
616         pci_write_config_word(dev, pos + PCI_X_CMD, cap[i++]);
617         pci_remove_saved_cap(save_state);
618         kfree(save_state);
619 }
620
621
622 /**
623  * pci_save_state - save the PCI configuration space of a device before suspending
624  * @dev: - PCI device that we're dealing with
625  */
626 int
627 pci_save_state(struct pci_dev *dev)
628 {
629         int i;
630         /* XXX: 100% dword access ok here? */
631         for (i = 0; i < 16; i++)
632                 pci_read_config_dword(dev, i * 4,&dev->saved_config_space[i]);
633         if ((i = pci_save_msi_state(dev)) != 0)
634                 return i;
635         if ((i = pci_save_msix_state(dev)) != 0)
636                 return i;
637         if ((i = pci_save_pcie_state(dev)) != 0)
638                 return i;
639         if ((i = pci_save_pcix_state(dev)) != 0)
640                 return i;
641         return 0;
642 }
643
644 /** 
645  * pci_restore_state - Restore the saved state of a PCI device
646  * @dev: - PCI device that we're dealing with
647  */
648 int 
649 pci_restore_state(struct pci_dev *dev)
650 {
651         int i;
652         int val;
653
654         /* PCI Express register must be restored first */
655         pci_restore_pcie_state(dev);
656
657         /*
658          * The Base Address register should be programmed before the command
659          * register(s)
660          */
661         for (i = 15; i >= 0; i--) {
662                 pci_read_config_dword(dev, i * 4, &val);
663                 if (val != dev->saved_config_space[i]) {
664                         printk(KERN_DEBUG "PM: Writing back config space on "
665                                 "device %s at offset %x (was %x, writing %x)\n",
666                                 pci_name(dev), i,
667                                 val, (int)dev->saved_config_space[i]);
668                         pci_write_config_dword(dev,i * 4,
669                                 dev->saved_config_space[i]);
670                 }
671         }
672         pci_restore_pcix_state(dev);
673         pci_restore_msi_state(dev);
674         pci_restore_msix_state(dev);
675         return 0;
676 }
677
678 /**
679  * pci_enable_device_bars - Initialize some of a device for use
680  * @dev: PCI device to be initialized
681  * @bars: bitmask of BAR's that must be configured
682  *
683  *  Initialize device before it's used by a driver. Ask low-level code
684  *  to enable selected I/O and memory resources. Wake up the device if it 
685  *  was suspended. Beware, this function can fail.
686  */
687  
688 int
689 pci_enable_device_bars(struct pci_dev *dev, int bars)
690 {
691         int err;
692
693         err = pci_set_power_state(dev, PCI_D0);
694         if (err < 0 && err != -EIO)
695                 return err;
696         err = pcibios_enable_device(dev, bars);
697         if (err < 0)
698                 return err;
699         return 0;
700 }
701
702 /**
703  * __pci_enable_device - Initialize device before it's used by a driver.
704  * @dev: PCI device to be initialized
705  *
706  *  Initialize device before it's used by a driver. Ask low-level code
707  *  to enable I/O and memory. Wake up the device if it was suspended.
708  *  Beware, this function can fail.
709  *
710  * Note this function is a backend and is not supposed to be called by
711  * normal code, use pci_enable_device() instead.
712  */
713 int
714 __pci_enable_device(struct pci_dev *dev)
715 {
716         int err;
717
718         err = pci_enable_device_bars(dev, (1 << PCI_NUM_RESOURCES) - 1);
719         if (err)
720                 return err;
721         pci_fixup_device(pci_fixup_enable, dev);
722         return 0;
723 }
724
725 /**
726  * pci_enable_device - Initialize device before it's used by a driver.
727  * @dev: PCI device to be initialized
728  *
729  *  Initialize device before it's used by a driver. Ask low-level code
730  *  to enable I/O and memory. Wake up the device if it was suspended.
731  *  Beware, this function can fail.
732  *
733  *  Note we don't actually enable the device many times if we call
734  *  this function repeatedly (we just increment the count).
735  */
736 int pci_enable_device(struct pci_dev *dev)
737 {
738         int result;
739         if (atomic_add_return(1, &dev->enable_cnt) > 1)
740                 return 0;               /* already enabled */
741         result = __pci_enable_device(dev);
742         if (result < 0)
743                 atomic_dec(&dev->enable_cnt);
744         return result;
745 }
746
747 /**
748  * pcibios_disable_device - disable arch specific PCI resources for device dev
749  * @dev: the PCI device to disable
750  *
751  * Disables architecture specific PCI resources for the device. This
752  * is the default implementation. Architecture implementations can
753  * override this.
754  */
755 void __attribute__ ((weak)) pcibios_disable_device (struct pci_dev *dev) {}
756
757 /**
758  * pci_disable_device - Disable PCI device after use
759  * @dev: PCI device to be disabled
760  *
761  * Signal to the system that the PCI device is not in use by the system
762  * anymore.  This only involves disabling PCI bus-mastering, if active.
763  *
764  * Note we don't actually disable the device until all callers of
765  * pci_device_enable() have called pci_device_disable().
766  */
767 void
768 pci_disable_device(struct pci_dev *dev)
769 {
770         u16 pci_command;
771
772         if (atomic_sub_return(1, &dev->enable_cnt) != 0)
773                 return;
774
775         if (dev->msi_enabled)
776                 disable_msi_mode(dev, pci_find_capability(dev, PCI_CAP_ID_MSI),
777                         PCI_CAP_ID_MSI);
778         if (dev->msix_enabled)
779                 disable_msi_mode(dev, pci_find_capability(dev, PCI_CAP_ID_MSI),
780                         PCI_CAP_ID_MSIX);
781
782         pci_read_config_word(dev, PCI_COMMAND, &pci_command);
783         if (pci_command & PCI_COMMAND_MASTER) {
784                 pci_command &= ~PCI_COMMAND_MASTER;
785                 pci_write_config_word(dev, PCI_COMMAND, pci_command);
786         }
787         dev->is_busmaster = 0;
788
789         pcibios_disable_device(dev);
790 }
791
792 /**
793  * pci_enable_wake - enable device to generate PME# when suspended
794  * @dev: - PCI device to operate on
795  * @state: - Current state of device.
796  * @enable: - Flag to enable or disable generation
797  * 
798  * Set the bits in the device's PM Capabilities to generate PME# when
799  * the system is suspended. 
800  *
801  * -EIO is returned if device doesn't have PM Capabilities. 
802  * -EINVAL is returned if device supports it, but can't generate wake events.
803  * 0 if operation is successful.
804  * 
805  */
806 int pci_enable_wake(struct pci_dev *dev, pci_power_t state, int enable)
807 {
808         int pm;
809         u16 value;
810
811         /* find PCI PM capability in list */
812         pm = pci_find_capability(dev, PCI_CAP_ID_PM);
813
814         /* If device doesn't support PM Capabilities, but request is to disable
815          * wake events, it's a nop; otherwise fail */
816         if (!pm) 
817                 return enable ? -EIO : 0; 
818
819         /* Check device's ability to generate PME# */
820         pci_read_config_word(dev,pm+PCI_PM_PMC,&value);
821
822         value &= PCI_PM_CAP_PME_MASK;
823         value >>= ffs(PCI_PM_CAP_PME_MASK) - 1;   /* First bit of mask */
824
825         /* Check if it can generate PME# from requested state. */
826         if (!value || !(value & (1 << state))) 
827                 return enable ? -EINVAL : 0;
828
829         pci_read_config_word(dev, pm + PCI_PM_CTRL, &value);
830
831         /* Clear PME_Status by writing 1 to it and enable PME# */
832         value |= PCI_PM_CTRL_PME_STATUS | PCI_PM_CTRL_PME_ENABLE;
833
834         if (!enable)
835                 value &= ~PCI_PM_CTRL_PME_ENABLE;
836
837         pci_write_config_word(dev, pm + PCI_PM_CTRL, value);
838         
839         return 0;
840 }
841
842 int
843 pci_get_interrupt_pin(struct pci_dev *dev, struct pci_dev **bridge)
844 {
845         u8 pin;
846
847         pin = dev->pin;
848         if (!pin)
849                 return -1;
850         pin--;
851         while (dev->bus->self) {
852                 pin = (pin + PCI_SLOT(dev->devfn)) % 4;
853                 dev = dev->bus->self;
854         }
855         *bridge = dev;
856         return pin;
857 }
858
859 /**
860  *      pci_release_region - Release a PCI bar
861  *      @pdev: PCI device whose resources were previously reserved by pci_request_region
862  *      @bar: BAR to release
863  *
864  *      Releases the PCI I/O and memory resources previously reserved by a
865  *      successful call to pci_request_region.  Call this function only
866  *      after all use of the PCI regions has ceased.
867  */
868 void pci_release_region(struct pci_dev *pdev, int bar)
869 {
870         if (pci_resource_len(pdev, bar) == 0)
871                 return;
872         if (pci_resource_flags(pdev, bar) & IORESOURCE_IO)
873                 release_region(pci_resource_start(pdev, bar),
874                                 pci_resource_len(pdev, bar));
875         else if (pci_resource_flags(pdev, bar) & IORESOURCE_MEM)
876                 release_mem_region(pci_resource_start(pdev, bar),
877                                 pci_resource_len(pdev, bar));
878 }
879
880 /**
881  *      pci_request_region - Reserved PCI I/O and memory resource
882  *      @pdev: PCI device whose resources are to be reserved
883  *      @bar: BAR to be reserved
884  *      @res_name: Name to be associated with resource.
885  *
886  *      Mark the PCI region associated with PCI device @pdev BR @bar as
887  *      being reserved by owner @res_name.  Do not access any
888  *      address inside the PCI regions unless this call returns
889  *      successfully.
890  *
891  *      Returns 0 on success, or %EBUSY on error.  A warning
892  *      message is also printed on failure.
893  */
894 int pci_request_region(struct pci_dev *pdev, int bar, const char *res_name)
895 {
896         if (pci_resource_len(pdev, bar) == 0)
897                 return 0;
898                 
899         if (pci_resource_flags(pdev, bar) & IORESOURCE_IO) {
900                 if (!request_region(pci_resource_start(pdev, bar),
901                             pci_resource_len(pdev, bar), res_name))
902                         goto err_out;
903         }
904         else if (pci_resource_flags(pdev, bar) & IORESOURCE_MEM) {
905                 if (!request_mem_region(pci_resource_start(pdev, bar),
906                                         pci_resource_len(pdev, bar), res_name))
907                         goto err_out;
908         }
909         
910         return 0;
911
912 err_out:
913         printk (KERN_WARNING "PCI: Unable to reserve %s region #%d:%llx@%llx "
914                 "for device %s\n",
915                 pci_resource_flags(pdev, bar) & IORESOURCE_IO ? "I/O" : "mem",
916                 bar + 1, /* PCI BAR # */
917                 (unsigned long long)pci_resource_len(pdev, bar),
918                 (unsigned long long)pci_resource_start(pdev, bar),
919                 pci_name(pdev));
920         return -EBUSY;
921 }
922
923
924 /**
925  *      pci_release_regions - Release reserved PCI I/O and memory resources
926  *      @pdev: PCI device whose resources were previously reserved by pci_request_regions
927  *
928  *      Releases all PCI I/O and memory resources previously reserved by a
929  *      successful call to pci_request_regions.  Call this function only
930  *      after all use of the PCI regions has ceased.
931  */
932
933 void pci_release_regions(struct pci_dev *pdev)
934 {
935         int i;
936         
937         for (i = 0; i < 6; i++)
938                 pci_release_region(pdev, i);
939 }
940
941 /**
942  *      pci_request_regions - Reserved PCI I/O and memory resources
943  *      @pdev: PCI device whose resources are to be reserved
944  *      @res_name: Name to be associated with resource.
945  *
946  *      Mark all PCI regions associated with PCI device @pdev as
947  *      being reserved by owner @res_name.  Do not access any
948  *      address inside the PCI regions unless this call returns
949  *      successfully.
950  *
951  *      Returns 0 on success, or %EBUSY on error.  A warning
952  *      message is also printed on failure.
953  */
954 int pci_request_regions(struct pci_dev *pdev, const char *res_name)
955 {
956         int i;
957         
958         for (i = 0; i < 6; i++)
959                 if(pci_request_region(pdev, i, res_name))
960                         goto err_out;
961         return 0;
962
963 err_out:
964         while(--i >= 0)
965                 pci_release_region(pdev, i);
966                 
967         return -EBUSY;
968 }
969
970 /**
971  * pci_set_master - enables bus-mastering for device dev
972  * @dev: the PCI device to enable
973  *
974  * Enables bus-mastering on the device and calls pcibios_set_master()
975  * to do the needed arch specific settings.
976  */
977 void
978 pci_set_master(struct pci_dev *dev)
979 {
980         u16 cmd;
981
982         pci_read_config_word(dev, PCI_COMMAND, &cmd);
983         if (! (cmd & PCI_COMMAND_MASTER)) {
984                 pr_debug("PCI: Enabling bus mastering for device %s\n", pci_name(dev));
985                 cmd |= PCI_COMMAND_MASTER;
986                 pci_write_config_word(dev, PCI_COMMAND, cmd);
987         }
988         dev->is_busmaster = 1;
989         pcibios_set_master(dev);
990 }
991
992 #ifdef PCI_DISABLE_MWI
993 int pci_set_mwi(struct pci_dev *dev)
994 {
995         return 0;
996 }
997
998 void pci_clear_mwi(struct pci_dev *dev)
999 {
1000 }
1001
1002 #else
1003
1004 #ifndef PCI_CACHE_LINE_BYTES
1005 #define PCI_CACHE_LINE_BYTES L1_CACHE_BYTES
1006 #endif
1007
1008 /* This can be overridden by arch code. */
1009 /* Don't forget this is measured in 32-bit words, not bytes */
1010 u8 pci_cache_line_size = PCI_CACHE_LINE_BYTES / 4;
1011
1012 /**
1013  * pci_set_cacheline_size - ensure the CACHE_LINE_SIZE register is programmed
1014  * @dev: the PCI device for which MWI is to be enabled
1015  *
1016  * Helper function for pci_set_mwi.
1017  * Originally copied from drivers/net/acenic.c.
1018  * Copyright 1998-2001 by Jes Sorensen, <jes@trained-monkey.org>.
1019  *
1020  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
1021  */
1022 static int
1023 pci_set_cacheline_size(struct pci_dev *dev)
1024 {
1025         u8 cacheline_size;
1026
1027         if (!pci_cache_line_size)
1028                 return -EINVAL;         /* The system doesn't support MWI. */
1029
1030         /* Validate current setting: the PCI_CACHE_LINE_SIZE must be
1031            equal to or multiple of the right value. */
1032         pci_read_config_byte(dev, PCI_CACHE_LINE_SIZE, &cacheline_size);
1033         if (cacheline_size >= pci_cache_line_size &&
1034             (cacheline_size % pci_cache_line_size) == 0)
1035                 return 0;
1036
1037         /* Write the correct value. */
1038         pci_write_config_byte(dev, PCI_CACHE_LINE_SIZE, pci_cache_line_size);
1039         /* Read it back. */
1040         pci_read_config_byte(dev, PCI_CACHE_LINE_SIZE, &cacheline_size);
1041         if (cacheline_size == pci_cache_line_size)
1042                 return 0;
1043
1044         printk(KERN_DEBUG "PCI: cache line size of %d is not supported "
1045                "by device %s\n", pci_cache_line_size << 2, pci_name(dev));
1046
1047         return -EINVAL;
1048 }
1049
1050 /**
1051  * pci_set_mwi - enables memory-write-invalidate PCI transaction
1052  * @dev: the PCI device for which MWI is enabled
1053  *
1054  * Enables the Memory-Write-Invalidate transaction in %PCI_COMMAND,
1055  * and then calls @pcibios_set_mwi to do the needed arch specific
1056  * operations or a generic mwi-prep function.
1057  *
1058  * RETURNS: An appropriate -ERRNO error value on error, or zero for success.
1059  */
1060 int
1061 pci_set_mwi(struct pci_dev *dev)
1062 {
1063         int rc;
1064         u16 cmd;
1065
1066         rc = pci_set_cacheline_size(dev);
1067         if (rc)
1068                 return rc;
1069
1070         pci_read_config_word(dev, PCI_COMMAND, &cmd);
1071         if (! (cmd & PCI_COMMAND_INVALIDATE)) {
1072                 pr_debug("PCI: Enabling Mem-Wr-Inval for device %s\n", pci_name(dev));
1073                 cmd |= PCI_COMMAND_INVALIDATE;
1074                 pci_write_config_word(dev, PCI_COMMAND, cmd);
1075         }
1076         
1077         return 0;
1078 }
1079
1080 /**
1081  * pci_clear_mwi - disables Memory-Write-Invalidate for device dev
1082  * @dev: the PCI device to disable
1083  *
1084  * Disables PCI Memory-Write-Invalidate transaction on the device
1085  */
1086 void
1087 pci_clear_mwi(struct pci_dev *dev)
1088 {
1089         u16 cmd;
1090
1091         pci_read_config_word(dev, PCI_COMMAND, &cmd);
1092         if (cmd & PCI_COMMAND_INVALIDATE) {
1093                 cmd &= ~PCI_COMMAND_INVALIDATE;
1094                 pci_write_config_word(dev, PCI_COMMAND, cmd);
1095         }
1096 }
1097 #endif /* ! PCI_DISABLE_MWI */
1098
1099 /**
1100  * pci_intx - enables/disables PCI INTx for device dev
1101  * @pdev: the PCI device to operate on
1102  * @enable: boolean: whether to enable or disable PCI INTx
1103  *
1104  * Enables/disables PCI INTx for device dev
1105  */
1106 void
1107 pci_intx(struct pci_dev *pdev, int enable)
1108 {
1109         u16 pci_command, new;
1110
1111         pci_read_config_word(pdev, PCI_COMMAND, &pci_command);
1112
1113         if (enable) {
1114                 new = pci_command & ~PCI_COMMAND_INTX_DISABLE;
1115         } else {
1116                 new = pci_command | PCI_COMMAND_INTX_DISABLE;
1117         }
1118
1119         if (new != pci_command) {
1120                 pci_write_config_word(pdev, PCI_COMMAND, new);
1121         }
1122 }
1123
1124 #ifndef HAVE_ARCH_PCI_SET_DMA_MASK
1125 /*
1126  * These can be overridden by arch-specific implementations
1127  */
1128 int
1129 pci_set_dma_mask(struct pci_dev *dev, u64 mask)
1130 {
1131         if (!pci_dma_supported(dev, mask))
1132                 return -EIO;
1133
1134         dev->dma_mask = mask;
1135
1136         return 0;
1137 }
1138     
1139 int
1140 pci_set_consistent_dma_mask(struct pci_dev *dev, u64 mask)
1141 {
1142         if (!pci_dma_supported(dev, mask))
1143                 return -EIO;
1144
1145         dev->dev.coherent_dma_mask = mask;
1146
1147         return 0;
1148 }
1149 #endif
1150      
1151 static int __devinit pci_init(void)
1152 {
1153         struct pci_dev *dev = NULL;
1154
1155         while ((dev = pci_get_device(PCI_ANY_ID, PCI_ANY_ID, dev)) != NULL) {
1156                 pci_fixup_device(pci_fixup_final, dev);
1157         }
1158         return 0;
1159 }
1160
1161 static int __devinit pci_setup(char *str)
1162 {
1163         while (str) {
1164                 char *k = strchr(str, ',');
1165                 if (k)
1166                         *k++ = 0;
1167                 if (*str && (str = pcibios_setup(str)) && *str) {
1168                         if (!strcmp(str, "nomsi")) {
1169                                 pci_no_msi();
1170                         } else {
1171                                 printk(KERN_ERR "PCI: Unknown option `%s'\n",
1172                                                 str);
1173                         }
1174                 }
1175                 str = k;
1176         }
1177         return 0;
1178 }
1179 early_param("pci", pci_setup);
1180
1181 device_initcall(pci_init);
1182
1183 #if defined(CONFIG_ISA) || defined(CONFIG_EISA)
1184 /* FIXME: Some boxes have multiple ISA bridges! */
1185 struct pci_dev *isa_bridge;
1186 EXPORT_SYMBOL(isa_bridge);
1187 #endif
1188
1189 EXPORT_SYMBOL_GPL(pci_restore_bars);
1190 EXPORT_SYMBOL(pci_enable_device_bars);
1191 EXPORT_SYMBOL(pci_enable_device);
1192 EXPORT_SYMBOL(pci_disable_device);
1193 EXPORT_SYMBOL(pci_find_capability);
1194 EXPORT_SYMBOL(pci_bus_find_capability);
1195 EXPORT_SYMBOL(pci_release_regions);
1196 EXPORT_SYMBOL(pci_request_regions);
1197 EXPORT_SYMBOL(pci_release_region);
1198 EXPORT_SYMBOL(pci_request_region);
1199 EXPORT_SYMBOL(pci_set_master);
1200 EXPORT_SYMBOL(pci_set_mwi);
1201 EXPORT_SYMBOL(pci_clear_mwi);
1202 EXPORT_SYMBOL_GPL(pci_intx);
1203 EXPORT_SYMBOL(pci_set_dma_mask);
1204 EXPORT_SYMBOL(pci_set_consistent_dma_mask);
1205 EXPORT_SYMBOL(pci_assign_resource);
1206 EXPORT_SYMBOL(pci_find_parent_resource);
1207
1208 EXPORT_SYMBOL(pci_set_power_state);
1209 EXPORT_SYMBOL(pci_save_state);
1210 EXPORT_SYMBOL(pci_restore_state);
1211 EXPORT_SYMBOL(pci_enable_wake);
1212
1213 /* Quirk info */
1214
1215 EXPORT_SYMBOL(isa_dma_bridge_buggy);
1216 EXPORT_SYMBOL(pci_pci_problems);