Merge branch 'release' of git://git.kernel.org/pub/scm/linux/kernel/git/lenb/linux...
[sfrench/cifs-2.6.git] / drivers / staging / b3dfg / b3dfg.c
1  /*
2  * Brontes PCI frame grabber driver
3  *
4  * Copyright (C) 2008 3M Company
5  * Contact: Justin Bronder <jsbronder@brontes3d.com>
6  * Original Authors: Daniel Drake <ddrake@brontes3d.com>
7  *                   Duane Griffin <duaneg@dghda.com>
8  *
9  * This program is free software; you can redistribute it and/or modify
10  * it under the terms of the GNU General Public License as published by
11  * the Free Software Foundation; either version 2 of the License, or
12  * (at your option) any later version.
13  *
14  * This program is distributed in the hope that it will be useful,
15  * but WITHOUT ANY WARRANTY; without even the implied warranty of
16  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
17  * GNU General Public License for more details.
18  *
19  * You should have received a copy of the GNU General Public License
20  * along with this program; if not, write to the Free Software
21  * Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA 02111-1307 USA
22  */
23
24 #include <linux/device.h>
25 #include <linux/fs.h>
26 #include <linux/interrupt.h>
27 #include <linux/spinlock.h>
28 #include <linux/ioctl.h>
29 #include <linux/kernel.h>
30 #include <linux/module.h>
31 #include <linux/pci.h>
32 #include <linux/types.h>
33 #include <linux/cdev.h>
34 #include <linux/list.h>
35 #include <linux/poll.h>
36 #include <linux/wait.h>
37 #include <linux/mm.h>
38 #include <linux/version.h>
39 #include <linux/uaccess.h>
40
41 static unsigned int b3dfg_nbuf = 2;
42
43 module_param_named(buffer_count, b3dfg_nbuf, uint, 0444);
44
45 MODULE_PARM_DESC(buffer_count, "Number of buffers (min 2, default 2)\n");
46
47 MODULE_AUTHOR("Daniel Drake <ddrake@brontes3d.com>");
48 MODULE_DESCRIPTION("Brontes frame grabber driver");
49 MODULE_LICENSE("GPL");
50
51 #define DRIVER_NAME "b3dfg"
52 #define B3DFG_MAX_DEVS 4
53 #define B3DFG_FRAMES_PER_BUFFER 3
54
55 #define B3DFG_BAR_REGS  0
56 #define B3DFG_REGS_LENGTH 0x10000
57
58 #define B3DFG_IOC_MAGIC         0xb3 /* dfg :-) */
59 #define B3DFG_IOCGFRMSZ         _IOR(B3DFG_IOC_MAGIC, 1, int)
60 #define B3DFG_IOCTNUMBUFS       _IO(B3DFG_IOC_MAGIC, 2)
61 #define B3DFG_IOCTTRANS         _IO(B3DFG_IOC_MAGIC, 3)
62 #define B3DFG_IOCTQUEUEBUF      _IO(B3DFG_IOC_MAGIC, 4)
63 #define B3DFG_IOCTPOLLBUF       _IOWR(B3DFG_IOC_MAGIC, 5, struct b3dfg_poll)
64 #define B3DFG_IOCTWAITBUF       _IOWR(B3DFG_IOC_MAGIC, 6, struct b3dfg_wait)
65 #define B3DFG_IOCGWANDSTAT      _IOR(B3DFG_IOC_MAGIC, 7, int)
66
67 enum {
68         /* number of 4kb pages per frame */
69         B3D_REG_FRM_SIZE = 0x0,
70
71         /* bit 0: set to enable interrupts
72          * bit 1: set to enable cable status change interrupts */
73         B3D_REG_HW_CTRL = 0x4,
74
75         /* bit 0-1 - 1-based ID of next pending frame transfer (0 = none)
76          * bit 2 indicates the previous DMA transfer has completed
77          * bit 3 indicates wand cable status change
78          * bit 8:15 - counter of number of discarded triplets */
79         B3D_REG_DMA_STS = 0x8,
80
81         /* bit 0: wand status (1 = present, 0 = disconnected) */
82         B3D_REG_WAND_STS = 0xc,
83
84         /* bus address for DMA transfers. lower 2 bits must be zero because DMA
85          * works with 32 bit word size. */
86         B3D_REG_EC220_DMA_ADDR = 0x8000,
87
88         /* bit 20:0 - number of 32 bit words to be transferred
89          * bit 21:31 - reserved */
90         B3D_REG_EC220_TRF_SIZE = 0x8004,
91
92         /* bit 0 - error bit
93          * bit 1 - interrupt bit (set to generate interrupt at end of transfer)
94          * bit 2 - start bit (set to start transfer)
95          * bit 3 - direction (0 = DMA_TO_DEVICE, 1 = DMA_FROM_DEVICE
96          * bit 4:31 - reserved */
97         B3D_REG_EC220_DMA_STS = 0x8008,
98 };
99
100 enum b3dfg_buffer_state {
101         B3DFG_BUFFER_POLLED = 0,
102         B3DFG_BUFFER_PENDING,
103         B3DFG_BUFFER_POPULATED,
104 };
105
106 struct b3dfg_buffer {
107         unsigned char *frame[B3DFG_FRAMES_PER_BUFFER];
108         struct list_head list;
109         u8 state;
110 };
111
112 struct b3dfg_dev {
113
114         /* no protection needed: all finalized at initialization time */
115         struct pci_dev *pdev;
116         struct cdev chardev;
117         struct device *dev;
118         void __iomem *regs;
119         unsigned int frame_size;
120
121         /*
122          * Protects buffer state, including buffer_queue, triplet_ready,
123          * cur_dma_frame_idx & cur_dma_frame_addr.
124          */
125         spinlock_t buffer_lock;
126         struct b3dfg_buffer *buffers;
127         struct list_head buffer_queue;
128
129         /* Last frame in triplet transferred (-1 if none). */
130         int cur_dma_frame_idx;
131
132         /* Current frame's address for DMA. */
133         dma_addr_t cur_dma_frame_addr;
134
135         /*
136          * Protects cstate_tstamp.
137          * Nests inside buffer_lock.
138          */
139         spinlock_t cstate_lock;
140         unsigned long cstate_tstamp;
141
142         /*
143          * Protects triplets_dropped.
144          * Nests inside buffers_lock.
145          */
146         spinlock_t triplets_dropped_lock;
147         unsigned int triplets_dropped;
148
149         wait_queue_head_t buffer_waitqueue;
150
151         unsigned int transmission_enabled:1;
152         unsigned int triplet_ready:1;
153 };
154
155 static u8 b3dfg_devices[B3DFG_MAX_DEVS];
156
157 static struct class *b3dfg_class;
158 static dev_t b3dfg_devt;
159
160 static const struct pci_device_id b3dfg_ids[] __devinitdata = {
161         { PCI_DEVICE(0x0b3d, 0x0001) },
162         { },
163 };
164
165 MODULE_DEVICE_TABLE(pci, b3dfg_ids);
166
167 /***** user-visible types *****/
168
169 struct b3dfg_poll {
170         int buffer_idx;
171         unsigned int triplets_dropped;
172 };
173
174 struct b3dfg_wait {
175         int buffer_idx;
176         unsigned int timeout;
177         unsigned int triplets_dropped;
178 };
179
180 /**** register I/O ****/
181
182 static u32 b3dfg_read32(struct b3dfg_dev *fgdev, u16 reg)
183 {
184         return ioread32(fgdev->regs + reg);
185 }
186
187 static void b3dfg_write32(struct b3dfg_dev *fgdev, u16 reg, u32 value)
188 {
189         iowrite32(value, fgdev->regs + reg);
190 }
191
192 /**** buffer management ****/
193
194 /*
195  * Program EC220 for transfer of a specific frame.
196  * Called with buffer_lock held.
197  */
198 static int setup_frame_transfer(struct b3dfg_dev *fgdev,
199         struct b3dfg_buffer *buf, int frame)
200 {
201         unsigned char *frm_addr;
202         dma_addr_t frm_addr_dma;
203         unsigned int frm_size = fgdev->frame_size;
204
205         frm_addr = buf->frame[frame];
206         frm_addr_dma = pci_map_single(fgdev->pdev, frm_addr,
207                                           frm_size, PCI_DMA_FROMDEVICE);
208         if (pci_dma_mapping_error(fgdev->pdev, frm_addr_dma))
209                 return -ENOMEM;
210
211         fgdev->cur_dma_frame_addr = frm_addr_dma;
212         fgdev->cur_dma_frame_idx = frame;
213
214         b3dfg_write32(fgdev, B3D_REG_EC220_DMA_ADDR,
215                                         cpu_to_le32(frm_addr_dma));
216         b3dfg_write32(fgdev, B3D_REG_EC220_TRF_SIZE,
217                                         cpu_to_le32(frm_size >> 2));
218         b3dfg_write32(fgdev, B3D_REG_EC220_DMA_STS, 0xf);
219
220         return 0;
221 }
222
223 /* Caller should hold buffer lock */
224 static void dequeue_all_buffers(struct b3dfg_dev *fgdev)
225 {
226         int i;
227         for (i = 0; i < b3dfg_nbuf; i++) {
228                 struct b3dfg_buffer *buf = &fgdev->buffers[i];
229                 buf->state = B3DFG_BUFFER_POLLED;
230                 list_del_init(&buf->list);
231         }
232 }
233
234 /* queue a buffer to receive data */
235 static int queue_buffer(struct b3dfg_dev *fgdev, int bufidx)
236 {
237         struct device *dev = &fgdev->pdev->dev;
238         struct b3dfg_buffer *buf;
239         unsigned long flags;
240         int r = 0;
241
242         spin_lock_irqsave(&fgdev->buffer_lock, flags);
243         if (bufidx < 0 || bufidx >= b3dfg_nbuf) {
244                 dev_dbg(dev, "Invalid buffer index, %d\n", bufidx);
245                 r = -ENOENT;
246                 goto out;
247         }
248         buf = &fgdev->buffers[bufidx];
249
250         if (unlikely(buf->state == B3DFG_BUFFER_PENDING)) {
251                 dev_dbg(dev, "buffer %d is already queued\n", bufidx);
252                 r = -EINVAL;
253                 goto out;
254         }
255
256         buf->state = B3DFG_BUFFER_PENDING;
257         list_add_tail(&buf->list, &fgdev->buffer_queue);
258
259         if (fgdev->transmission_enabled && fgdev->triplet_ready) {
260                 dev_dbg(dev, "triplet is ready, pushing immediately\n");
261                 fgdev->triplet_ready = 0;
262                 r = setup_frame_transfer(fgdev, buf, 0);
263                 if (r)
264                         dev_err(dev, "unable to map DMA buffer\n");
265         }
266
267 out:
268         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
269         return r;
270 }
271
272 /* non-blocking buffer poll. returns 1 if data is present in the buffer,
273  * 0 otherwise */
274 static int poll_buffer(struct b3dfg_dev *fgdev, void __user *arg)
275 {
276         struct device *dev = &fgdev->pdev->dev;
277         struct b3dfg_poll p;
278         struct b3dfg_buffer *buf;
279         unsigned long flags;
280         int r = 1;
281         int arg_out = 0;
282
283         if (copy_from_user(&p, arg, sizeof(p)))
284                 return -EFAULT;
285
286         if (unlikely(!fgdev->transmission_enabled)) {
287                 dev_dbg(dev, "cannot poll, transmission disabled\n");
288                 return -EINVAL;
289         }
290
291         if (p.buffer_idx < 0 || p.buffer_idx >= b3dfg_nbuf)
292                 return -ENOENT;
293
294         buf = &fgdev->buffers[p.buffer_idx];
295
296         spin_lock_irqsave(&fgdev->buffer_lock, flags);
297
298         if (likely(buf->state == B3DFG_BUFFER_POPULATED)) {
299                 arg_out = 1;
300                 buf->state = B3DFG_BUFFER_POLLED;
301
302                 /* IRQs already disabled by spin_lock_irqsave above. */
303                 spin_lock(&fgdev->triplets_dropped_lock);
304                 p.triplets_dropped = fgdev->triplets_dropped;
305                 fgdev->triplets_dropped = 0;
306                 spin_unlock(&fgdev->triplets_dropped_lock);
307         } else {
308                 r = 0;
309         }
310
311         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
312
313         if (arg_out && copy_to_user(arg, &p, sizeof(p)))
314                 r = -EFAULT;
315
316         return r;
317 }
318
319 static unsigned long get_cstate_change(struct b3dfg_dev *fgdev)
320 {
321         unsigned long flags, when;
322
323         spin_lock_irqsave(&fgdev->cstate_lock, flags);
324         when = fgdev->cstate_tstamp;
325         spin_unlock_irqrestore(&fgdev->cstate_lock, flags);
326         return when;
327 }
328
329 static int is_event_ready(struct b3dfg_dev *fgdev, struct b3dfg_buffer *buf,
330                           unsigned long when)
331 {
332         int result;
333         unsigned long flags;
334
335         spin_lock_irqsave(&fgdev->buffer_lock, flags);
336         spin_lock(&fgdev->cstate_lock);
337         result = (!fgdev->transmission_enabled ||
338                   buf->state == B3DFG_BUFFER_POPULATED ||
339                   when != fgdev->cstate_tstamp);
340         spin_unlock(&fgdev->cstate_lock);
341         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
342
343         return result;
344 }
345
346 /* sleep until a specific buffer becomes populated */
347 static int wait_buffer(struct b3dfg_dev *fgdev, void __user *arg)
348 {
349         struct device *dev = &fgdev->pdev->dev;
350         struct b3dfg_wait w;
351         struct b3dfg_buffer *buf;
352         unsigned long flags, when;
353         int r;
354
355         if (copy_from_user(&w, arg, sizeof(w)))
356                 return -EFAULT;
357
358         if (!fgdev->transmission_enabled) {
359                 dev_dbg(dev, "cannot wait, transmission disabled\n");
360                 return -EINVAL;
361         }
362
363         if (w.buffer_idx < 0 || w.buffer_idx >= b3dfg_nbuf)
364                 return -ENOENT;
365
366         buf = &fgdev->buffers[w.buffer_idx];
367
368         spin_lock_irqsave(&fgdev->buffer_lock, flags);
369
370         if (buf->state == B3DFG_BUFFER_POPULATED) {
371                 r = w.timeout;
372                 goto out_triplets_dropped;
373         }
374
375         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
376
377         when = get_cstate_change(fgdev);
378         if (w.timeout > 0) {
379                 r = wait_event_interruptible_timeout(fgdev->buffer_waitqueue,
380                         is_event_ready(fgdev, buf, when),
381                         (w.timeout * HZ) / 1000);
382
383                 if (unlikely(r < 0))
384                         goto out;
385
386                 w.timeout = r * 1000 / HZ;
387         } else {
388                 r = wait_event_interruptible(fgdev->buffer_waitqueue,
389                         is_event_ready(fgdev, buf, when));
390
391                 if (unlikely(r)) {
392                         r = -ERESTARTSYS;
393                         goto out;
394                 }
395         }
396
397         /* TODO: Inform the user via field(s) in w? */
398         if (!fgdev->transmission_enabled || when != get_cstate_change(fgdev)) {
399                 r = -EINVAL;
400                 goto out;
401         }
402
403         spin_lock_irqsave(&fgdev->buffer_lock, flags);
404
405         if (buf->state != B3DFG_BUFFER_POPULATED) {
406                 r = -ETIMEDOUT;
407                 goto out_unlock;
408         }
409
410         buf->state = B3DFG_BUFFER_POLLED;
411
412 out_triplets_dropped:
413
414         /* IRQs already disabled by spin_lock_irqsave above. */
415         spin_lock(&fgdev->triplets_dropped_lock);
416         w.triplets_dropped = fgdev->triplets_dropped;
417         fgdev->triplets_dropped = 0;
418         spin_unlock(&fgdev->triplets_dropped_lock);
419
420 out_unlock:
421         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
422         if (copy_to_user(arg, &w, sizeof(w)))
423                 r = -EFAULT;
424 out:
425         return r;
426 }
427
428 /* mmap page fault handler */
429 static int b3dfg_vma_fault(struct vm_area_struct *vma,
430         struct vm_fault *vmf)
431 {
432         struct b3dfg_dev *fgdev = vma->vm_file->private_data;
433         unsigned long off = vmf->pgoff << PAGE_SHIFT;
434         unsigned int frame_size = fgdev->frame_size;
435         unsigned int buf_size = frame_size * B3DFG_FRAMES_PER_BUFFER;
436         unsigned char *addr;
437
438         /* determine which buffer the offset lies within */
439         unsigned int buf_idx = off / buf_size;
440         /* and the offset into the buffer */
441         unsigned int buf_off = off % buf_size;
442
443         /* determine which frame inside the buffer the offset lies in */
444         unsigned int frm_idx = buf_off / frame_size;
445         /* and the offset into the frame */
446         unsigned int frm_off = buf_off % frame_size;
447
448         if (unlikely(buf_idx >= b3dfg_nbuf))
449                 return VM_FAULT_SIGBUS;
450
451         addr = fgdev->buffers[buf_idx].frame[frm_idx] + frm_off;
452         vm_insert_pfn(vma, (unsigned long)vmf->virtual_address,
453                           virt_to_phys(addr) >> PAGE_SHIFT);
454
455         return VM_FAULT_NOPAGE;
456 }
457
458 static struct vm_operations_struct b3dfg_vm_ops = {
459         .fault = b3dfg_vma_fault,
460 };
461
462 static int get_wand_status(struct b3dfg_dev *fgdev, int __user *arg)
463 {
464         u32 wndstat = b3dfg_read32(fgdev, B3D_REG_WAND_STS);
465         dev_dbg(&fgdev->pdev->dev, "wand status %x\n", wndstat);
466         return __put_user(wndstat & 0x1, arg);
467 }
468
469 static int enable_transmission(struct b3dfg_dev *fgdev)
470 {
471         u16 command;
472         unsigned long flags;
473         struct device *dev = &fgdev->pdev->dev;
474
475         dev_dbg(dev, "enable transmission\n");
476
477         /* check the cable is plugged in. */
478         if (!b3dfg_read32(fgdev, B3D_REG_WAND_STS)) {
479                 dev_dbg(dev, "cannot start transmission without wand\n");
480                 return -EINVAL;
481         }
482
483         /*
484          * Check we're a bus master.
485          * TODO: I think we can remove this having added the pci_set_master call
486          */
487         pci_read_config_word(fgdev->pdev, PCI_COMMAND, &command);
488         if (!(command & PCI_COMMAND_MASTER)) {
489                 dev_err(dev, "not a bus master, force-enabling\n");
490                 pci_write_config_word(fgdev->pdev, PCI_COMMAND,
491                         command | PCI_COMMAND_MASTER);
492         }
493
494         spin_lock_irqsave(&fgdev->buffer_lock, flags);
495
496         /* Handle racing enable_transmission calls. */
497         if (fgdev->transmission_enabled) {
498                 spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
499                 goto out;
500         }
501
502         spin_lock(&fgdev->triplets_dropped_lock);
503         fgdev->triplets_dropped = 0;
504         spin_unlock(&fgdev->triplets_dropped_lock);
505
506         fgdev->triplet_ready = 0;
507         fgdev->cur_dma_frame_idx = -1;
508         fgdev->transmission_enabled = 1;
509
510         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
511
512         /* Enable DMA and cable status interrupts. */
513         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0x03);
514
515 out:
516         return 0;
517 }
518
519 static void disable_transmission(struct b3dfg_dev *fgdev)
520 {
521         struct device *dev = &fgdev->pdev->dev;
522         unsigned long flags;
523         u32 tmp;
524
525         dev_dbg(dev, "disable transmission\n");
526
527         /* guarantee that no more interrupts will be serviced */
528         spin_lock_irqsave(&fgdev->buffer_lock, flags);
529         fgdev->transmission_enabled = 0;
530
531         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
532
533         /* FIXME: temporary debugging only. if the board stops transmitting,
534          * hitting ctrl+c and seeing this message is useful for determining
535          * the state of the board. */
536         tmp = b3dfg_read32(fgdev, B3D_REG_DMA_STS);
537         dev_dbg(dev, "DMA_STS reads %x after TX stopped\n", tmp);
538
539         dequeue_all_buffers(fgdev);
540         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
541
542         wake_up_interruptible(&fgdev->buffer_waitqueue);
543 }
544
545 static int set_transmission(struct b3dfg_dev *fgdev, int enabled)
546 {
547         int res = 0;
548
549         if (enabled && !fgdev->transmission_enabled)
550                 res = enable_transmission(fgdev);
551         else if (!enabled && fgdev->transmission_enabled)
552                 disable_transmission(fgdev);
553
554         return res;
555 }
556
557 /* Called in interrupt context. */
558 static void handle_cstate_unplug(struct b3dfg_dev *fgdev)
559 {
560         /* Disable all interrupts. */
561         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
562
563         /* Stop transmission. */
564         spin_lock(&fgdev->buffer_lock);
565         fgdev->transmission_enabled = 0;
566
567         fgdev->cur_dma_frame_idx = -1;
568         fgdev->triplet_ready = 0;
569         if (fgdev->cur_dma_frame_addr) {
570                 pci_unmap_single(fgdev->pdev, fgdev->cur_dma_frame_addr,
571                                  fgdev->frame_size, PCI_DMA_FROMDEVICE);
572                 fgdev->cur_dma_frame_addr = 0;
573         }
574         dequeue_all_buffers(fgdev);
575         spin_unlock(&fgdev->buffer_lock);
576 }
577
578 /* Called in interrupt context. */
579 static void handle_cstate_change(struct b3dfg_dev *fgdev)
580 {
581         u32 cstate = b3dfg_read32(fgdev, B3D_REG_WAND_STS);
582         unsigned long when;
583         struct device *dev = &fgdev->pdev->dev;
584
585         dev_dbg(dev, "cable state change: %u\n", cstate);
586
587         /*
588          * When the wand is unplugged we reset our state. The hardware will
589          * have done the same internally.
590          *
591          * Note we should never see a cable *plugged* event, as interrupts
592          * should only be enabled when transmitting, which requires the cable
593          * to be plugged. If we do see one it probably means the cable has been
594          * unplugged and re-plugged very rapidly. Possibly because it has a
595          * broken wire and is momentarily losing contact.
596          *
597          * TODO: At the moment if you plug in the cable then enable transmission
598          * the hardware will raise a couple of spurious interrupts, so
599          * just ignore them for now.
600          *
601          * Once the hardware is fixed we should complain and treat it as an
602          * unplug. Or at least track how frequently it is happening and do
603          * so if too many come in.
604          */
605         if (cstate) {
606                 dev_warn(dev, "ignoring unexpected plug event\n");
607                 return;
608         }
609         handle_cstate_unplug(fgdev);
610
611         /*
612          * Record cable state change timestamp & wake anyone waiting
613          * on a cable state change. Be paranoid about ensuring events
614          * are not missed if we somehow get two interrupts in a jiffy.
615          */
616         spin_lock(&fgdev->cstate_lock);
617         when = jiffies_64;
618         if (when <= fgdev->cstate_tstamp)
619                 when = fgdev->cstate_tstamp + 1;
620         fgdev->cstate_tstamp = when;
621         wake_up_interruptible(&fgdev->buffer_waitqueue);
622         spin_unlock(&fgdev->cstate_lock);
623 }
624
625 /* Called with buffer_lock held. */
626 static void transfer_complete(struct b3dfg_dev *fgdev)
627 {
628         struct b3dfg_buffer *buf;
629         struct device *dev = &fgdev->pdev->dev;
630
631         pci_unmap_single(fgdev->pdev, fgdev->cur_dma_frame_addr,
632                          fgdev->frame_size, PCI_DMA_FROMDEVICE);
633         fgdev->cur_dma_frame_addr = 0;
634
635         buf = list_entry(fgdev->buffer_queue.next, struct b3dfg_buffer, list);
636         if (buf) {
637                 dev_dbg(dev, "handle frame completion\n");
638                 if (fgdev->cur_dma_frame_idx == B3DFG_FRAMES_PER_BUFFER - 1) {
639
640                         /* last frame of that triplet completed */
641                         dev_dbg(dev, "triplet completed\n");
642                         buf->state = B3DFG_BUFFER_POPULATED;
643                         list_del_init(&buf->list);
644                         wake_up_interruptible(&fgdev->buffer_waitqueue);
645                 }
646         } else {
647                 dev_err(dev, "got frame but no buffer!\n");
648         }
649 }
650
651 /*
652  * Called with buffer_lock held.
653  *
654  * Note that idx is the (1-based) *next* frame to be transferred, while
655  * cur_dma_frame_idx is the (0-based) *last* frame to have been transferred (or
656  * -1 if none). Thus there should be a difference of 2 between them.
657  */
658 static bool setup_next_frame_transfer(struct b3dfg_dev *fgdev, int idx)
659 {
660         struct b3dfg_buffer *buf;
661         struct device *dev = &fgdev->pdev->dev;
662         bool need_ack = 1;
663
664         dev_dbg(dev, "program DMA transfer for next frame: %d\n", idx);
665
666         buf = list_entry(fgdev->buffer_queue.next, struct b3dfg_buffer, list);
667         if (buf) {
668                 if (idx == fgdev->cur_dma_frame_idx + 2) {
669                         if (setup_frame_transfer(fgdev, buf, idx - 1))
670                                 dev_err(dev, "unable to map DMA buffer\n");
671                         need_ack = 0;
672                 } else {
673                         dev_err(dev, "frame mismatch, got %d, expected %d\n",
674                                 idx, fgdev->cur_dma_frame_idx + 2);
675
676                         /* FIXME: handle dropped triplets here */
677                 }
678         } else {
679                 dev_err(dev, "cannot setup DMA, no buffer\n");
680         }
681
682         return need_ack;
683 }
684
685 static irqreturn_t b3dfg_intr(int irq, void *dev_id)
686 {
687         struct b3dfg_dev *fgdev = dev_id;
688         struct device *dev = &fgdev->pdev->dev;
689         u32 sts;
690         u8 dropped;
691         bool need_ack = 1;
692         irqreturn_t res = IRQ_HANDLED;
693
694         sts = b3dfg_read32(fgdev, B3D_REG_DMA_STS);
695         if (unlikely(sts == 0)) {
696                 dev_warn(dev, "ignore interrupt, DMA status is 0\n");
697                 res = IRQ_NONE;
698                 goto out;
699         }
700
701         if (unlikely(!fgdev->transmission_enabled)) {
702                 dev_warn(dev, "ignore interrupt, TX disabled\n");
703                 res = IRQ_HANDLED;
704                 goto out;
705         }
706
707         /* Handle dropped frames, as reported by the hardware. */
708         dropped = (sts >> 8) & 0xff;
709         dev_dbg(dev, "intr: DMA_STS=%08x (drop=%d comp=%d next=%d)\n",
710                 sts, dropped, !!(sts & 0x4), sts & 0x3);
711         if (unlikely(dropped > 0)) {
712                 spin_lock(&fgdev->triplets_dropped_lock);
713                 fgdev->triplets_dropped += dropped;
714                 spin_unlock(&fgdev->triplets_dropped_lock);
715         }
716
717         /* Handle a cable state change (i.e. the wand being unplugged). */
718         if (sts & 0x08) {
719                 handle_cstate_change(fgdev);
720                 goto out;
721         }
722
723         spin_lock(&fgdev->buffer_lock);
724         if (unlikely(list_empty(&fgdev->buffer_queue))) {
725
726                 /* FIXME need more sanity checking here */
727                 dev_info(dev, "buffer not ready for next transfer\n");
728                 fgdev->triplet_ready = 1;
729                 goto out_unlock;
730         }
731
732         /* Has a frame transfer been completed? */
733         if (sts & 0x4) {
734                 u32 dma_status = b3dfg_read32(fgdev, B3D_REG_EC220_DMA_STS);
735
736                 /* Check for DMA errors reported by the hardware. */
737                 if (unlikely(dma_status & 0x1)) {
738                         dev_err(dev, "EC220 error: %08x\n", dma_status);
739
740                         /* FIXME flesh out error handling */
741                         goto out_unlock;
742                 }
743
744                 /* Sanity check, we should have a frame index at this point. */
745                 if (unlikely(fgdev->cur_dma_frame_idx == -1)) {
746                         dev_err(dev, "completed but no last idx?\n");
747
748                         /* FIXME flesh out error handling */
749                         goto out_unlock;
750                 }
751
752                 transfer_complete(fgdev);
753         }
754
755         /* Is there another frame transfer pending? */
756         if (sts & 0x3)
757                 need_ack = setup_next_frame_transfer(fgdev, sts & 0x3);
758         else
759                 fgdev->cur_dma_frame_idx = -1;
760
761 out_unlock:
762         spin_unlock(&fgdev->buffer_lock);
763 out:
764         if (need_ack) {
765                 dev_dbg(dev, "acknowledging interrupt\n");
766                 b3dfg_write32(fgdev, B3D_REG_EC220_DMA_STS, 0x0b);
767         }
768         return res;
769 }
770
771 static int b3dfg_open(struct inode *inode, struct file *filp)
772 {
773         struct b3dfg_dev *fgdev =
774                 container_of(inode->i_cdev, struct b3dfg_dev, chardev);
775
776         dev_dbg(&fgdev->pdev->dev, "open\n");
777         filp->private_data = fgdev;
778         return 0;
779 }
780
781 static int b3dfg_release(struct inode *inode, struct file *filp)
782 {
783         struct b3dfg_dev *fgdev = filp->private_data;
784         dev_dbg(&fgdev->pdev->dev, "release\n");
785         disable_transmission(fgdev);
786         return 0;
787 }
788
789 static long b3dfg_ioctl(struct file *filp, unsigned int cmd, unsigned long arg)
790 {
791         struct b3dfg_dev *fgdev = filp->private_data;
792
793         switch (cmd) {
794         case B3DFG_IOCGFRMSZ:
795                 return __put_user(fgdev->frame_size, (int __user *) arg);
796         case B3DFG_IOCGWANDSTAT:
797                 return get_wand_status(fgdev, (int __user *) arg);
798         case B3DFG_IOCTTRANS:
799                 return set_transmission(fgdev, (int) arg);
800         case B3DFG_IOCTQUEUEBUF:
801                 return queue_buffer(fgdev, (int) arg);
802         case B3DFG_IOCTPOLLBUF:
803                 return poll_buffer(fgdev, (void __user *) arg);
804         case B3DFG_IOCTWAITBUF:
805                 return wait_buffer(fgdev, (void __user *) arg);
806         default:
807                 dev_dbg(&fgdev->pdev->dev, "unrecognised ioctl %x\n", cmd);
808                 return -EINVAL;
809         }
810 }
811
812 static unsigned int b3dfg_poll(struct file *filp, poll_table *poll_table)
813 {
814         struct b3dfg_dev *fgdev = filp->private_data;
815         unsigned long flags, when;
816         int i;
817         int r = 0;
818
819         when = get_cstate_change(fgdev);
820         poll_wait(filp, &fgdev->buffer_waitqueue, poll_table);
821
822         spin_lock_irqsave(&fgdev->buffer_lock, flags);
823         for (i = 0; i < b3dfg_nbuf; i++) {
824                 if (fgdev->buffers[i].state == B3DFG_BUFFER_POPULATED) {
825                         r = POLLIN | POLLRDNORM;
826                         break;
827                 }
828         }
829         spin_unlock_irqrestore(&fgdev->buffer_lock, flags);
830
831         /* TODO: Confirm this is how we want to communicate the change. */
832         if (!fgdev->transmission_enabled || when != get_cstate_change(fgdev))
833                 r = POLLERR;
834
835         return r;
836 }
837
838 static int b3dfg_mmap(struct file *filp, struct vm_area_struct *vma)
839 {
840         struct b3dfg_dev *fgdev = filp->private_data;
841         unsigned long offset = vma->vm_pgoff << PAGE_SHIFT;
842         unsigned long vsize = vma->vm_end - vma->vm_start;
843         unsigned long bufdatalen = b3dfg_nbuf * fgdev->frame_size * 3;
844         unsigned long psize = bufdatalen - offset;
845         int r = 0;
846
847         if (vsize <= psize) {
848                 vma->vm_flags |= VM_IO | VM_RESERVED | VM_CAN_NONLINEAR |
849                                  VM_PFNMAP;
850                 vma->vm_ops = &b3dfg_vm_ops;
851         } else {
852                 r = -EINVAL;
853         }
854
855         return r;
856 }
857
858 static struct file_operations b3dfg_fops = {
859         .owner = THIS_MODULE,
860         .open = b3dfg_open,
861         .release = b3dfg_release,
862         .unlocked_ioctl = b3dfg_ioctl,
863         .poll = b3dfg_poll,
864         .mmap = b3dfg_mmap,
865 };
866
867 static void free_all_frame_buffers(struct b3dfg_dev *fgdev)
868 {
869         int i, j;
870         for (i = 0; i < b3dfg_nbuf; i++)
871                 for (j = 0; j < B3DFG_FRAMES_PER_BUFFER; j++)
872                         kfree(fgdev->buffers[i].frame[j]);
873         kfree(fgdev->buffers);
874 }
875
876 /* initialize device and any data structures. called before any interrupts
877  * are enabled. */
878 static int b3dfg_init_dev(struct b3dfg_dev *fgdev)
879 {
880         int i, j;
881         u32 frm_size = b3dfg_read32(fgdev, B3D_REG_FRM_SIZE);
882
883         /* Disable interrupts. In abnormal circumstances (e.g. after a crash)
884          * the board may still be transmitting from the previous session. If we
885          * ensure that interrupts are disabled before we later enable them, we
886          * are sure to capture a triplet from the start, rather than starting
887          * from frame 2 or 3. Disabling interrupts causes the FG to throw away
888          * all buffered data and stop buffering more until interrupts are
889          * enabled again.
890          */
891         b3dfg_write32(fgdev, B3D_REG_HW_CTRL, 0);
892
893         fgdev->frame_size = frm_size * 4096;
894         fgdev->buffers = kzalloc(sizeof(struct b3dfg_buffer) * b3dfg_nbuf,
895                                  GFP_KERNEL);
896         if (!fgdev->buffers)
897                 goto err_no_buf;
898         for (i = 0; i < b3dfg_nbuf; i++) {
899                 struct b3dfg_buffer *buf = &fgdev->buffers[i];
900                 for (j = 0; j < B3DFG_FRAMES_PER_BUFFER; j++) {
901                         buf->frame[j] = kmalloc(fgdev->frame_size, GFP_KERNEL);
902                         if (!buf->frame[j])
903                                 goto err_no_mem;
904                 }
905                 INIT_LIST_HEAD(&buf->list);
906         }
907
908         INIT_LIST_HEAD(&fgdev->buffer_queue);
909         init_waitqueue_head(&fgdev->buffer_waitqueue);
910         spin_lock_init(&fgdev->buffer_lock);
911         spin_lock_init(&fgdev->cstate_lock);
912         spin_lock_init(&fgdev->triplets_dropped_lock);
913         return 0;
914
915 err_no_mem:
916         free_all_frame_buffers(fgdev);
917 err_no_buf:
918         return -ENOMEM;
919 }
920
921 /* find next free minor number, returns -1 if none are availabile */
922 static int get_free_minor(void)
923 {
924         int i;
925         for (i = 0; i < B3DFG_MAX_DEVS; i++) {
926                 if (b3dfg_devices[i] == 0)
927                         return i;
928         }
929         return -1;
930 }
931
932 static int __devinit b3dfg_probe(struct pci_dev *pdev,
933         const struct pci_device_id *id)
934 {
935         struct b3dfg_dev *fgdev = kzalloc(sizeof(*fgdev), GFP_KERNEL);
936         int r = 0;
937         int minor = get_free_minor();
938         dev_t devno = MKDEV(MAJOR(b3dfg_devt), minor);
939         unsigned long res_len;
940         resource_size_t res_base;
941
942         if (fgdev == NULL)
943                 return -ENOMEM;
944
945         if (minor < 0) {
946                 dev_err(&pdev->dev, "too many devices found!\n");
947                 r = -EIO;
948                 goto err_free;
949         }
950
951         b3dfg_devices[minor] = 1;
952         dev_info(&pdev->dev, "probe device with IRQ %d\n", pdev->irq);
953
954         cdev_init(&fgdev->chardev, &b3dfg_fops);
955         fgdev->chardev.owner = THIS_MODULE;
956
957         r = cdev_add(&fgdev->chardev, devno, 1);
958         if (r) {
959                 dev_err(&pdev->dev, "cannot add char device\n");
960                 goto err_release_minor;
961         }
962
963         fgdev->dev = device_create(
964                 b3dfg_class,
965                 &pdev->dev,
966                 devno,
967                 dev_get_drvdata(&pdev->dev),
968                 DRIVER_NAME "%d", minor);
969
970         if (IS_ERR(fgdev->dev)) {
971                 dev_err(&pdev->dev, "cannot create device\n");
972                 r = PTR_ERR(fgdev->dev);
973                 goto err_del_cdev;
974         }
975
976         r = pci_enable_device(pdev);
977         if (r) {
978                 dev_err(&pdev->dev, "cannot enable PCI device\n");
979                 goto err_dev_unreg;
980         }
981
982         res_len = pci_resource_len(pdev, B3DFG_BAR_REGS);
983         if (res_len != B3DFG_REGS_LENGTH) {
984                 dev_err(&pdev->dev, "invalid register resource size\n");
985                 r = -EIO;
986                 goto err_disable;
987         }
988
989         if (pci_resource_flags(pdev, B3DFG_BAR_REGS)
990                                 != (IORESOURCE_MEM | IORESOURCE_SIZEALIGN)) {
991                 dev_err(&pdev->dev, "invalid resource flags\n");
992                 r = -EIO;
993                 goto err_disable;
994         }
995         r = pci_request_regions(pdev, DRIVER_NAME);
996         if (r) {
997                 dev_err(&pdev->dev, "cannot obtain PCI resources\n");
998                 goto err_disable;
999         }
1000
1001         pci_set_master(pdev);
1002
1003         r = pci_set_dma_mask(pdev, DMA_32BIT_MASK);
1004         if (r) {
1005                 dev_err(&pdev->dev, "no usable DMA configuration\n");
1006                 goto err_free_res;
1007         }
1008
1009         res_base = pci_resource_start(pdev, B3DFG_BAR_REGS);
1010         fgdev->regs = ioremap_nocache(res_base, res_len);
1011         if (!fgdev->regs) {
1012                 dev_err(&pdev->dev, "regs ioremap failed\n");
1013                 r = -EIO;
1014                 goto err_free_res;
1015         }
1016
1017         fgdev->pdev = pdev;
1018         pci_set_drvdata(pdev, fgdev);
1019         r = b3dfg_init_dev(fgdev);
1020         if (r < 0) {
1021                 dev_err(&pdev->dev, "failed to initalize device\n");
1022                 goto err_unmap;
1023         }
1024
1025         r = request_irq(pdev->irq, b3dfg_intr, IRQF_SHARED, DRIVER_NAME, fgdev);
1026         if (r) {
1027                 dev_err(&pdev->dev, "couldn't request irq %d\n", pdev->irq);
1028                 goto err_free_bufs;
1029         }
1030
1031         return 0;
1032
1033 err_free_bufs:
1034         free_all_frame_buffers(fgdev);
1035 err_unmap:
1036         iounmap(fgdev->regs);
1037 err_free_res:
1038         pci_release_regions(pdev);
1039 err_disable:
1040         pci_disable_device(pdev);
1041 err_dev_unreg:
1042         device_destroy(b3dfg_class, devno);
1043 err_del_cdev:
1044         cdev_del(&fgdev->chardev);
1045 err_release_minor:
1046         b3dfg_devices[minor] = 0;
1047 err_free:
1048         kfree(fgdev);
1049         return r;
1050 }
1051
1052 static void __devexit b3dfg_remove(struct pci_dev *pdev)
1053 {
1054         struct b3dfg_dev *fgdev = pci_get_drvdata(pdev);
1055         unsigned int minor = MINOR(fgdev->chardev.dev);
1056
1057         dev_dbg(&pdev->dev, "remove\n");
1058
1059         free_irq(pdev->irq, fgdev);
1060         iounmap(fgdev->regs);
1061         pci_release_regions(pdev);
1062         pci_disable_device(pdev);
1063         device_destroy(b3dfg_class, MKDEV(MAJOR(b3dfg_devt), minor));
1064         cdev_del(&fgdev->chardev);
1065         free_all_frame_buffers(fgdev);
1066         kfree(fgdev);
1067         b3dfg_devices[minor] = 0;
1068 }
1069
1070 static struct pci_driver b3dfg_driver = {
1071         .name = DRIVER_NAME,
1072         .id_table = b3dfg_ids,
1073         .probe = b3dfg_probe,
1074         .remove = __devexit_p(b3dfg_remove),
1075 };
1076
1077 static int __init b3dfg_module_init(void)
1078 {
1079         int r;
1080
1081         if (b3dfg_nbuf < 2) {
1082                 printk(KERN_ERR DRIVER_NAME
1083                            ": buffer_count is out of range (must be >= 2)");
1084                 return -EINVAL;
1085         }
1086
1087         printk(KERN_INFO DRIVER_NAME ": loaded\n");
1088
1089         b3dfg_class = class_create(THIS_MODULE, DRIVER_NAME);
1090         if (IS_ERR(b3dfg_class))
1091                 return PTR_ERR(b3dfg_class);
1092
1093         r = alloc_chrdev_region(&b3dfg_devt, 0, B3DFG_MAX_DEVS, DRIVER_NAME);
1094         if (r)
1095                 goto err1;
1096
1097         r = pci_register_driver(&b3dfg_driver);
1098         if (r)
1099                 goto err2;
1100
1101         return r;
1102
1103 err2:
1104         unregister_chrdev_region(b3dfg_devt, B3DFG_MAX_DEVS);
1105 err1:
1106         class_destroy(b3dfg_class);
1107         return r;
1108 }
1109
1110 static void __exit b3dfg_module_exit(void)
1111 {
1112         printk(KERN_INFO DRIVER_NAME ": unloaded\n");
1113         pci_unregister_driver(&b3dfg_driver);
1114         unregister_chrdev_region(b3dfg_devt, B3DFG_MAX_DEVS);
1115         class_destroy(b3dfg_class);
1116 }
1117
1118 module_init(b3dfg_module_init);
1119 module_exit(b3dfg_module_exit);