fscache: Pass object size in rather than calling back for it
[sfrench/cifs-2.6.git] / fs / afs / cell.c
1 /* AFS cell and server record management
2  *
3  * Copyright (C) 2002, 2017 Red Hat, Inc. All Rights Reserved.
4  * Written by David Howells (dhowells@redhat.com)
5  *
6  * This program is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU General Public License
8  * as published by the Free Software Foundation; either version
9  * 2 of the License, or (at your option) any later version.
10  */
11
12 #include <linux/slab.h>
13 #include <linux/key.h>
14 #include <linux/ctype.h>
15 #include <linux/dns_resolver.h>
16 #include <linux/sched.h>
17 #include <linux/inet.h>
18 #include <keys/rxrpc-type.h>
19 #include "internal.h"
20
21 unsigned __read_mostly afs_cell_gc_delay = 10;
22
23 static void afs_manage_cell(struct work_struct *);
24
25 static void afs_dec_cells_outstanding(struct afs_net *net)
26 {
27         if (atomic_dec_and_test(&net->cells_outstanding))
28                 wake_up_var(&net->cells_outstanding);
29 }
30
31 /*
32  * Set the cell timer to fire after a given delay, assuming it's not already
33  * set for an earlier time.
34  */
35 static void afs_set_cell_timer(struct afs_net *net, time64_t delay)
36 {
37         if (net->live) {
38                 atomic_inc(&net->cells_outstanding);
39                 if (timer_reduce(&net->cells_timer, jiffies + delay * HZ))
40                         afs_dec_cells_outstanding(net);
41         }
42 }
43
44 /*
45  * Look up and get an activation reference on a cell record under RCU
46  * conditions.  The caller must hold the RCU read lock.
47  */
48 struct afs_cell *afs_lookup_cell_rcu(struct afs_net *net,
49                                      const char *name, unsigned int namesz)
50 {
51         struct afs_cell *cell = NULL;
52         struct rb_node *p;
53         int n, seq = 0, ret = 0;
54
55         _enter("%*.*s", namesz, namesz, name);
56
57         if (name && namesz == 0)
58                 return ERR_PTR(-EINVAL);
59         if (namesz > AFS_MAXCELLNAME)
60                 return ERR_PTR(-ENAMETOOLONG);
61
62         do {
63                 /* Unfortunately, rbtree walking doesn't give reliable results
64                  * under just the RCU read lock, so we have to check for
65                  * changes.
66                  */
67                 if (cell)
68                         afs_put_cell(net, cell);
69                 cell = NULL;
70                 ret = -ENOENT;
71
72                 read_seqbegin_or_lock(&net->cells_lock, &seq);
73
74                 if (!name) {
75                         cell = rcu_dereference_raw(net->ws_cell);
76                         if (cell) {
77                                 afs_get_cell(cell);
78                                 continue;
79                         }
80                         ret = -EDESTADDRREQ;
81                         continue;
82                 }
83
84                 p = rcu_dereference_raw(net->cells.rb_node);
85                 while (p) {
86                         cell = rb_entry(p, struct afs_cell, net_node);
87
88                         n = strncasecmp(cell->name, name,
89                                         min_t(size_t, cell->name_len, namesz));
90                         if (n == 0)
91                                 n = cell->name_len - namesz;
92                         if (n < 0) {
93                                 p = rcu_dereference_raw(p->rb_left);
94                         } else if (n > 0) {
95                                 p = rcu_dereference_raw(p->rb_right);
96                         } else {
97                                 if (atomic_inc_not_zero(&cell->usage)) {
98                                         ret = 0;
99                                         break;
100                                 }
101                                 /* We want to repeat the search, this time with
102                                  * the lock properly locked.
103                                  */
104                         }
105                         cell = NULL;
106                 }
107
108         } while (need_seqretry(&net->cells_lock, seq));
109
110         done_seqretry(&net->cells_lock, seq);
111
112         return ret == 0 ? cell : ERR_PTR(ret);
113 }
114
115 /*
116  * Set up a cell record and fill in its name, VL server address list and
117  * allocate an anonymous key
118  */
119 static struct afs_cell *afs_alloc_cell(struct afs_net *net,
120                                        const char *name, unsigned int namelen,
121                                        const char *vllist)
122 {
123         struct afs_cell *cell;
124         int i, ret;
125
126         ASSERT(name);
127         if (namelen == 0)
128                 return ERR_PTR(-EINVAL);
129         if (namelen > AFS_MAXCELLNAME) {
130                 _leave(" = -ENAMETOOLONG");
131                 return ERR_PTR(-ENAMETOOLONG);
132         }
133
134         _enter("%*.*s,%s", namelen, namelen, name, vllist);
135
136         cell = kzalloc(sizeof(struct afs_cell), GFP_KERNEL);
137         if (!cell) {
138                 _leave(" = -ENOMEM");
139                 return ERR_PTR(-ENOMEM);
140         }
141
142         cell->net = net;
143         cell->name_len = namelen;
144         for (i = 0; i < namelen; i++)
145                 cell->name[i] = tolower(name[i]);
146
147         atomic_set(&cell->usage, 2);
148         INIT_WORK(&cell->manager, afs_manage_cell);
149         cell->flags = ((1 << AFS_CELL_FL_NOT_READY) |
150                        (1 << AFS_CELL_FL_NO_LOOKUP_YET));
151         INIT_LIST_HEAD(&cell->proc_volumes);
152         rwlock_init(&cell->proc_lock);
153         rwlock_init(&cell->vl_addrs_lock);
154
155         /* Fill in the VL server list if we were given a list of addresses to
156          * use.
157          */
158         if (vllist) {
159                 struct afs_addr_list *alist;
160
161                 alist = afs_parse_text_addrs(vllist, strlen(vllist), ':',
162                                              VL_SERVICE, AFS_VL_PORT);
163                 if (IS_ERR(alist)) {
164                         ret = PTR_ERR(alist);
165                         goto parse_failed;
166                 }
167
168                 rcu_assign_pointer(cell->vl_addrs, alist);
169                 cell->dns_expiry = TIME64_MAX;
170         }
171
172         _leave(" = %p", cell);
173         return cell;
174
175 parse_failed:
176         if (ret == -EINVAL)
177                 printk(KERN_ERR "kAFS: bad VL server IP address\n");
178         kfree(cell);
179         _leave(" = %d", ret);
180         return ERR_PTR(ret);
181 }
182
183 /*
184  * afs_lookup_cell - Look up or create a cell record.
185  * @net:        The network namespace
186  * @name:       The name of the cell.
187  * @namesz:     The strlen of the cell name.
188  * @vllist:     A colon/comma separated list of numeric IP addresses or NULL.
189  * @excl:       T if an error should be given if the cell name already exists.
190  *
191  * Look up a cell record by name and query the DNS for VL server addresses if
192  * needed.  Note that that actual DNS query is punted off to the manager thread
193  * so that this function can return immediately if interrupted whilst allowing
194  * cell records to be shared even if not yet fully constructed.
195  */
196 struct afs_cell *afs_lookup_cell(struct afs_net *net,
197                                  const char *name, unsigned int namesz,
198                                  const char *vllist, bool excl)
199 {
200         struct afs_cell *cell, *candidate, *cursor;
201         struct rb_node *parent, **pp;
202         int ret, n;
203
204         _enter("%s,%s", name, vllist);
205
206         if (!excl) {
207                 rcu_read_lock();
208                 cell = afs_lookup_cell_rcu(net, name, namesz);
209                 rcu_read_unlock();
210                 if (!IS_ERR(cell))
211                         goto wait_for_cell;
212         }
213
214         /* Assume we're probably going to create a cell and preallocate and
215          * mostly set up a candidate record.  We can then use this to stash the
216          * name, the net namespace and VL server addresses.
217          *
218          * We also want to do this before we hold any locks as it may involve
219          * upcalling to userspace to make DNS queries.
220          */
221         candidate = afs_alloc_cell(net, name, namesz, vllist);
222         if (IS_ERR(candidate)) {
223                 _leave(" = %ld", PTR_ERR(candidate));
224                 return candidate;
225         }
226
227         /* Find the insertion point and check to see if someone else added a
228          * cell whilst we were allocating.
229          */
230         write_seqlock(&net->cells_lock);
231
232         pp = &net->cells.rb_node;
233         parent = NULL;
234         while (*pp) {
235                 parent = *pp;
236                 cursor = rb_entry(parent, struct afs_cell, net_node);
237
238                 n = strncasecmp(cursor->name, name,
239                                 min_t(size_t, cursor->name_len, namesz));
240                 if (n == 0)
241                         n = cursor->name_len - namesz;
242                 if (n < 0)
243                         pp = &(*pp)->rb_left;
244                 else if (n > 0)
245                         pp = &(*pp)->rb_right;
246                 else
247                         goto cell_already_exists;
248         }
249
250         cell = candidate;
251         candidate = NULL;
252         rb_link_node_rcu(&cell->net_node, parent, pp);
253         rb_insert_color(&cell->net_node, &net->cells);
254         atomic_inc(&net->cells_outstanding);
255         write_sequnlock(&net->cells_lock);
256
257         queue_work(afs_wq, &cell->manager);
258
259 wait_for_cell:
260         _debug("wait_for_cell");
261         ret = wait_on_bit(&cell->flags, AFS_CELL_FL_NOT_READY, TASK_INTERRUPTIBLE);
262         smp_rmb();
263
264         switch (READ_ONCE(cell->state)) {
265         case AFS_CELL_FAILED:
266                 ret = cell->error;
267                 goto error;
268         default:
269                 _debug("weird %u %d", cell->state, cell->error);
270                 goto error;
271         case AFS_CELL_ACTIVE:
272                 break;
273         }
274
275         _leave(" = %p [cell]", cell);
276         return cell;
277
278 cell_already_exists:
279         _debug("cell exists");
280         cell = cursor;
281         if (excl) {
282                 ret = -EEXIST;
283         } else {
284                 afs_get_cell(cursor);
285                 ret = 0;
286         }
287         write_sequnlock(&net->cells_lock);
288         kfree(candidate);
289         if (ret == 0)
290                 goto wait_for_cell;
291         goto error_noput;
292 error:
293         afs_put_cell(net, cell);
294 error_noput:
295         _leave(" = %d [error]", ret);
296         return ERR_PTR(ret);
297 }
298
299 /*
300  * set the root cell information
301  * - can be called with a module parameter string
302  * - can be called from a write to /proc/fs/afs/rootcell
303  */
304 int afs_cell_init(struct afs_net *net, const char *rootcell)
305 {
306         struct afs_cell *old_root, *new_root;
307         const char *cp, *vllist;
308         size_t len;
309
310         _enter("");
311
312         if (!rootcell) {
313                 /* module is loaded with no parameters, or built statically.
314                  * - in the future we might initialize cell DB here.
315                  */
316                 _leave(" = 0 [no root]");
317                 return 0;
318         }
319
320         cp = strchr(rootcell, ':');
321         if (!cp) {
322                 _debug("kAFS: no VL server IP addresses specified");
323                 vllist = NULL;
324                 len = strlen(rootcell);
325         } else {
326                 vllist = cp + 1;
327                 len = cp - rootcell;
328         }
329
330         /* allocate a cell record for the root cell */
331         new_root = afs_lookup_cell(net, rootcell, len, vllist, false);
332         if (IS_ERR(new_root)) {
333                 _leave(" = %ld", PTR_ERR(new_root));
334                 return PTR_ERR(new_root);
335         }
336
337         set_bit(AFS_CELL_FL_NO_GC, &new_root->flags);
338         afs_get_cell(new_root);
339
340         /* install the new cell */
341         write_seqlock(&net->cells_lock);
342         old_root = net->ws_cell;
343         net->ws_cell = new_root;
344         write_sequnlock(&net->cells_lock);
345
346         afs_put_cell(net, old_root);
347         _leave(" = 0");
348         return 0;
349 }
350
351 /*
352  * Update a cell's VL server address list from the DNS.
353  */
354 static void afs_update_cell(struct afs_cell *cell)
355 {
356         struct afs_addr_list *alist, *old;
357         time64_t now, expiry;
358
359         _enter("%s", cell->name);
360
361         alist = afs_dns_query(cell, &expiry);
362         if (IS_ERR(alist)) {
363                 switch (PTR_ERR(alist)) {
364                 case -ENODATA:
365                         /* The DNS said that the cell does not exist */
366                         set_bit(AFS_CELL_FL_NOT_FOUND, &cell->flags);
367                         clear_bit(AFS_CELL_FL_DNS_FAIL, &cell->flags);
368                         cell->dns_expiry = ktime_get_real_seconds() + 61;
369                         break;
370
371                 case -EAGAIN:
372                 case -ECONNREFUSED:
373                 default:
374                         set_bit(AFS_CELL_FL_DNS_FAIL, &cell->flags);
375                         cell->dns_expiry = ktime_get_real_seconds() + 10;
376                         break;
377                 }
378
379                 cell->error = -EDESTADDRREQ;
380         } else {
381                 clear_bit(AFS_CELL_FL_DNS_FAIL, &cell->flags);
382                 clear_bit(AFS_CELL_FL_NOT_FOUND, &cell->flags);
383
384                 /* Exclusion on changing vl_addrs is achieved by a
385                  * non-reentrant work item.
386                  */
387                 old = rcu_dereference_protected(cell->vl_addrs, true);
388                 rcu_assign_pointer(cell->vl_addrs, alist);
389                 cell->dns_expiry = expiry;
390
391                 if (old)
392                         afs_put_addrlist(old);
393         }
394
395         if (test_and_clear_bit(AFS_CELL_FL_NO_LOOKUP_YET, &cell->flags))
396                 wake_up_bit(&cell->flags, AFS_CELL_FL_NO_LOOKUP_YET);
397
398         now = ktime_get_real_seconds();
399         afs_set_cell_timer(cell->net, cell->dns_expiry - now);
400         _leave("");
401 }
402
403 /*
404  * Destroy a cell record
405  */
406 static void afs_cell_destroy(struct rcu_head *rcu)
407 {
408         struct afs_cell *cell = container_of(rcu, struct afs_cell, rcu);
409
410         _enter("%p{%s}", cell, cell->name);
411
412         ASSERTCMP(atomic_read(&cell->usage), ==, 0);
413
414         afs_put_addrlist(cell->vl_addrs);
415         key_put(cell->anonymous_key);
416         kfree(cell);
417
418         _leave(" [destroyed]");
419 }
420
421 /*
422  * Queue the cell manager.
423  */
424 static void afs_queue_cell_manager(struct afs_net *net)
425 {
426         int outstanding = atomic_inc_return(&net->cells_outstanding);
427
428         _enter("%d", outstanding);
429
430         if (!queue_work(afs_wq, &net->cells_manager))
431                 afs_dec_cells_outstanding(net);
432 }
433
434 /*
435  * Cell management timer.  We have an increment on cells_outstanding that we
436  * need to pass along to the work item.
437  */
438 void afs_cells_timer(struct timer_list *timer)
439 {
440         struct afs_net *net = container_of(timer, struct afs_net, cells_timer);
441
442         _enter("");
443         if (!queue_work(afs_wq, &net->cells_manager))
444                 afs_dec_cells_outstanding(net);
445 }
446
447 /*
448  * Get a reference on a cell record.
449  */
450 struct afs_cell *afs_get_cell(struct afs_cell *cell)
451 {
452         atomic_inc(&cell->usage);
453         return cell;
454 }
455
456 /*
457  * Drop a reference on a cell record.
458  */
459 void afs_put_cell(struct afs_net *net, struct afs_cell *cell)
460 {
461         time64_t now, expire_delay;
462
463         if (!cell)
464                 return;
465
466         _enter("%s", cell->name);
467
468         now = ktime_get_real_seconds();
469         cell->last_inactive = now;
470         expire_delay = 0;
471         if (!test_bit(AFS_CELL_FL_DNS_FAIL, &cell->flags) &&
472             !test_bit(AFS_CELL_FL_NOT_FOUND, &cell->flags))
473                 expire_delay = afs_cell_gc_delay;
474
475         if (atomic_dec_return(&cell->usage) > 1)
476                 return;
477
478         /* 'cell' may now be garbage collected. */
479         afs_set_cell_timer(net, expire_delay);
480 }
481
482 /*
483  * Allocate a key to use as a placeholder for anonymous user security.
484  */
485 static int afs_alloc_anon_key(struct afs_cell *cell)
486 {
487         struct key *key;
488         char keyname[4 + AFS_MAXCELLNAME + 1], *cp, *dp;
489
490         /* Create a key to represent an anonymous user. */
491         memcpy(keyname, "afs@", 4);
492         dp = keyname + 4;
493         cp = cell->name;
494         do {
495                 *dp++ = tolower(*cp);
496         } while (*cp++);
497
498         key = rxrpc_get_null_key(keyname);
499         if (IS_ERR(key))
500                 return PTR_ERR(key);
501
502         cell->anonymous_key = key;
503
504         _debug("anon key %p{%x}",
505                cell->anonymous_key, key_serial(cell->anonymous_key));
506         return 0;
507 }
508
509 /*
510  * Activate a cell.
511  */
512 static int afs_activate_cell(struct afs_net *net, struct afs_cell *cell)
513 {
514         int ret;
515
516         if (!cell->anonymous_key) {
517                 ret = afs_alloc_anon_key(cell);
518                 if (ret < 0)
519                         return ret;
520         }
521
522 #ifdef CONFIG_AFS_FSCACHE
523         cell->cache = fscache_acquire_cookie(afs_cache_netfs.primary_index,
524                                              &afs_cell_cache_index_def,
525                                              cell->name, strlen(cell->name),
526                                              NULL, 0,
527                                              cell, 0, true);
528 #endif
529         ret = afs_proc_cell_setup(net, cell);
530         if (ret < 0)
531                 return ret;
532         spin_lock(&net->proc_cells_lock);
533         list_add_tail(&cell->proc_link, &net->proc_cells);
534         spin_unlock(&net->proc_cells_lock);
535         return 0;
536 }
537
538 /*
539  * Deactivate a cell.
540  */
541 static void afs_deactivate_cell(struct afs_net *net, struct afs_cell *cell)
542 {
543         _enter("%s", cell->name);
544
545         afs_proc_cell_remove(net, cell);
546
547         spin_lock(&net->proc_cells_lock);
548         list_del_init(&cell->proc_link);
549         spin_unlock(&net->proc_cells_lock);
550
551 #ifdef CONFIG_AFS_FSCACHE
552         fscache_relinquish_cookie(cell->cache, NULL, false);
553         cell->cache = NULL;
554 #endif
555
556         _leave("");
557 }
558
559 /*
560  * Manage a cell record, initialising and destroying it, maintaining its DNS
561  * records.
562  */
563 static void afs_manage_cell(struct work_struct *work)
564 {
565         struct afs_cell *cell = container_of(work, struct afs_cell, manager);
566         struct afs_net *net = cell->net;
567         bool deleted;
568         int ret, usage;
569
570         _enter("%s", cell->name);
571
572 again:
573         _debug("state %u", cell->state);
574         switch (cell->state) {
575         case AFS_CELL_INACTIVE:
576         case AFS_CELL_FAILED:
577                 write_seqlock(&net->cells_lock);
578                 usage = 1;
579                 deleted = atomic_try_cmpxchg_relaxed(&cell->usage, &usage, 0);
580                 if (deleted)
581                         rb_erase(&cell->net_node, &net->cells);
582                 write_sequnlock(&net->cells_lock);
583                 if (deleted)
584                         goto final_destruction;
585                 if (cell->state == AFS_CELL_FAILED)
586                         goto done;
587                 cell->state = AFS_CELL_UNSET;
588                 goto again;
589
590         case AFS_CELL_UNSET:
591                 cell->state = AFS_CELL_ACTIVATING;
592                 goto again;
593
594         case AFS_CELL_ACTIVATING:
595                 ret = afs_activate_cell(net, cell);
596                 if (ret < 0)
597                         goto activation_failed;
598
599                 cell->state = AFS_CELL_ACTIVE;
600                 smp_wmb();
601                 clear_bit(AFS_CELL_FL_NOT_READY, &cell->flags);
602                 wake_up_bit(&cell->flags, AFS_CELL_FL_NOT_READY);
603                 goto again;
604
605         case AFS_CELL_ACTIVE:
606                 if (atomic_read(&cell->usage) > 1) {
607                         time64_t now = ktime_get_real_seconds();
608                         if (cell->dns_expiry <= now && net->live)
609                                 afs_update_cell(cell);
610                         goto done;
611                 }
612                 cell->state = AFS_CELL_DEACTIVATING;
613                 goto again;
614
615         case AFS_CELL_DEACTIVATING:
616                 set_bit(AFS_CELL_FL_NOT_READY, &cell->flags);
617                 if (atomic_read(&cell->usage) > 1)
618                         goto reverse_deactivation;
619                 afs_deactivate_cell(net, cell);
620                 cell->state = AFS_CELL_INACTIVE;
621                 goto again;
622
623         default:
624                 break;
625         }
626         _debug("bad state %u", cell->state);
627         BUG(); /* Unhandled state */
628
629 activation_failed:
630         cell->error = ret;
631         afs_deactivate_cell(net, cell);
632
633         cell->state = AFS_CELL_FAILED;
634         smp_wmb();
635         if (test_and_clear_bit(AFS_CELL_FL_NOT_READY, &cell->flags))
636                 wake_up_bit(&cell->flags, AFS_CELL_FL_NOT_READY);
637         goto again;
638
639 reverse_deactivation:
640         cell->state = AFS_CELL_ACTIVE;
641         smp_wmb();
642         clear_bit(AFS_CELL_FL_NOT_READY, &cell->flags);
643         wake_up_bit(&cell->flags, AFS_CELL_FL_NOT_READY);
644         _leave(" [deact->act]");
645         return;
646
647 done:
648         _leave(" [done %u]", cell->state);
649         return;
650
651 final_destruction:
652         call_rcu(&cell->rcu, afs_cell_destroy);
653         afs_dec_cells_outstanding(net);
654         _leave(" [destruct %d]", atomic_read(&net->cells_outstanding));
655 }
656
657 /*
658  * Manage the records of cells known to a network namespace.  This includes
659  * updating the DNS records and garbage collecting unused cells that were
660  * automatically added.
661  *
662  * Note that constructed cell records may only be removed from net->cells by
663  * this work item, so it is safe for this work item to stash a cursor pointing
664  * into the tree and then return to caller (provided it skips cells that are
665  * still under construction).
666  *
667  * Note also that we were given an increment on net->cells_outstanding by
668  * whoever queued us that we need to deal with before returning.
669  */
670 void afs_manage_cells(struct work_struct *work)
671 {
672         struct afs_net *net = container_of(work, struct afs_net, cells_manager);
673         struct rb_node *cursor;
674         time64_t now = ktime_get_real_seconds(), next_manage = TIME64_MAX;
675         bool purging = !net->live;
676
677         _enter("");
678
679         /* Trawl the cell database looking for cells that have expired from
680          * lack of use and cells whose DNS results have expired and dispatch
681          * their managers.
682          */
683         read_seqlock_excl(&net->cells_lock);
684
685         for (cursor = rb_first(&net->cells); cursor; cursor = rb_next(cursor)) {
686                 struct afs_cell *cell =
687                         rb_entry(cursor, struct afs_cell, net_node);
688                 unsigned usage;
689                 bool sched_cell = false;
690
691                 usage = atomic_read(&cell->usage);
692                 _debug("manage %s %u", cell->name, usage);
693
694                 ASSERTCMP(usage, >=, 1);
695
696                 if (purging) {
697                         if (test_and_clear_bit(AFS_CELL_FL_NO_GC, &cell->flags))
698                                 usage = atomic_dec_return(&cell->usage);
699                         ASSERTCMP(usage, ==, 1);
700                 }
701
702                 if (usage == 1) {
703                         time64_t expire_at = cell->last_inactive;
704
705                         if (!test_bit(AFS_CELL_FL_DNS_FAIL, &cell->flags) &&
706                             !test_bit(AFS_CELL_FL_NOT_FOUND, &cell->flags))
707                                 expire_at += afs_cell_gc_delay;
708                         if (purging || expire_at <= now)
709                                 sched_cell = true;
710                         else if (expire_at < next_manage)
711                                 next_manage = expire_at;
712                 }
713
714                 if (!purging) {
715                         if (cell->dns_expiry <= now)
716                                 sched_cell = true;
717                         else if (cell->dns_expiry <= next_manage)
718                                 next_manage = cell->dns_expiry;
719                 }
720
721                 if (sched_cell)
722                         queue_work(afs_wq, &cell->manager);
723         }
724
725         read_sequnlock_excl(&net->cells_lock);
726
727         /* Update the timer on the way out.  We have to pass an increment on
728          * cells_outstanding in the namespace that we are in to the timer or
729          * the work scheduler.
730          */
731         if (!purging && next_manage < TIME64_MAX) {
732                 now = ktime_get_real_seconds();
733
734                 if (next_manage - now <= 0) {
735                         if (queue_work(afs_wq, &net->cells_manager))
736                                 atomic_inc(&net->cells_outstanding);
737                 } else {
738                         afs_set_cell_timer(net, next_manage - now);
739                 }
740         }
741
742         afs_dec_cells_outstanding(net);
743         _leave(" [%d]", atomic_read(&net->cells_outstanding));
744 }
745
746 /*
747  * Purge in-memory cell database.
748  */
749 void afs_cell_purge(struct afs_net *net)
750 {
751         struct afs_cell *ws;
752
753         _enter("");
754
755         write_seqlock(&net->cells_lock);
756         ws = net->ws_cell;
757         net->ws_cell = NULL;
758         write_sequnlock(&net->cells_lock);
759         afs_put_cell(net, ws);
760
761         _debug("del timer");
762         if (del_timer_sync(&net->cells_timer))
763                 atomic_dec(&net->cells_outstanding);
764
765         _debug("kick mgr");
766         afs_queue_cell_manager(net);
767
768         _debug("wait");
769         wait_var_event(&net->cells_outstanding,
770                        !atomic_read(&net->cells_outstanding));
771         _leave("");
772 }