Merge commit 'origin/master'
[kamenim/samba-autobuild/.git] / ctdb / server / ctdb_recover.c
1 /* 
2    ctdb recovery code
3
4    Copyright (C) Andrew Tridgell  2007
5    Copyright (C) Ronnie Sahlberg  2007
6
7    This program is free software; you can redistribute it and/or modify
8    it under the terms of the GNU General Public License as published by
9    the Free Software Foundation; either version 3 of the License, or
10    (at your option) any later version.
11    
12    This program is distributed in the hope that it will be useful,
13    but WITHOUT ANY WARRANTY; without even the implied warranty of
14    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
15    GNU General Public License for more details.
16    
17    You should have received a copy of the GNU General Public License
18    along with this program; if not, see <http://www.gnu.org/licenses/>.
19 */
20 #include "includes.h"
21 #include "lib/events/events.h"
22 #include "lib/tdb/include/tdb.h"
23 #include "system/time.h"
24 #include "system/network.h"
25 #include "system/filesys.h"
26 #include "system/wait.h"
27 #include "../include/ctdb_private.h"
28 #include "lib/util/dlinklist.h"
29 #include "db_wrap.h"
30
31 /*
32   lock all databases - mark only
33  */
34 static int ctdb_lock_all_databases_mark(struct ctdb_context *ctdb, uint32_t priority)
35 {
36         struct ctdb_db_context *ctdb_db;
37
38         if ((priority < 1) || (priority > NUM_DB_PRIORITIES)) {
39                 DEBUG(DEBUG_ERR,(__location__ " Illegal priority when trying to mark all databases Prio:%u\n", priority));
40                 return -1;
41         }
42
43         if (ctdb->freeze_mode[priority] != CTDB_FREEZE_FROZEN) {
44                 DEBUG(DEBUG_ERR,("Attempt to mark all databases locked when not frozen\n"));
45                 return -1;
46         }
47         /* The dual loop is a woraround for older versions of samba
48            that does not yet support the set-db-priority/lock order
49            call. So that we get basic deadlock avoiidance also for
50            these old versions of samba.
51            This code will be removed in the future.
52         */
53         for (ctdb_db=ctdb->db_list;ctdb_db;ctdb_db=ctdb_db->next) {
54                 if (ctdb_db->priority != priority) {
55                         continue;
56                 }
57                 if (strstr(ctdb_db->db_name, "notify") != NULL) {
58                         continue;
59                 }
60                 if (tdb_lockall_mark(ctdb_db->ltdb->tdb) != 0) {
61                         return -1;
62                 }
63         }
64         for (ctdb_db=ctdb->db_list;ctdb_db;ctdb_db=ctdb_db->next) {
65                 if (ctdb_db->priority != priority) {
66                         continue;
67                 }
68                 if (strstr(ctdb_db->db_name, "notify") == NULL) {
69                         continue;
70                 }
71                 if (tdb_lockall_mark(ctdb_db->ltdb->tdb) != 0) {
72                         return -1;
73                 }
74         }
75         return 0;
76 }
77
78 /*
79   lock all databases - unmark only
80  */
81 static int ctdb_lock_all_databases_unmark(struct ctdb_context *ctdb, uint32_t priority)
82 {
83         struct ctdb_db_context *ctdb_db;
84
85         if ((priority < 1) || (priority > NUM_DB_PRIORITIES)) {
86                 DEBUG(DEBUG_ERR,(__location__ " Illegal priority when trying to mark all databases Prio:%u\n", priority));
87                 return -1;
88         }
89
90         if (ctdb->freeze_mode[priority] != CTDB_FREEZE_FROZEN) {
91                 DEBUG(DEBUG_ERR,("Attempt to unmark all databases locked when not frozen\n"));
92                 return -1;
93         }
94         for (ctdb_db=ctdb->db_list;ctdb_db;ctdb_db=ctdb_db->next) {
95                 if (ctdb_db->priority != priority) {
96                         continue;
97                 }
98                 if (tdb_lockall_unmark(ctdb_db->ltdb->tdb) != 0) {
99                         return -1;
100                 }
101         }
102         return 0;
103 }
104
105
106 int 
107 ctdb_control_getvnnmap(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata, TDB_DATA *outdata)
108 {
109         CHECK_CONTROL_DATA_SIZE(0);
110         struct ctdb_vnn_map_wire *map;
111         size_t len;
112
113         len = offsetof(struct ctdb_vnn_map_wire, map) + sizeof(uint32_t)*ctdb->vnn_map->size;
114         map = talloc_size(outdata, len);
115         CTDB_NO_MEMORY(ctdb, map);
116
117         map->generation = ctdb->vnn_map->generation;
118         map->size = ctdb->vnn_map->size;
119         memcpy(map->map, ctdb->vnn_map->map, sizeof(uint32_t)*map->size);
120
121         outdata->dsize = len;
122         outdata->dptr  = (uint8_t *)map;
123
124         return 0;
125 }
126
127 int 
128 ctdb_control_setvnnmap(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata, TDB_DATA *outdata)
129 {
130         struct ctdb_vnn_map_wire *map = (struct ctdb_vnn_map_wire *)indata.dptr;
131         int i;
132
133         for(i=1; i<=NUM_DB_PRIORITIES; i++) {
134                 if (ctdb->freeze_mode[i] != CTDB_FREEZE_FROZEN) {
135                         DEBUG(DEBUG_ERR,("Attempt to set vnnmap when not frozen\n"));
136                         return -1;
137                 }
138         }
139
140         talloc_free(ctdb->vnn_map);
141
142         ctdb->vnn_map = talloc(ctdb, struct ctdb_vnn_map);
143         CTDB_NO_MEMORY(ctdb, ctdb->vnn_map);
144
145         ctdb->vnn_map->generation = map->generation;
146         ctdb->vnn_map->size       = map->size;
147         ctdb->vnn_map->map = talloc_array(ctdb->vnn_map, uint32_t, map->size);
148         CTDB_NO_MEMORY(ctdb, ctdb->vnn_map->map);
149
150         memcpy(ctdb->vnn_map->map, map->map, sizeof(uint32_t)*map->size);
151
152         return 0;
153 }
154
155 int 
156 ctdb_control_getdbmap(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata, TDB_DATA *outdata)
157 {
158         uint32_t i, len;
159         struct ctdb_db_context *ctdb_db;
160         struct ctdb_dbid_map *dbid_map;
161
162         CHECK_CONTROL_DATA_SIZE(0);
163
164         len = 0;
165         for(ctdb_db=ctdb->db_list;ctdb_db;ctdb_db=ctdb_db->next){
166                 len++;
167         }
168
169
170         outdata->dsize = offsetof(struct ctdb_dbid_map, dbs) + sizeof(dbid_map->dbs[0])*len;
171         outdata->dptr  = (unsigned char *)talloc_zero_size(outdata, outdata->dsize);
172         if (!outdata->dptr) {
173                 DEBUG(DEBUG_ALERT, (__location__ " Failed to allocate dbmap array\n"));
174                 exit(1);
175         }
176
177         dbid_map = (struct ctdb_dbid_map *)outdata->dptr;
178         dbid_map->num = len;
179         for (i=0,ctdb_db=ctdb->db_list;ctdb_db;i++,ctdb_db=ctdb_db->next){
180                 dbid_map->dbs[i].dbid       = ctdb_db->db_id;
181                 dbid_map->dbs[i].persistent = ctdb_db->persistent;
182         }
183
184         return 0;
185 }
186
187 int 
188 ctdb_control_getnodemap(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata, TDB_DATA *outdata)
189 {
190         uint32_t i, num_nodes;
191         struct ctdb_node_map *node_map;
192
193         CHECK_CONTROL_DATA_SIZE(0);
194
195         num_nodes = ctdb->num_nodes;
196
197         outdata->dsize = offsetof(struct ctdb_node_map, nodes) + num_nodes*sizeof(struct ctdb_node_and_flags);
198         outdata->dptr  = (unsigned char *)talloc_zero_size(outdata, outdata->dsize);
199         if (!outdata->dptr) {
200                 DEBUG(DEBUG_ALERT, (__location__ " Failed to allocate nodemap array\n"));
201                 exit(1);
202         }
203
204         node_map = (struct ctdb_node_map *)outdata->dptr;
205         node_map->num = num_nodes;
206         for (i=0; i<num_nodes; i++) {
207                 if (parse_ip(ctdb->nodes[i]->address.address,
208                              NULL, /* TODO: pass in the correct interface here*/
209                              0,
210                              &node_map->nodes[i].addr) == 0)
211                 {
212                         DEBUG(DEBUG_ERR, (__location__ " Failed to parse %s into a sockaddr\n", ctdb->nodes[i]->address.address));
213                 }
214
215                 node_map->nodes[i].pnn   = ctdb->nodes[i]->pnn;
216                 node_map->nodes[i].flags = ctdb->nodes[i]->flags;
217         }
218
219         return 0;
220 }
221
222 /*
223    get an old style ipv4-only nodemap
224 */
225 int 
226 ctdb_control_getnodemapv4(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata, TDB_DATA *outdata)
227 {
228         uint32_t i, num_nodes;
229         struct ctdb_node_mapv4 *node_map;
230
231         CHECK_CONTROL_DATA_SIZE(0);
232
233         num_nodes = ctdb->num_nodes;
234
235         outdata->dsize = offsetof(struct ctdb_node_mapv4, nodes) + num_nodes*sizeof(struct ctdb_node_and_flagsv4);
236         outdata->dptr  = (unsigned char *)talloc_zero_size(outdata, outdata->dsize);
237         if (!outdata->dptr) {
238                 DEBUG(DEBUG_ALERT, (__location__ " Failed to allocate nodemap array\n"));
239                 exit(1);
240         }
241
242         node_map = (struct ctdb_node_mapv4 *)outdata->dptr;
243         node_map->num = num_nodes;
244         for (i=0; i<num_nodes; i++) {
245                 if (parse_ipv4(ctdb->nodes[i]->address.address, 0, &node_map->nodes[i].sin) == 0) {
246                         DEBUG(DEBUG_ERR, (__location__ " Failed to parse %s into a sockaddr\n", ctdb->nodes[i]->address.address));
247                         return -1;
248                 }
249
250                 node_map->nodes[i].pnn   = ctdb->nodes[i]->pnn;
251                 node_map->nodes[i].flags = ctdb->nodes[i]->flags;
252         }
253
254         return 0;
255 }
256
257 static void
258 ctdb_reload_nodes_event(struct event_context *ev, struct timed_event *te, 
259                                struct timeval t, void *private_data)
260 {
261         int i, num_nodes;
262         struct ctdb_context *ctdb = talloc_get_type(private_data, struct ctdb_context);
263         TALLOC_CTX *tmp_ctx;
264         struct ctdb_node **nodes;       
265
266         tmp_ctx = talloc_new(ctdb);
267
268         /* steal the old nodes file for a while */
269         talloc_steal(tmp_ctx, ctdb->nodes);
270         nodes = ctdb->nodes;
271         ctdb->nodes = NULL;
272         num_nodes = ctdb->num_nodes;
273         ctdb->num_nodes = 0;
274
275         /* load the new nodes file */
276         ctdb_load_nodes_file(ctdb);
277
278         for (i=0; i<ctdb->num_nodes; i++) {
279                 /* keep any identical pre-existing nodes and connections */
280                 if ((i < num_nodes) && ctdb_same_address(&ctdb->nodes[i]->address, &nodes[i]->address)) {
281                         talloc_free(ctdb->nodes[i]);
282                         ctdb->nodes[i] = talloc_steal(ctdb->nodes, nodes[i]);
283                         continue;
284                 }
285
286                 if (ctdb->nodes[i]->flags & NODE_FLAGS_DELETED) {
287                         continue;
288                 }
289
290                 /* any new or different nodes must be added */
291                 if (ctdb->methods->add_node(ctdb->nodes[i]) != 0) {
292                         DEBUG(DEBUG_CRIT, (__location__ " methods->add_node failed at %d\n", i));
293                         ctdb_fatal(ctdb, "failed to add node. shutting down\n");
294                 }
295                 if (ctdb->methods->connect_node(ctdb->nodes[i]) != 0) {
296                         DEBUG(DEBUG_CRIT, (__location__ " methods->add_connect failed at %d\n", i));
297                         ctdb_fatal(ctdb, "failed to connect to node. shutting down\n");
298                 }
299         }
300
301         /* tell the recovery daemon to reaload the nodes file too */
302         ctdb_daemon_send_message(ctdb, ctdb->pnn, CTDB_SRVID_RELOAD_NODES, tdb_null);
303
304         talloc_free(tmp_ctx);
305         return;
306 }
307
308 /*
309   reload the nodes file after a short delay (so that we can send the response
310   back first
311 */
312 int 
313 ctdb_control_reload_nodes_file(struct ctdb_context *ctdb, uint32_t opcode)
314 {
315         event_add_timed(ctdb->ev, ctdb, timeval_current_ofs(1,0), ctdb_reload_nodes_event, ctdb);
316
317         return 0;
318 }
319
320 /* 
321    a traverse function for pulling all relevent records from pulldb
322  */
323 struct pulldb_data {
324         struct ctdb_context *ctdb;
325         struct ctdb_marshall_buffer *pulldata;
326         uint32_t len;
327         bool failed;
328 };
329
330 static int traverse_pulldb(struct tdb_context *tdb, TDB_DATA key, TDB_DATA data, void *p)
331 {
332         struct pulldb_data *params = (struct pulldb_data *)p;
333         struct ctdb_rec_data *rec;
334
335         /* add the record to the blob */
336         rec = ctdb_marshall_record(params->pulldata, 0, key, NULL, data);
337         if (rec == NULL) {
338                 params->failed = true;
339                 return -1;
340         }
341         params->pulldata = talloc_realloc_size(NULL, params->pulldata, rec->length + params->len);
342         if (params->pulldata == NULL) {
343                 DEBUG(DEBUG_ERR,(__location__ " Failed to expand pulldb_data to %u (%u records)\n", 
344                          rec->length + params->len, params->pulldata->count));
345                 params->failed = true;
346                 return -1;
347         }
348         params->pulldata->count++;
349         memcpy(params->len+(uint8_t *)params->pulldata, rec, rec->length);
350         params->len += rec->length;
351         talloc_free(rec);
352
353         return 0;
354 }
355
356 /*
357   pul a bunch of records from a ltdb, filtering by lmaster
358  */
359 int32_t ctdb_control_pull_db(struct ctdb_context *ctdb, TDB_DATA indata, TDB_DATA *outdata)
360 {
361         struct ctdb_control_pulldb *pull;
362         struct ctdb_db_context *ctdb_db;
363         struct pulldb_data params;
364         struct ctdb_marshall_buffer *reply;
365
366         pull = (struct ctdb_control_pulldb *)indata.dptr;
367         
368         ctdb_db = find_ctdb_db(ctdb, pull->db_id);
369         if (!ctdb_db) {
370                 DEBUG(DEBUG_ERR,(__location__ " Unknown db 0x%08x\n", pull->db_id));
371                 return -1;
372         }
373
374         if (ctdb->freeze_mode[ctdb_db->priority] != CTDB_FREEZE_FROZEN) {
375                 DEBUG(DEBUG_DEBUG,("rejecting ctdb_control_pull_db when not frozen\n"));
376                 return -1;
377         }
378
379         reply = talloc_zero(outdata, struct ctdb_marshall_buffer);
380         CTDB_NO_MEMORY(ctdb, reply);
381
382         reply->db_id = pull->db_id;
383
384         params.ctdb = ctdb;
385         params.pulldata = reply;
386         params.len = offsetof(struct ctdb_marshall_buffer, data);
387         params.failed = false;
388
389         if (ctdb_lock_all_databases_mark(ctdb, ctdb_db->priority) != 0) {
390                 DEBUG(DEBUG_ERR,(__location__ " Failed to get lock on entired db - failing\n"));
391                 return -1;
392         }
393
394         if (tdb_traverse_read(ctdb_db->ltdb->tdb, traverse_pulldb, &params) == -1) {
395                 DEBUG(DEBUG_ERR,(__location__ " Failed to get traverse db '%s'\n", ctdb_db->db_name));
396                 ctdb_lock_all_databases_unmark(ctdb, ctdb_db->priority);
397                 talloc_free(params.pulldata);
398                 return -1;
399         }
400
401         ctdb_lock_all_databases_unmark(ctdb, ctdb_db->priority);
402
403         outdata->dptr = (uint8_t *)params.pulldata;
404         outdata->dsize = params.len;
405
406         return 0;
407 }
408
409 /*
410   push a bunch of records into a ltdb, filtering by rsn
411  */
412 int32_t ctdb_control_push_db(struct ctdb_context *ctdb, TDB_DATA indata)
413 {
414         struct ctdb_marshall_buffer *reply = (struct ctdb_marshall_buffer *)indata.dptr;
415         struct ctdb_db_context *ctdb_db;
416         int i, ret;
417         struct ctdb_rec_data *rec;
418
419         if (indata.dsize < offsetof(struct ctdb_marshall_buffer, data)) {
420                 DEBUG(DEBUG_ERR,(__location__ " invalid data in pulldb reply\n"));
421                 return -1;
422         }
423
424         ctdb_db = find_ctdb_db(ctdb, reply->db_id);
425         if (!ctdb_db) {
426                 DEBUG(DEBUG_ERR,(__location__ " Unknown db 0x%08x\n", reply->db_id));
427                 return -1;
428         }
429
430         if (ctdb->freeze_mode[ctdb_db->priority] != CTDB_FREEZE_FROZEN) {
431                 DEBUG(DEBUG_DEBUG,("rejecting ctdb_control_push_db when not frozen\n"));
432                 return -1;
433         }
434
435         if (ctdb_lock_all_databases_mark(ctdb, ctdb_db->priority) != 0) {
436                 DEBUG(DEBUG_ERR,(__location__ " Failed to get lock on entired db - failing\n"));
437                 return -1;
438         }
439
440         rec = (struct ctdb_rec_data *)&reply->data[0];
441
442         DEBUG(DEBUG_INFO,("starting push of %u records for dbid 0x%x\n",
443                  reply->count, reply->db_id));
444
445         for (i=0;i<reply->count;i++) {
446                 TDB_DATA key, data;
447                 struct ctdb_ltdb_header *hdr;
448
449                 key.dptr = &rec->data[0];
450                 key.dsize = rec->keylen;
451                 data.dptr = &rec->data[key.dsize];
452                 data.dsize = rec->datalen;
453
454                 if (data.dsize < sizeof(struct ctdb_ltdb_header)) {
455                         DEBUG(DEBUG_CRIT,(__location__ " bad ltdb record\n"));
456                         goto failed;
457                 }
458                 hdr = (struct ctdb_ltdb_header *)data.dptr;
459                 data.dptr += sizeof(*hdr);
460                 data.dsize -= sizeof(*hdr);
461
462                 ret = ctdb_ltdb_store(ctdb_db, key, hdr, data);
463                 if (ret != 0) {
464                         DEBUG(DEBUG_CRIT, (__location__ " Unable to store record\n"));
465                         goto failed;
466                 }
467
468                 rec = (struct ctdb_rec_data *)(rec->length + (uint8_t *)rec);
469         }           
470
471         DEBUG(DEBUG_DEBUG,("finished push of %u records for dbid 0x%x\n",
472                  reply->count, reply->db_id));
473
474         ctdb_lock_all_databases_unmark(ctdb, ctdb_db->priority);
475         return 0;
476
477 failed:
478         ctdb_lock_all_databases_unmark(ctdb, ctdb_db->priority);
479         return -1;
480 }
481
482
483 static int traverse_setdmaster(struct tdb_context *tdb, TDB_DATA key, TDB_DATA data, void *p)
484 {
485         uint32_t *dmaster = (uint32_t *)p;
486         struct ctdb_ltdb_header *header = (struct ctdb_ltdb_header *)data.dptr;
487         int ret;
488
489         /* skip if already correct */
490         if (header->dmaster == *dmaster) {
491                 return 0;
492         }
493
494         header->dmaster = *dmaster;
495
496         ret = tdb_store(tdb, key, data, TDB_REPLACE);
497         if (ret) {
498                 DEBUG(DEBUG_CRIT,(__location__ " failed to write tdb data back  ret:%d\n",ret));
499                 return ret;
500         }
501
502         /* TODO: add error checking here */
503
504         return 0;
505 }
506
507 int32_t ctdb_control_set_dmaster(struct ctdb_context *ctdb, TDB_DATA indata)
508 {
509         struct ctdb_control_set_dmaster *p = (struct ctdb_control_set_dmaster *)indata.dptr;
510         struct ctdb_db_context *ctdb_db;
511
512         ctdb_db = find_ctdb_db(ctdb, p->db_id);
513         if (!ctdb_db) {
514                 DEBUG(DEBUG_ERR,(__location__ " Unknown db 0x%08x\n", p->db_id));
515                 return -1;
516         }
517
518         if (ctdb->freeze_mode[ctdb_db->priority] != CTDB_FREEZE_FROZEN) {
519                 DEBUG(DEBUG_DEBUG,("rejecting ctdb_control_set_dmaster when not frozen\n"));
520                 return -1;
521         }
522
523         if (ctdb_lock_all_databases_mark(ctdb,  ctdb_db->priority) != 0) {
524                 DEBUG(DEBUG_ERR,(__location__ " Failed to get lock on entired db - failing\n"));
525                 return -1;
526         }
527
528         tdb_traverse(ctdb_db->ltdb->tdb, traverse_setdmaster, &p->dmaster);
529
530         ctdb_lock_all_databases_unmark(ctdb, ctdb_db->priority);
531         
532         return 0;
533 }
534
535 struct ctdb_set_recmode_state {
536         struct ctdb_context *ctdb;
537         struct ctdb_req_control *c;
538         uint32_t recmode;
539         int fd[2];
540         struct timed_event *te;
541         struct fd_event *fde;
542         pid_t child;
543         struct timeval start_time;
544 };
545
546 /*
547   called if our set_recmode child times out. this would happen if
548   ctdb_recovery_lock() would block.
549  */
550 static void ctdb_set_recmode_timeout(struct event_context *ev, struct timed_event *te, 
551                                          struct timeval t, void *private_data)
552 {
553         struct ctdb_set_recmode_state *state = talloc_get_type(private_data, 
554                                            struct ctdb_set_recmode_state);
555
556         /* we consider this a success, not a failure, as we failed to
557            set the recovery lock which is what we wanted.  This can be
558            caused by the cluster filesystem being very slow to
559            arbitrate locks immediately after a node failure.       
560          */
561         DEBUG(DEBUG_ERR,(__location__ " set_recmode child process hung/timedout CFS slow to grant locks? (allowing recmode set anyway)\n"));
562         state->ctdb->recovery_mode = state->recmode;
563         ctdb_request_control_reply(state->ctdb, state->c, NULL, 0, NULL);
564         talloc_free(state);
565 }
566
567
568 /* when we free the recmode state we must kill any child process.
569 */
570 static int set_recmode_destructor(struct ctdb_set_recmode_state *state)
571 {
572         double l = timeval_elapsed(&state->start_time);
573
574         ctdb_reclock_latency(state->ctdb, "daemon reclock", &state->ctdb->statistics.reclock.ctdbd, l);
575
576         if (state->fd[0] != -1) {
577                 state->fd[0] = -1;
578         }
579         if (state->fd[1] != -1) {
580                 state->fd[1] = -1;
581         }
582         kill(state->child, SIGKILL);
583         return 0;
584 }
585
586 /* this is called when the client process has completed ctdb_recovery_lock()
587    and has written data back to us through the pipe.
588 */
589 static void set_recmode_handler(struct event_context *ev, struct fd_event *fde, 
590                              uint16_t flags, void *private_data)
591 {
592         struct ctdb_set_recmode_state *state= talloc_get_type(private_data, 
593                                              struct ctdb_set_recmode_state);
594         char c = 0;
595         int ret;
596
597         /* we got a response from our child process so we can abort the
598            timeout.
599         */
600         talloc_free(state->te);
601         state->te = NULL;
602
603
604         /* read the childs status when trying to lock the reclock file.
605            child wrote 0 if everything is fine and 1 if it did manage
606            to lock the file, which would be a problem since that means
607            we got a request to exit from recovery but we could still lock
608            the file   which at this time SHOULD be locked by the recovery
609            daemon on the recmaster
610         */              
611         ret = read(state->fd[0], &c, 1);
612         if (ret != 1 || c != 0) {
613                 ctdb_request_control_reply(state->ctdb, state->c, NULL, -1, "managed to lock reclock file from inside daemon");
614                 talloc_free(state);
615                 return;
616         }
617
618         state->ctdb->recovery_mode = state->recmode;
619
620         ctdb_request_control_reply(state->ctdb, state->c, NULL, 0, NULL);
621         talloc_free(state);
622         return;
623 }
624
625 static void
626 ctdb_drop_all_ips_event(struct event_context *ev, struct timed_event *te, 
627                                struct timeval t, void *private_data)
628 {
629         struct ctdb_context *ctdb = talloc_get_type(private_data, struct ctdb_context);
630
631         DEBUG(DEBUG_ERR,(__location__ " Been in recovery mode for too long. Dropping all IPS\n"));
632         talloc_free(ctdb->release_ips_ctx);
633         ctdb->release_ips_ctx = NULL;
634
635         ctdb_release_all_ips(ctdb);
636 }
637
638 /*
639   set the recovery mode
640  */
641 int32_t ctdb_control_set_recmode(struct ctdb_context *ctdb, 
642                                  struct ctdb_req_control *c,
643                                  TDB_DATA indata, bool *async_reply,
644                                  const char **errormsg)
645 {
646         uint32_t recmode = *(uint32_t *)indata.dptr;
647         int i, ret;
648         struct ctdb_set_recmode_state *state;
649         pid_t parent = getpid();
650
651         /* if we enter recovery but stay in recovery for too long
652            we will eventually drop all our ip addresses
653         */
654         if (recmode == CTDB_RECOVERY_NORMAL) {
655                 talloc_free(ctdb->release_ips_ctx);
656                 ctdb->release_ips_ctx = NULL;
657         } else {
658                 talloc_free(ctdb->release_ips_ctx);
659                 ctdb->release_ips_ctx = talloc_new(ctdb);
660                 CTDB_NO_MEMORY(ctdb, ctdb->release_ips_ctx);
661
662                 event_add_timed(ctdb->ev, ctdb->release_ips_ctx, timeval_current_ofs(ctdb->tunable.recovery_drop_all_ips, 0), ctdb_drop_all_ips_event, ctdb);
663         }
664
665         if (recmode != ctdb->recovery_mode) {
666                 DEBUG(DEBUG_NOTICE,(__location__ " Recovery mode set to %s\n", 
667                          recmode==CTDB_RECOVERY_NORMAL?"NORMAL":"ACTIVE"));
668         }
669
670         if (recmode != CTDB_RECOVERY_NORMAL ||
671             ctdb->recovery_mode != CTDB_RECOVERY_ACTIVE) {
672                 ctdb->recovery_mode = recmode;
673                 return 0;
674         }
675
676         /* some special handling when ending recovery mode */
677
678         /* force the databases to thaw */
679         for (i=1; i<=NUM_DB_PRIORITIES; i++) {
680                 if (ctdb->freeze_handles[i] != NULL) {
681                         ctdb_control_thaw(ctdb, i);
682                 }
683         }
684
685         state = talloc(ctdb, struct ctdb_set_recmode_state);
686         CTDB_NO_MEMORY(ctdb, state);
687
688         state->start_time = timeval_current();
689         state->fd[0] = -1;
690         state->fd[1] = -1;
691
692         if (ctdb->tunable.verify_recovery_lock == 0) {
693                 /* dont need to verify the reclock file */
694                 ctdb->recovery_mode = recmode;
695                 return 0;
696         }
697
698         /* For the rest of what needs to be done, we need to do this in
699            a child process since 
700            1, the call to ctdb_recovery_lock() can block if the cluster
701               filesystem is in the process of recovery.
702         */
703         ret = pipe(state->fd);
704         if (ret != 0) {
705                 talloc_free(state);
706                 DEBUG(DEBUG_CRIT,(__location__ " Failed to open pipe for set_recmode child\n"));
707                 return -1;
708         }
709
710         state->child = fork();
711         if (state->child == (pid_t)-1) {
712                 close(state->fd[0]);
713                 close(state->fd[1]);
714                 talloc_free(state);
715                 return -1;
716         }
717
718         if (state->child == 0) {
719                 char cc = 0;
720                 close(state->fd[0]);
721
722                 /* we should not be able to get the lock on the reclock file, 
723                   as it should  be held by the recovery master 
724                 */
725                 if (ctdb_recovery_lock(ctdb, false)) {
726                         DEBUG(DEBUG_CRIT,("ERROR: recovery lock file %s not locked when recovering!\n", ctdb->recovery_lock_file));
727                         cc = 1;
728                 }
729
730                 write(state->fd[1], &cc, 1);
731                 /* make sure we die when our parent dies */
732                 while (kill(parent, 0) == 0 || errno != ESRCH) {
733                         sleep(5);
734                         write(state->fd[1], &cc, 1);
735                 }
736                 _exit(0);
737         }
738         close(state->fd[1]);
739         set_close_on_exec(state->fd[0]);
740
741         state->fd[1] = -1;
742
743         talloc_set_destructor(state, set_recmode_destructor);
744
745         DEBUG(DEBUG_NOTICE, (__location__ " Created PIPE FD:%d for setrecmode\n", state->fd[0]));
746
747         state->te = event_add_timed(ctdb->ev, state, timeval_current_ofs(5, 0),
748                                     ctdb_set_recmode_timeout, state);
749
750         state->fde = event_add_fd(ctdb->ev, state, state->fd[0],
751                                 EVENT_FD_READ|EVENT_FD_AUTOCLOSE,
752                                 set_recmode_handler,
753                                 (void *)state);
754
755         if (state->fde == NULL) {
756                 talloc_free(state);
757                 return -1;
758         }
759
760         state->ctdb    = ctdb;
761         state->recmode = recmode;
762         state->c       = talloc_steal(state, c);
763
764         *async_reply = true;
765
766         return 0;
767 }
768
769
770 /*
771   try and get the recovery lock in shared storage - should only work
772   on the recovery master recovery daemon. Anywhere else is a bug
773  */
774 bool ctdb_recovery_lock(struct ctdb_context *ctdb, bool keep)
775 {
776         struct flock lock;
777
778         if (keep) {
779                 DEBUG(DEBUG_ERR, ("Take the recovery lock\n"));
780         }
781         if (ctdb->recovery_lock_fd != -1) {
782                 close(ctdb->recovery_lock_fd);
783                 ctdb->recovery_lock_fd = -1;
784         }
785
786         ctdb->recovery_lock_fd = open(ctdb->recovery_lock_file, O_RDWR|O_CREAT, 0600);
787         if (ctdb->recovery_lock_fd == -1) {
788                 DEBUG(DEBUG_ERR,("ctdb_recovery_lock: Unable to open %s - (%s)\n", 
789                          ctdb->recovery_lock_file, strerror(errno)));
790                 return false;
791         }
792
793         set_close_on_exec(ctdb->recovery_lock_fd);
794
795         lock.l_type = F_WRLCK;
796         lock.l_whence = SEEK_SET;
797         lock.l_start = 0;
798         lock.l_len = 1;
799         lock.l_pid = 0;
800
801         if (fcntl(ctdb->recovery_lock_fd, F_SETLK, &lock) != 0) {
802                 close(ctdb->recovery_lock_fd);
803                 ctdb->recovery_lock_fd = -1;
804                 if (keep) {
805                         DEBUG(DEBUG_CRIT,("ctdb_recovery_lock: Failed to get recovery lock on '%s'\n", ctdb->recovery_lock_file));
806                 }
807                 return false;
808         }
809
810         if (!keep) {
811                 close(ctdb->recovery_lock_fd);
812                 ctdb->recovery_lock_fd = -1;
813         }
814
815         if (keep) {
816                 DEBUG(DEBUG_ERR, ("Recovery lock taken successfully\n"));
817         }
818
819         DEBUG(DEBUG_NOTICE,("ctdb_recovery_lock: Got recovery lock on '%s'\n", ctdb->recovery_lock_file));
820
821         return true;
822 }
823
824 /*
825   delete a record as part of the vacuum process
826   only delete if we are not lmaster or dmaster, and our rsn is <= the provided rsn
827   use non-blocking locks
828
829   return 0 if the record was successfully deleted (i.e. it does not exist
830   when the function returns)
831   or !0 is the record still exists in the tdb after returning.
832  */
833 static int delete_tdb_record(struct ctdb_context *ctdb, struct ctdb_db_context *ctdb_db, struct ctdb_rec_data *rec)
834 {
835         TDB_DATA key, data;
836         struct ctdb_ltdb_header *hdr, *hdr2;
837         
838         /* these are really internal tdb functions - but we need them here for
839            non-blocking lock of the freelist */
840         int tdb_lock_nonblock(struct tdb_context *tdb, int list, int ltype);
841         int tdb_unlock(struct tdb_context *tdb, int list, int ltype);
842
843
844         key.dsize = rec->keylen;
845         key.dptr  = &rec->data[0];
846         data.dsize = rec->datalen;
847         data.dptr = &rec->data[rec->keylen];
848
849         if (ctdb_lmaster(ctdb, &key) == ctdb->pnn) {
850                 DEBUG(DEBUG_INFO,(__location__ " Called delete on record where we are lmaster\n"));
851                 return -1;
852         }
853
854         if (data.dsize != sizeof(struct ctdb_ltdb_header)) {
855                 DEBUG(DEBUG_ERR,(__location__ " Bad record size\n"));
856                 return -1;
857         }
858
859         hdr = (struct ctdb_ltdb_header *)data.dptr;
860
861         /* use a non-blocking lock */
862         if (tdb_chainlock_nonblock(ctdb_db->ltdb->tdb, key) != 0) {
863                 return -1;
864         }
865
866         data = tdb_fetch(ctdb_db->ltdb->tdb, key);
867         if (data.dptr == NULL) {
868                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
869                 return 0;
870         }
871
872         if (data.dsize < sizeof(struct ctdb_ltdb_header)) {
873                 if (tdb_lock_nonblock(ctdb_db->ltdb->tdb, -1, F_WRLCK) == 0) {
874                         tdb_delete(ctdb_db->ltdb->tdb, key);
875                         tdb_unlock(ctdb_db->ltdb->tdb, -1, F_WRLCK);
876                         DEBUG(DEBUG_CRIT,(__location__ " Deleted corrupt record\n"));
877                 }
878                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
879                 free(data.dptr);
880                 return 0;
881         }
882         
883         hdr2 = (struct ctdb_ltdb_header *)data.dptr;
884
885         if (hdr2->rsn > hdr->rsn) {
886                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
887                 DEBUG(DEBUG_INFO,(__location__ " Skipping record with rsn=%llu - called with rsn=%llu\n",
888                          (unsigned long long)hdr2->rsn, (unsigned long long)hdr->rsn));
889                 free(data.dptr);
890                 return -1;              
891         }
892
893         if (hdr2->dmaster == ctdb->pnn) {
894                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
895                 DEBUG(DEBUG_INFO,(__location__ " Attempted delete record where we are the dmaster\n"));
896                 free(data.dptr);
897                 return -1;                              
898         }
899
900         if (tdb_lock_nonblock(ctdb_db->ltdb->tdb, -1, F_WRLCK) != 0) {
901                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
902                 free(data.dptr);
903                 return -1;                              
904         }
905
906         if (tdb_delete(ctdb_db->ltdb->tdb, key) != 0) {
907                 tdb_unlock(ctdb_db->ltdb->tdb, -1, F_WRLCK);
908                 tdb_chainunlock(ctdb_db->ltdb->tdb, key);
909                 DEBUG(DEBUG_INFO,(__location__ " Failed to delete record\n"));
910                 free(data.dptr);
911                 return -1;                                              
912         }
913
914         tdb_unlock(ctdb_db->ltdb->tdb, -1, F_WRLCK);
915         tdb_chainunlock(ctdb_db->ltdb->tdb, key);
916         free(data.dptr);
917         return 0;       
918 }
919
920
921
922 struct recovery_callback_state {
923         struct ctdb_req_control *c;
924 };
925
926
927 /*
928   called when the 'recovered' event script has finished
929  */
930 static void ctdb_end_recovery_callback(struct ctdb_context *ctdb, int status, void *p)
931 {
932         struct recovery_callback_state *state = talloc_get_type(p, struct recovery_callback_state);
933
934         ctdb_enable_monitoring(ctdb);
935
936         if (status != 0) {
937                 DEBUG(DEBUG_ERR,(__location__ " recovered event script failed (status %d)\n", status));
938         }
939
940         ctdb_request_control_reply(ctdb, state->c, NULL, status, NULL);
941         talloc_free(state);
942
943         gettimeofday(&ctdb->last_recovery_finished, NULL);
944 }
945
946 /*
947   recovery has finished
948  */
949 int32_t ctdb_control_end_recovery(struct ctdb_context *ctdb, 
950                                 struct ctdb_req_control *c,
951                                 bool *async_reply)
952 {
953         int ret;
954         struct recovery_callback_state *state;
955
956         DEBUG(DEBUG_NOTICE,("Recovery has finished\n"));
957
958         state = talloc(ctdb, struct recovery_callback_state);
959         CTDB_NO_MEMORY(ctdb, state);
960
961         state->c    = talloc_steal(state, c);
962
963         ctdb_disable_monitoring(ctdb);
964
965         ret = ctdb_event_script_callback(ctdb, 
966                                          timeval_current_ofs(ctdb->tunable.script_timeout, 0),
967                                          state, 
968                                          ctdb_end_recovery_callback, 
969                                          state, "recovered");
970
971         if (ret != 0) {
972                 ctdb_enable_monitoring(ctdb);
973
974                 DEBUG(DEBUG_ERR,(__location__ " Failed to end recovery\n"));
975                 talloc_free(state);
976                 return -1;
977         }
978
979         /* tell the control that we will be reply asynchronously */
980         *async_reply = true;
981         return 0;
982 }
983
984 /*
985   called when the 'startrecovery' event script has finished
986  */
987 static void ctdb_start_recovery_callback(struct ctdb_context *ctdb, int status, void *p)
988 {
989         struct recovery_callback_state *state = talloc_get_type(p, struct recovery_callback_state);
990
991         if (status != 0) {
992                 DEBUG(DEBUG_ERR,(__location__ " startrecovery event script failed (status %d)\n", status));
993         }
994
995         ctdb_request_control_reply(ctdb, state->c, NULL, status, NULL);
996         talloc_free(state);
997 }
998
999 /*
1000   run the startrecovery eventscript
1001  */
1002 int32_t ctdb_control_start_recovery(struct ctdb_context *ctdb, 
1003                                 struct ctdb_req_control *c,
1004                                 bool *async_reply)
1005 {
1006         int ret;
1007         struct recovery_callback_state *state;
1008
1009         DEBUG(DEBUG_NOTICE,(__location__ " startrecovery eventscript has been invoked\n"));
1010         gettimeofday(&ctdb->last_recovery_started, NULL);
1011
1012         state = talloc(ctdb, struct recovery_callback_state);
1013         CTDB_NO_MEMORY(ctdb, state);
1014
1015         state->c    = talloc_steal(state, c);
1016
1017         ctdb_disable_monitoring(ctdb);
1018
1019         ret = ctdb_event_script_callback(ctdb, 
1020                                          timeval_current_ofs(ctdb->tunable.script_timeout, 0),
1021                                          state, 
1022                                          ctdb_start_recovery_callback, 
1023                                          state, "startrecovery");
1024
1025         if (ret != 0) {
1026                 DEBUG(DEBUG_ERR,(__location__ " Failed to start recovery\n"));
1027                 talloc_free(state);
1028                 return -1;
1029         }
1030
1031         /* tell the control that we will be reply asynchronously */
1032         *async_reply = true;
1033         return 0;
1034 }
1035
1036 /*
1037  try to delete all these records as part of the vacuuming process
1038  and return the records we failed to delete
1039 */
1040 int32_t ctdb_control_try_delete_records(struct ctdb_context *ctdb, TDB_DATA indata, TDB_DATA *outdata)
1041 {
1042         struct ctdb_marshall_buffer *reply = (struct ctdb_marshall_buffer *)indata.dptr;
1043         struct ctdb_db_context *ctdb_db;
1044         int i;
1045         struct ctdb_rec_data *rec;
1046         struct ctdb_marshall_buffer *records;
1047
1048         if (indata.dsize < offsetof(struct ctdb_marshall_buffer, data)) {
1049                 DEBUG(DEBUG_ERR,(__location__ " invalid data in try_delete_records\n"));
1050                 return -1;
1051         }
1052
1053         ctdb_db = find_ctdb_db(ctdb, reply->db_id);
1054         if (!ctdb_db) {
1055                 DEBUG(DEBUG_ERR,(__location__ " Unknown db 0x%08x\n", reply->db_id));
1056                 return -1;
1057         }
1058
1059
1060         DEBUG(DEBUG_DEBUG,("starting try_delete_records of %u records for dbid 0x%x\n",
1061                  reply->count, reply->db_id));
1062
1063
1064         /* create a blob to send back the records we couldnt delete */  
1065         records = (struct ctdb_marshall_buffer *)
1066                         talloc_zero_size(outdata, 
1067                                     offsetof(struct ctdb_marshall_buffer, data));
1068         if (records == NULL) {
1069                 DEBUG(DEBUG_ERR,(__location__ " Out of memory\n"));
1070                 return -1;
1071         }
1072         records->db_id = ctdb_db->db_id;
1073
1074
1075         rec = (struct ctdb_rec_data *)&reply->data[0];
1076         for (i=0;i<reply->count;i++) {
1077                 TDB_DATA key, data;
1078
1079                 key.dptr = &rec->data[0];
1080                 key.dsize = rec->keylen;
1081                 data.dptr = &rec->data[key.dsize];
1082                 data.dsize = rec->datalen;
1083
1084                 if (data.dsize < sizeof(struct ctdb_ltdb_header)) {
1085                         DEBUG(DEBUG_CRIT,(__location__ " bad ltdb record in indata\n"));
1086                         return -1;
1087                 }
1088
1089                 /* If we cant delete the record we must add it to the reply
1090                    so the lmaster knows it may not purge this record
1091                 */
1092                 if (delete_tdb_record(ctdb, ctdb_db, rec) != 0) {
1093                         size_t old_size;
1094                         struct ctdb_ltdb_header *hdr;
1095
1096                         hdr = (struct ctdb_ltdb_header *)data.dptr;
1097                         data.dptr += sizeof(*hdr);
1098                         data.dsize -= sizeof(*hdr);
1099
1100                         DEBUG(DEBUG_INFO, (__location__ " Failed to vacuum delete record with hash 0x%08x\n", ctdb_hash(&key)));
1101
1102                         old_size = talloc_get_size(records);
1103                         records = talloc_realloc_size(outdata, records, old_size + rec->length);
1104                         if (records == NULL) {
1105                                 DEBUG(DEBUG_ERR,(__location__ " Failed to expand\n"));
1106                                 return -1;
1107                         }
1108                         records->count++;
1109                         memcpy(old_size+(uint8_t *)records, rec, rec->length);
1110                 } 
1111
1112                 rec = (struct ctdb_rec_data *)(rec->length + (uint8_t *)rec);
1113         }           
1114
1115
1116         outdata->dptr = (uint8_t *)records;
1117         outdata->dsize = talloc_get_size(records);
1118
1119         return 0;
1120 }
1121
1122 /*
1123   report capabilities
1124  */
1125 int32_t ctdb_control_get_capabilities(struct ctdb_context *ctdb, TDB_DATA *outdata)
1126 {
1127         uint32_t *capabilities = NULL;
1128
1129         capabilities = talloc(outdata, uint32_t);
1130         CTDB_NO_MEMORY(ctdb, capabilities);
1131         *capabilities = ctdb->capabilities;
1132
1133         outdata->dsize = sizeof(uint32_t);
1134         outdata->dptr = (uint8_t *)capabilities;
1135
1136         return 0;       
1137 }
1138
1139 static void ctdb_recd_ping_timeout(struct event_context *ev, struct timed_event *te, struct timeval t, void *p)
1140 {
1141         struct ctdb_context *ctdb = talloc_get_type(p, struct ctdb_context);
1142         uint32_t *count = talloc_get_type(ctdb->recd_ping_count, uint32_t);
1143
1144         DEBUG(DEBUG_ERR, ("Recovery daemon ping timeout. Count : %u\n", *count));
1145
1146         if (*count < ctdb->tunable.recd_ping_failcount) {
1147                 (*count)++;
1148                 event_add_timed(ctdb->ev, ctdb->recd_ping_count, 
1149                         timeval_current_ofs(ctdb->tunable.recd_ping_timeout, 0),
1150                         ctdb_recd_ping_timeout, ctdb);
1151                 return;
1152         }
1153
1154         DEBUG(DEBUG_ERR, ("Final timeout for recovery daemon ping. Shutting down ctdb daemon. (This can be caused if the cluster filesystem has hung)\n"));
1155
1156         ctdb_stop_recoverd(ctdb);
1157         ctdb_stop_keepalive(ctdb);
1158         ctdb_stop_monitoring(ctdb);
1159         ctdb_release_all_ips(ctdb);
1160         if (ctdb->methods != NULL) {
1161                 ctdb->methods->shutdown(ctdb);
1162         }
1163         ctdb_event_script(ctdb, "shutdown");
1164         DEBUG(DEBUG_ERR, ("Recovery daemon ping timeout. Daemon has been shut down.\n"));
1165         exit(0);
1166 }
1167
1168 /* The recovery daemon will ping us at regular intervals.
1169    If we havent been pinged for a while we assume the recovery
1170    daemon is inoperable and we shut down.
1171 */
1172 int32_t ctdb_control_recd_ping(struct ctdb_context *ctdb)
1173 {
1174         talloc_free(ctdb->recd_ping_count);
1175
1176         ctdb->recd_ping_count = talloc_zero(ctdb, uint32_t);
1177         CTDB_NO_MEMORY(ctdb, ctdb->recd_ping_count);
1178
1179         if (ctdb->tunable.recd_ping_timeout != 0) {
1180                 event_add_timed(ctdb->ev, ctdb->recd_ping_count, 
1181                         timeval_current_ofs(ctdb->tunable.recd_ping_timeout, 0),
1182                         ctdb_recd_ping_timeout, ctdb);
1183         }
1184
1185         return 0;
1186 }
1187
1188
1189
1190 int32_t ctdb_control_set_recmaster(struct ctdb_context *ctdb, uint32_t opcode, TDB_DATA indata)
1191 {
1192         CHECK_CONTROL_DATA_SIZE(sizeof(uint32_t));
1193
1194         ctdb->recovery_master = ((uint32_t *)(&indata.dptr[0]))[0];
1195         return 0;
1196 }
1197
1198
1199 struct stop_node_callback_state {
1200         struct ctdb_req_control *c;
1201 };
1202
1203 /*
1204   called when the 'stopped' event script has finished
1205  */
1206 static void ctdb_stop_node_callback(struct ctdb_context *ctdb, int status, void *p)
1207 {
1208         struct stop_node_callback_state *state = talloc_get_type(p, struct stop_node_callback_state);
1209
1210         if (status != 0) {
1211                 DEBUG(DEBUG_ERR,(__location__ " stopped event script failed (status %d)\n", status));
1212                 ctdb->nodes[ctdb->pnn]->flags &= ~NODE_FLAGS_STOPPED;
1213         }
1214
1215         ctdb_request_control_reply(ctdb, state->c, NULL, status, NULL);
1216         talloc_free(state);
1217 }
1218
1219 int32_t ctdb_control_stop_node(struct ctdb_context *ctdb, struct ctdb_req_control *c, bool *async_reply)
1220 {
1221         int ret;
1222         struct stop_node_callback_state *state;
1223
1224         DEBUG(DEBUG_INFO,(__location__ " Stopping node\n"));
1225
1226         state = talloc(ctdb, struct stop_node_callback_state);
1227         CTDB_NO_MEMORY(ctdb, state);
1228
1229         state->c    = talloc_steal(state, c);
1230
1231         ctdb_disable_monitoring(ctdb);
1232
1233         ret = ctdb_event_script_callback(ctdb, 
1234                                          timeval_current_ofs(ctdb->tunable.script_timeout, 0),
1235                                          state, 
1236                                          ctdb_stop_node_callback, 
1237                                          state, "stopped");
1238
1239         if (ret != 0) {
1240                 ctdb_enable_monitoring(ctdb);
1241
1242                 DEBUG(DEBUG_ERR,(__location__ " Failed to stop node\n"));
1243                 talloc_free(state);
1244                 return -1;
1245         }
1246
1247         ctdb->nodes[ctdb->pnn]->flags |= NODE_FLAGS_STOPPED;
1248
1249         *async_reply = true;
1250
1251         return 0;
1252 }
1253
1254 int32_t ctdb_control_continue_node(struct ctdb_context *ctdb)
1255 {
1256         DEBUG(DEBUG_INFO,(__location__ " Continue node\n"));
1257         ctdb->nodes[ctdb->pnn]->flags &= ~NODE_FLAGS_STOPPED;
1258
1259         return 0;
1260 }