a5413abf40b30c73ed962c9549c882379be5e2ae
[metze/ctdb/wip.git] / doc / ctdb.1.html
1 <html><head><meta http-equiv="Content-Type" content="text/html; charset=ISO-8859-1"><title>ctdb</title><meta name="generator" content="DocBook XSL Stylesheets V1.73.2"></head><body bgcolor="white" text="black" link="#0000FF" vlink="#840084" alink="#0000FF"><div class="refentry" lang="en"><a name="ctdb.1"></a><div class="titlepage"></div><div class="refnamediv"><h2>Name</h2><p>ctdb &#8212; clustered tdb database management utility</p></div><div class="refsynopsisdiv"><h2>Synopsis</h2><div class="cmdsynopsis"><p><code class="command">ctdb [ OPTIONS ] COMMAND ...</code> </p></div><div class="cmdsynopsis"><p><code class="command">ctdb</code>  [-n &lt;node&gt;] [-Y] [-t &lt;timeout&gt;] [-T &lt;timelimit&gt;] [-? --help] [--usage] [-d --debug=&lt;INTEGER&gt;] [--socket=&lt;filename&gt;]</p></div></div><div class="refsect1" lang="en"><a name="id2478395"></a><h2>DESCRIPTION</h2><p>
2       ctdb is a utility to view and manage a ctdb cluster.
3     </p></div><div class="refsect1" lang="en"><a name="id2478405"></a><h2>OPTIONS</h2><div class="variablelist"><dl><dt><span class="term">-n &lt;pnn&gt;</span></dt><dd><p>
4             This specifies the physical node number on which to execute the 
5             command. Default is to run the command on the deamon running on 
6             the local host.
7           </p><p>
8             The physical node number is an integer that describes the node in the
9             cluster. The first node has physical node number 0.
10           </p></dd><dt><span class="term">-Y</span></dt><dd><p>
11             Produce output in machine readable form for easier parsing by scripts. Not all commands support this option.
12           </p></dd><dt><span class="term">-t &lt;timeout&gt;</span></dt><dd><p>
13             How long should ctdb wait for the local ctdb daemon to respond to a command before timing out. Default is 3 seconds.
14           </p></dd><dt><span class="term">-T &lt;timelimit&gt;</span></dt><dd><p>
15             A limit on how long the ctdb command will run for before it will
16             be aborted. When this timelimit has been exceeded the ctdb command will
17             terminate.
18           </p></dd><dt><span class="term">-? --help</span></dt><dd><p>
19             Print some help text to the screen.
20           </p></dd><dt><span class="term">--usage</span></dt><dd><p>
21             Print useage information to the screen.
22           </p></dd><dt><span class="term">-d --debug=&lt;debuglevel&gt;</span></dt><dd><p>
23             Change the debug level for the command. Default is 0.
24           </p></dd><dt><span class="term">--socket=&lt;filename&gt;</span></dt><dd><p>
25             Specify the socketname to use when connecting to the local ctdb 
26             daemon. The default is /tmp/ctdb.socket .
27           </p><p>
28             You only need to specify this parameter if you run multiple ctdb 
29             daemons on the same physical host and thus can not use the default
30             name for the domain socket.
31           </p></dd></dl></div></div><div class="refsect1" lang="en"><a name="id2479674"></a><h2>Administrative Commands</h2><p>
32       These are commands used to monitor and administrate a CTDB cluster.
33     </p><div class="refsect2" lang="en"><a name="id2479683"></a><h3>pnn</h3><p>
34         This command displays the pnn of the current node.
35       </p></div><div class="refsect2" lang="en"><a name="id2479693"></a><h3>status</h3><p>
36         This command shows the current status of the ctdb node.
37       </p><div class="refsect3" lang="en"><a name="id2479702"></a><h4>node status</h4><p>
38           Node status reflects the current status of the node. There are five possible states:
39         </p><p>
40           OK - This node is fully functional.
41         </p><p>
42           DISCONNECTED - This node could not be connected through the network and is currently not participating in the cluster. If there is a public IP address associated with this node it should have been taken over by a different node. No services are running on this node.
43         </p><p>
44           DISABLED - This node has been administratively disabled. This node is still functional and participates in the CTDB cluster but its IP addresses have been taken over by a different node and no services are currently being hosted.
45         </p><p>
46           UNHEALTHY - A service provided by this node is malfunctioning and should be investigated. The CTDB daemon itself is operational and participates in the cluster. Its public IP address has been taken over by a different node and no services are currnetly being hosted. All unhealthy nodes should be investigated and require an administrative action to rectify.
47         </p><p>
48           BANNED - This node failed too many recovery attempts and has been banned from participating in the cluster for a period of RecoveryBanPeriod seconds. Any public IP address has been taken over by other nodes. This node does not provide any services. All banned nodes should be investigated and require an administrative action to rectify. This node does not perticipate in the CTDB cluster but can still be communicated with. I.e. ctdb commands can be sent to it.
49         </p></div><div class="refsect3" lang="en"><a name="id2479754"></a><h4>generation</h4><p>
50           The generation id is a number that indicates the current generation 
51           of a cluster instance. Each time a cluster goes through a 
52           reconfiguration or a recovery its generation id will be changed.
53           </p><p>
54           This number does not have any particular meaning other than to keep
55           track of when a cluster has gone through a recovery. It is a random
56           number that represents the current instance of a ctdb cluster
57           and its databases.
58           CTDBD uses this number internally to be able to tell when commands 
59           to operate on the cluster and the databases was issued in a different
60           generation of the cluster, to ensure that commands that operate
61           on the databases will not survive across a cluster database recovery.
62           After a recovery, all old outstanding commands will automatically
63           become invalid. 
64         </p><p>
65           Sometimes this number will be shown as "INVALID". This only means that
66           the ctdbd daemon has started but it has not yet merged with the cluster through a recovery.
67           All nodes start with generation "INVALID" and are not assigned a real
68           generation id until they have successfully been merged with a cluster
69           through a recovery.
70         </p></div><div class="refsect3" lang="en"><a name="id2479789"></a><h4>VNNMAP</h4><p>
71           The list of Virtual Node Numbers. This is a list of all nodes that actively participates in the cluster and that share the workload of hosting the Clustered TDB database records.
72           Only nodes that are participating in the vnnmap can become lmaster or dmaster for a database record.
73         </p></div><div class="refsect3" lang="en"><a name="id2479803"></a><h4>Recovery mode</h4><p>
74           This is the current recovery mode of the cluster. There are two possible modes:
75         </p><p>
76           NORMAL - The cluster is fully operational.
77         </p><p>
78           RECOVERY - The cluster databases have all been frozen, pausing all services while the cluster awaits a recovery process to complete. A recovery process should finish within seconds. If a cluster is stuck in the RECOVERY state this would indicate a cluster malfunction which needs to be investigated.
79         </p><p>
80         Once the recovery master detects an inconsistency, for example a node 
81         becomes disconnected/connected, the recovery daemon will trigger a 
82         cluster recovery process, where all databases are remerged across the
83         cluster. When this process starts, the recovery master will first
84         "freeze" all databases to prevent applications such as samba from 
85         accessing the databases and it will also mark the recovery mode as
86         RECOVERY.
87         </p><p>
88         When CTDBD starts up, it will start in RECOVERY mode.
89         Once the node has been merged into a cluster and all databases
90         have been recovered, the node mode will change into NORMAL mode
91         and the databases will be "thawed", allowing samba to access the
92         databases again.
93         </p></div><div class="refsect3" lang="en"><a name="id2528502"></a><h4>Recovery master</h4><p>
94           This is the cluster node that is currently designated as the recovery master. This node is responsible of monitoring the consistency of the cluster and to perform the actual recovery process when reqired.
95         </p><p>
96         Only one node at a time can be the designated recovery master. Which
97         node is designated the recovery master is decided by an election
98         process in the recovery daemons running on each node.
99         </p></div><p>
100         Example: ctdb status
101       </p><p>Example output:</p><pre class="screen">
102 Number of nodes:4
103 pnn:0 11.1.2.200       OK (THIS NODE)
104 pnn:1 11.1.2.201       OK
105 pnn:2 11.1.2.202       OK
106 pnn:3 11.1.2.203       OK
107 Generation:1362079228
108 Size:4
109 hash:0 lmaster:0
110 hash:1 lmaster:1
111 hash:2 lmaster:2
112 hash:3 lmaster:3
113 Recovery mode:NORMAL (0)
114 Recovery master:0
115       </pre></div><div class="refsect2" lang="en"><a name="id2528540"></a><h3>recmaster</h3><p>
116         This command shows the pnn of the node which is currently the recmaster.
117       </p></div><div class="refsect2" lang="en"><a name="id2528550"></a><h3>uptime</h3><p>
118         This command shows the uptime for the ctdb daemon. When the last recovery completed and how long the last recovery took. If the "duration" is shown as a negative number, this indicates that there is a recovery in progress and it started that many seconds ago.
119       </p><p>
120         Example: ctdb uptime
121       </p><p>Example output:</p><pre class="screen">
122 Current time of node  : Tue Mar 24 18:27:54 2009
123 Ctdbd start time      : (000 00:00:05) Tue Mar 24 18:27:49 2009
124 Time of last recovery : (000 00:00:05) Tue Mar 24 18:27:49 2009
125 Duration of last recovery : 0.000000 seconds
126       </pre></div><div class="refsect2" lang="en"><a name="id2528580"></a><h3>listnodes</h3><p>
127         This command shows lists the ip addresses of all the nodes in the cluster.
128       </p><p>
129         Example: ctdb listnodes
130       </p><p>Example output:</p><pre class="screen">
131 10.0.0.71
132 10.0.0.72
133 10.0.0.73
134 10.0.0.74
135       </pre></div><div class="refsect2" lang="en"><a name="id2528604"></a><h3>ping</h3><p>
136         This command will "ping" all CTDB daemons in the cluster to verify that they are processing commands correctly.
137       </p><p>
138         Example: ctdb ping
139       </p><p>
140         Example output:
141       </p><pre class="screen">
142 response from 0 time=0.000054 sec  (3 clients)
143 response from 1 time=0.000144 sec  (2 clients)
144 response from 2 time=0.000105 sec  (2 clients)
145 response from 3 time=0.000114 sec  (2 clients)
146       </pre></div><div class="refsect2" lang="en"><a name="id2528630"></a><h3>ip</h3><p>
147         This command will display the list of public addresses that are provided by the cluster and which physical node is currently serving this ip. By default this command will ONLY show those public addresses that are known to the node itself. To see the full list of all public ips across the cluster you must use "ctdb ip -n all".
148       </p><p>
149         Example: ctdb ip
150       </p><p>
151         Example output:
152       </p><pre class="screen">
153 Number of addresses:4
154 12.1.1.1         0
155 12.1.1.2         1
156 12.1.1.3         2
157 12.1.1.4         3
158       </pre></div><div class="refsect2" lang="en"><a name="id2528658"></a><h3>scriptstatus</h3><p>
159         This command displays which scripts where run in the previous monitoring cycle and the result of each script. If a script failed with an error, causing the node to become unhealthy, the output from that script is also shown.
160       </p><p>
161         Example: ctdb scriptstatus
162       </p><p>
163         Example output:
164       </p><pre class="screen">
165 7 scripts were executed last monitoring cycle
166 00.ctdb              Status:OK    Duration:0.056 Tue Mar 24 18:56:57 2009
167 10.interface         Status:OK    Duration:0.077 Tue Mar 24 18:56:57 2009
168 11.natgw             Status:OK    Duration:0.039 Tue Mar 24 18:56:57 2009
169 20.multipathd        Status:OK    Duration:0.038 Tue Mar 24 18:56:57 2009
170 40.vsftpd            Status:OK    Duration:0.045 Tue Mar 24 18:56:57 2009
171 41.httpd             Status:OK    Duration:0.039 Tue Mar 24 18:56:57 2009
172 50.samba             Status:ERROR    Duration:0.082 Tue Mar 24 18:56:57 2009
173    OUTPUT:ERROR: Samba tcp port 445 is not responding
174       </pre></div><div class="refsect2" lang="en"><a name="id2479836"></a><h3>getvar &lt;name&gt;</h3><p>
175         Get the runtime value of a tuneable variable.
176       </p><p>
177         Example: ctdb getvar MaxRedirectCount
178       </p><p>
179         Example output:
180       </p><pre class="screen">
181 MaxRedirectCount    = 3
182       </pre></div><div class="refsect2" lang="en"><a name="id2528713"></a><h3>setvar &lt;name&gt; &lt;value&gt;</h3><p>
183         Set the runtime value of a tuneable variable.
184       </p><p>
185         Example: ctdb setvar MaxRedirectCount 5
186       </p></div><div class="refsect2" lang="en"><a name="id2528728"></a><h3>listvars</h3><p>
187         List all tuneable variables.
188       </p><p>
189         Example: ctdb listvars
190       </p><p>
191         Example output:
192       </p><pre class="screen">
193 MaxRedirectCount    = 5
194 SeqnumFrequency     = 1
195 ControlTimeout      = 60
196 TraverseTimeout     = 20
197 KeepaliveInterval   = 2
198 KeepaliveLimit      = 3
199 MaxLACount          = 7
200 RecoverTimeout      = 5
201 RecoverInterval     = 1
202 ElectionTimeout     = 3
203 TakeoverTimeout     = 5
204 MonitorInterval     = 15
205 EventScriptTimeout  = 20
206 RecoveryGracePeriod = 60
207 RecoveryBanPeriod   = 300
208       </pre></div><div class="refsect2" lang="en"><a name="id2528755"></a><h3>lvsmaster</h3><p>
209       This command shows which node is currently the LVSMASTER. The
210       LVSMASTER is the node in the cluster which drives the LVS system and
211       which receives all incoming traffic from clients.
212       </p><p>
213       LVS is the mode where the entire CTDB/Samba cluster uses a single
214       ip address for the entire cluster. In this mode all clients connect to
215       one specific node which will then multiplex/loadbalance the clients
216       evenly onto the other nodes in the cluster. This is an alternative to using
217       public ip addresses. See the manpage for ctdbd for more information
218       about LVS.
219       </p></div><div class="refsect2" lang="en"><a name="id2528778"></a><h3>lvs</h3><p>
220       This command shows which nodes in the cluster are currently active in the
221       LVS configuration. I.e. which nodes we are currently loadbalancing
222       the single ip address across.
223       </p><p>
224       LVS will by default only loadbalance across those nodes that are both
225       LVS capable and also HEALTHY. Except if all nodes are UNHEALTHY in which
226       case LVS will loadbalance across all UNHEALTHY nodes as well.
227       LVS will never use nodes that are DISCONNECTED, BANNED or DISABLED.
228       </p><p>
229         Example output:
230       </p><pre class="screen">
231 2:10.0.0.13
232 3:10.0.0.14
233       </pre></div><div class="refsect2" lang="en"><a name="id2528807"></a><h3>getcapabilities</h3><p>
234       This command shows the capabilities of the current node.
235       Please see manpage for ctdbd for a full list of all capabilities and
236       more detailed description.
237       </p><p>
238       RECMASTER and LMASTER capabilities are primarily used when CTDBD
239       is used to create a cluster spanning across WAN links. In which case
240       ctdbd acts as a WAN accelerator.
241       </p><p>
242       LVS capabile means that the node is participating in LVS, a mode
243       where the entire CTDB cluster uses one single ip address for the
244       entire cluster instead of using public ip address failover.
245       This is an alternative to using a loadbalancing layer-4 switch.
246       </p><p>
247         Example output:
248       </p><pre class="screen">
249 RECMASTER: YES
250 LMASTER: YES
251 LVS: NO
252       </pre></div><div class="refsect2" lang="en"><a name="id2528844"></a><h3>statistics</h3><p>
253         Collect statistics from the CTDB daemon about how many calls it has served.
254       </p><p>
255         Example: ctdb statistics
256       </p><p>
257         Example output:
258       </p><pre class="screen">
259 CTDB version 1
260  num_clients                        3
261  frozen                             0
262  recovering                         0
263  client_packets_sent           360489
264  client_packets_recv           360466
265  node_packets_sent             480931
266  node_packets_recv             240120
267  keepalive_packets_sent             4
268  keepalive_packets_recv             3
269  node
270      req_call                       2
271      reply_call                     2
272      req_dmaster                    0
273      reply_dmaster                  0
274      reply_error                    0
275      req_message                   42
276      req_control               120408
277      reply_control             360439
278  client
279      req_call                       2
280      req_message                   24
281      req_control               360440
282  timeouts
283      call                           0
284      control                        0
285      traverse                       0
286  total_calls                        2
287  pending_calls                      0
288  lockwait_calls                     0
289  pending_lockwait_calls             0
290  memory_used                     5040
291  max_hop_count                      0
292  max_call_latency                   4.948321 sec
293  max_lockwait_latency               0.000000 sec
294       </pre></div><div class="refsect2" lang="en"><a name="id2528887"></a><h3>statisticsreset</h3><p>
295         This command is used to clear all statistics counters in a node.
296       </p><p>
297         Example: ctdb statisticsreset
298       </p></div><div class="refsect2" lang="en"><a name="id2528901"></a><h3>getreclock</h3><p>
299         This command is used to show the filename of the reclock file that is used.
300       </p><p>
301         Example output:
302       </p><pre class="screen">
303 Reclock file:/gpfs/.ctdb/shared
304       </pre></div><div class="refsect2" lang="en"><a name="id2528921"></a><h3>setreclock [filename]</h3><p>
305         This command is used to modify, or clear, the file that is used as the reclock file at runtime. When this command is used, the reclock file checks are disabled. To re-enable the checks the administrator needs to activate the "VerifyRecoveryLock" tunable using "ctdb setvar".
306       </p><p>
307         If run with no parameter this will remove the reclock file completely. If run with a parameter the parameter specifies the new filename to use for the recovery lock.
308       </p><p>
309         This command only affects the runtime settings of a ctdb node and will be lost when ctdb is restarted. For persistent changes to the reclock file setting you must edit /etc/sysconfig/ctdb.
310       </p></div><div class="refsect2" lang="en"><a name="id2528948"></a><h3>getdebug</h3><p>
311         Get the current debug level for the node. the debug level controls what information is written to the log file.
312       </p><p>
313         The debug levels are mapped to the corresponding syslog levels.
314         When a debug level is set, only those messages at that level and higher
315         levels will be printed.
316       </p><p>
317         The list of debug levels from highest to lowest are :
318       </p><p>
319         EMERG ALERT CRIT ERR WARNING NOTICE INFO DEBUG
320       </p></div><div class="refsect2" lang="en"><a name="id2528974"></a><h3>setdebug &lt;debuglevel&gt;</h3><p>
321         Set the debug level of a node. This controls what information will be logged.
322       </p><p>
323         The debuglevel is one of EMERG ALERT CRIT ERR WARNING NOTICE INFO DEBUG
324       </p></div><div class="refsect2" lang="en"><a name="id2528989"></a><h3>getpid</h3><p>
325         This command will return the process id of the ctdb daemon.
326       </p></div><div class="refsect2" lang="en"><a name="id2528999"></a><h3>disable</h3><p>
327         This command is used to administratively disable a node in the cluster.
328         A disabled node will still participate in the cluster and host
329         clustered TDB records but its public ip address has been taken over by
330         a different node and it no longer hosts any services.
331       </p></div><div class="refsect2" lang="en"><a name="id2529013"></a><h3>enable</h3><p>
332         Re-enable a node that has been administratively disabled.
333       </p></div><div class="refsect2" lang="en"><a name="id2529023"></a><h3>ban &lt;bantime|0&gt;</h3><p>
334         Administratively ban a node for bantime seconds. A bantime of 0 means that the node should be permanently banned. 
335       </p><p>
336         A banned node does not participate in the cluster and does not host any records for the clustered TDB. Its ip address has been taken over by an other node and no services are hosted.
337       </p><p>
338         Nodes are automatically banned if they are the cause of too many
339         cluster recoveries.
340       </p></div><div class="refsect2" lang="en"><a name="id2529047"></a><h3>addip &lt;public_ip/mask&gt; &lt;iface&gt;</h3><p>
341         This command is used to add a new public ip to a node during runtime.
342         This allows public addresses to be added to a cluster without having
343         to restart the ctdb daemons.
344       </p><p>
345         Note that this only updates the runtime instance of ctdb. Any changes will be lost next time ctdb is restarted and the public addresses file is re-read.
346  If you want this change to be permanent you must also update the public addresses file manually.
347       </p></div><div class="refsect2" lang="en"><a name="id2529067"></a><h3>delip &lt;public_ip&gt;</h3><p>
348         This command is used to remove a public ip from a node during runtime.
349         If this public ip is currently hosted by the node it being removed from, the ip will first be failed over to another node, if possible, before it is removed.
350       </p><p>
351         Note that this only updates the runtime instance of ctdb. Any changes will be lost next time ctdb is restarted and the public addresses file is re-read.
352  If you want this change to be permanent you must also update the public addresses file manually.
353       </p></div><div class="refsect2" lang="en"><a name="id2529088"></a><h3>moveip &lt;public_ip&gt; &lt;node&gt;</h3><p>
354       This command can be used to manually fail a public ip address to a
355       specific node.
356       </p><p>
357       In order to manually override the "automatic" distribution of public 
358       ip addresses that ctdb normally provides, this command only works
359       when you have changed the tunables for the daemon to:
360       </p><p>
361       DeterministicIPs = 0
362       </p><p>
363       NoIPFailback = 1
364       </p></div><div class="refsect2" lang="en"><a name="id2529113"></a><h3>unban</h3><p>
365         This command is used to unban a node that has either been 
366         administratively banned using the ban command or has been automatically
367         banned by the recovery daemon.
368       </p></div><div class="refsect2" lang="en"><a name="id2529125"></a><h3>shutdown</h3><p>
369         This command will shutdown a specific CTDB daemon.
370       </p></div><div class="refsect2" lang="en"><a name="id2529135"></a><h3>recover</h3><p>
371         This command will trigger the recovery daemon to do a cluster
372         recovery.
373       </p></div><div class="refsect2" lang="en"><a name="id2529145"></a><h3>killtcp &lt;srcip:port&gt; &lt;dstip:port&gt;</h3><p>
374         This command will kill the specified TCP connection by issuing a
375         TCP RST to the srcip:port endpoint. This is a command used by the 
376         ctdb eventscripts.
377       </p></div><div class="refsect2" lang="en"><a name="id2529158"></a><h3>gratiousarp &lt;ip&gt; &lt;interface&gt;</h3><p>
378         This command will send out a gratious arp for the specified interface
379         through the specified interface. This command is mainly used by the
380         ctdb eventscripts.
381       </p></div><div class="refsect2" lang="en"><a name="id2529170"></a><h3>reloadnodes</h3><p>
382       This command is used when adding new nodes, or removing existing nodes from an existing cluster.
383       </p><p>
384       Procedure to add a node:
385       </p><p>
386       1, To expand an existing cluster, first ensure with 'ctdb status' that
387       all nodes are up and running and that they are all healthy.
388       Do not try to expand a cluster unless it is completely healthy!
389       </p><p>
390       2, On all nodes, edit /etc/ctdb/nodes and add the new node as the last
391       entry to the file. The new node MUST be added to the end of this file!
392       </p><p>
393       3, Verify that all the nodes have identical /etc/ctdb/nodes files after you edited them and added the new node!
394       </p><p>
395       4, Run 'ctdb reloadnodes' to force all nodes to reload the nodesfile.
396       </p><p>
397       5, Use 'ctdb status' on all nodes and verify that they now show the additional node.
398       </p><p>
399       6, Install and configure the new node and bring it online.
400       </p><p>
401       Procedure to remove a node:
402       </p><p>
403       1, To remove a node from an existing cluster, first ensure with 'ctdb status' that
404       all nodes, except the node to be deleted, are up and running and that they are all healthy.
405       Do not try to remove a node from a cluster unless the cluster is completely healthy!
406       </p><p>
407       2, Shutdown and poerwoff the node to be removed.
408       </p><p>
409       3, On all other nodes, edit the /etc/ctdb/nodes file and comment out the node to be removed. Do not delete the line for that node, just comment it out by adding a '#' at the beginning of the line.
410       </p><p>
411       4, Run 'ctdb reloadnodes' to force all nodes to reload the nodesfile.
412       </p><p>
413       5, Use 'ctdb status' on all nodes and verify that the deleted node no longer shows up in the list..
414       </p><p>
415       </p></div><div class="refsect2" lang="en"><a name="id2529254"></a><h3>tickle &lt;srcip:port&gt; &lt;dstip:port&gt;</h3><p>
416         This command will will send a TCP tickle to the source host for the
417         specified TCP connection.
418         A TCP tickle is a TCP ACK packet with an invalid sequence and 
419         acknowledge number and will when received by the source host result
420         in it sending an immediate correct ACK back to the other end.
421       </p><p>
422         TCP tickles are useful to "tickle" clients after a IP failover has 
423         occured since this will make the client immediately recognize the 
424         TCP connection has been disrupted and that the client will need
425         to reestablish. This greatly speeds up the time it takes for a client
426         to detect and reestablish after an IP failover in the ctdb cluster.
427       </p></div><div class="refsect2" lang="en"><a name="id2529279"></a><h3>gettickles &lt;ip&gt;</h3><p>
428         This command is used to show which TCP connections are registered with
429         CTDB to be "tickled" if there is a failover.
430       </p></div><div class="refsect2" lang="en"><a name="id2529290"></a><h3>repack [max_freelist]</h3><p>
431         Over time, when records are created and deleted in a TDB, the TDB list of free space will become fragmented. This can lead to a slowdown in accessing TDB records.
432         This command is used to defragment a TDB database and pruning the freelist.
433       </p><p>
434         If [max_freelist] is specified, then a database will only be repacked if it has more than this number of entries in the freelist.
435         </p><p>
436         During repacking of the database, the entire TDB database will be locked to prevent writes. If samba tries to write to a record in the database during a repack operation, samba will block until the repacking has completed.
437       </p><p>
438         This command can be disruptive and can cause samba to block for the duration of the repack operation. In general, a repack operation will take less than one second to complete.
439       </p><p>
440         A repack operation will only defragment the local TDB copy of the CTDB database. You need to run this command on all of the nodes to repack a CTDB database completely.
441         </p><p>
442         Example: ctdb repack 1000
443       </p><p>
444          By default, this operation is issued from the 00.ctdb event script every 5 minutes.
445       </p></div><div class="refsect2" lang="en"><a name="id2529336"></a><h3>vacuum [max_records]</h3><p>
446         Over time CTDB databases will fill up with empty deleted records which will lead to a progressive slow down of CTDB database access.
447         This command is used to prune all databases and delete all empty records from the cluster.
448       </p><p>
449          By default, vacuum will delete all empty records from all databases.
450          If [max_records] is specified, the command will only delete the first
451          [max_records] empty records for each database.
452       </p><p>
453          Vacuum only deletes records where the local node is the lmaster.
454          To delete all records from the entire cluster you need to run a vacuum from each node.
455
456          This command is not disruptive. Samba is unaffected and will still be able to read/write records normally while the database is being vacuumed.
457       </p><p>
458         Example: ctdb vacuum
459       </p><p>
460          By default, this operation is issued from the 00.ctdb event script every 5 minutes.
461       </p></div></div><div class="refsect1" lang="en"><a name="id2529373"></a><h2>Debugging Commands</h2><p>
462       These commands are primarily used for CTDB development and testing and
463       should not be used for normal administration.
464     </p><div class="refsect2" lang="en"><a name="id2529384"></a><h3>process-exists &lt;pid&gt;</h3><p>
465         This command checks if a specific process exists on the CTDB host. This is mainly used by Samba to check if remote instances of samba are still running or not.
466       </p></div><div class="refsect2" lang="en"><a name="id2529396"></a><h3>getdbmap</h3><p>
467         This command lists all clustered TDB databases that the CTDB daemon has attached to. Some databases are flagged as PERSISTENT, this means that the database stores data persistently and the data will remain across reboots. One example of such a database is secrets.tdb where information about how the cluster was joined to the domain is stored.
468         </p><p>
469         Most databases are not persistent and only store the state information that the currently running samba daemons need. These databases are always wiped when ctdb/samba starts and when a node is rebooted.
470       </p><p>
471         Example: ctdb getdbmap
472       </p><p>
473         Example output:
474       </p><pre class="screen">
475 Number of databases:10
476 dbid:0x435d3410 name:notify.tdb path:/var/ctdb/notify.tdb.0 
477 dbid:0x42fe72c5 name:locking.tdb path:/var/ctdb/locking.tdb.0 dbid:0x1421fb78 name:brlock.tdb path:/var/ctdb/brlock.tdb.0 
478 dbid:0x17055d90 name:connections.tdb path:/var/ctdb/connections.tdb.0 
479 dbid:0xc0bdde6a name:sessionid.tdb path:/var/ctdb/sessionid.tdb.0 
480 dbid:0x122224da name:test.tdb path:/var/ctdb/test.tdb.0 
481 dbid:0x2672a57f name:idmap2.tdb path:/var/ctdb/persistent/idmap2.tdb.0 PERSISTENT
482 dbid:0xb775fff6 name:secrets.tdb path:/var/ctdb/persistent/secrets.tdb.0 PERSISTENT
483 dbid:0xe98e08b6 name:group_mapping.tdb path:/var/ctdb/persistent/group_mapping.tdb.0 PERSISTENT
484 dbid:0x7bbbd26c name:passdb.tdb path:/var/ctdb/persistent/passdb.tdb.0 PERSISTENT
485       </pre></div><div class="refsect2" lang="en"><a name="id2529455"></a><h3>catdb &lt;dbname&gt;</h3><p>
486         This command will dump a clustered TDB database to the screen. This is a debugging command.
487       </p></div><div class="refsect2" lang="en"><a name="id2529466"></a><h3>getmonmode</h3><p>
488         This command returns the monutoring mode of a node. The monitoring mode is either ACTIVE or DISABLED. Normally a node will continously monitor that all other nodes that are expected are in fact connected and that they respond to commands.
489       </p><p>
490         ACTIVE - This is the normal mode. The node is actively monitoring all other nodes, both that the transport is connected and also that the node responds to commands. If a node becomes unavailable, it will be marked as DISCONNECTED and a recovery is initiated to restore the cluster.
491       </p><p>
492         DISABLED - This node is not monitoring that other nodes are available. In this mode a node failure will not be detected and no recovery will be performed. This mode is useful when for debugging purposes one wants to attach GDB to a ctdb process but wants to prevent the rest of the cluster from marking this node as DISCONNECTED and do a recovery.
493       </p></div><div class="refsect2" lang="en"><a name="id2529496"></a><h3>setmonmode &lt;0|1&gt;</h3><p>
494         This command can be used to explicitely disable/enable monitoring mode on a node. The main purpose is if one wants to attach GDB to a running ctdb daemon but wants to prevent the other nodes from marking it as DISCONNECTED and issuing a recovery. To do this, set monitoring mode to 0 on all nodes before attaching with GDB. Remember to set monitoring mode back to 1 afterwards.
495       </p></div><div class="refsect2" lang="en"><a name="id2529512"></a><h3>attach &lt;dbname&gt;</h3><p>
496         This is a debugging command. This command will make the CTDB daemon create a new CTDB database and attach to it.
497       </p></div><div class="refsect2" lang="en"><a name="id2529523"></a><h3>dumpmemory</h3><p>
498         This is a debugging command. This command will make the ctdb
499         daemon to write a fill memory allocation map to standard output.
500       </p></div><div class="refsect2" lang="en"><a name="id2529535"></a><h3>rddumpmemory</h3><p>
501         This is a debugging command. This command will dump the talloc memory
502         allocation tree for the recovery daemon to standard output.
503       </p></div><div class="refsect2" lang="en"><a name="id2529546"></a><h3>freeze</h3><p>
504         This command will lock all the local TDB databases causing clients 
505         that are accessing these TDBs such as samba3 to block until the
506         databases are thawed.
507       </p><p>
508         This is primarily used by the recovery daemon to stop all samba
509         daemons from accessing any databases while the database is recovered
510         and rebuilt.
511       </p></div><div class="refsect2" lang="en"><a name="id2529564"></a><h3>thaw</h3><p>
512         Thaw a previously frozen node.
513       </p></div><div class="refsect2" lang="en"><a name="id2476129"></a><h3>eventscript &lt;arguments&gt;</h3><p>
514         This is a debugging command. This command can be used to manually
515         invoke and run the eventscritps with arbitrary arguments.
516       </p></div><div class="refsect2" lang="en"><a name="id2476141"></a><h3>backupdb &lt;database&gt; &lt;file&gt;</h3><p>
517         This command can be used to copy the entire content of a database out to a file. This file can later be read back into ctdb using the restoredb command.
518 This is mainly useful for backing up persistent databases such as secrets.tdb and similar.
519       </p></div><div class="refsect2" lang="en"><a name="id2476155"></a><h3>restoredb &lt;file&gt;</h3><p>
520         This command restores a persistent database that was previously backed up using backupdb.
521       </p></div></div><div class="refsect1" lang="en"><a name="id2476167"></a><h2>SEE ALSO</h2><p>
522       ctdbd(1), onnode(1)
523       <a class="ulink" href="http://ctdb.samba.org/" target="_top">http://ctdb.samba.org/</a>
524     </p></div><div class="refsect1" lang="en"><a name="id2476180"></a><h2>COPYRIGHT/LICENSE</h2><div class="literallayout"><p><br>
525 Copyright (C) Andrew Tridgell 2007<br>
526 Copyright (C) Ronnie sahlberg 2007<br>
527 <br>
528 This program is free software; you can redistribute it and/or modify<br>
529 it under the terms of the GNU General Public License as published by<br>
530 the Free Software Foundation; either version 3 of the License, or (at<br>
531 your option) any later version.<br>
532 <br>
533 This program is distributed in the hope that it will be useful, but<br>
534 WITHOUT ANY WARRANTY; without even the implied warranty of<br>
535 MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU<br>
536 General Public License for more details.<br>
537 <br>
538 You should have received a copy of the GNU General Public License<br>
539 along with this program; if not, see http://www.gnu.org/licenses/.<br>
540 </p></div></div></div></body></html>