build: tidy up the wafsamba rules a bit
[amitay/samba.git] / buildtools / wafsamba / samba_utils.py
1 # a waf tool to add autoconf-like macros to the configure section
2 # and for SAMBA_ macros for building libraries, binaries etc
3
4 import Build, os, sys, Options, Utils, Task, re
5 from TaskGen import feature, before
6 from Configure import conf
7 from Logs import debug
8 import shlex
9
10 # TODO: make this a --option
11 LIB_PATH="shared"
12
13
14 @conf
15 def SET_TARGET_TYPE(ctx, target, value):
16     '''set the target type of a target'''
17     cache = LOCAL_CACHE(ctx, 'TARGET_TYPE')
18     if target in cache:
19         ASSERT(ctx, cache[target] == value,
20                "Target '%s' re-defined as %s - was %s" % (target, value, cache[target]))
21         debug("task_gen: Skipping duplicate target %s (curdir=%s)" % (target, ctx.curdir))
22         return False
23     LOCAL_CACHE_SET(ctx, 'TARGET_TYPE', target, value)
24     debug("task_gen: Target '%s' created of type '%s' in %s" % (target, value, ctx.curdir))
25     return True
26
27
28 def GET_TARGET_TYPE(ctx, target):
29     '''get target type from cache'''
30     cache = LOCAL_CACHE(ctx, 'TARGET_TYPE')
31     if not target in cache:
32         return None
33     return cache[target]
34
35
36 ######################################################
37 # this is used as a decorator to make functions only
38 # run once. Based on the idea from
39 # http://stackoverflow.com/questions/815110/is-there-a-decorator-to-simply-cache-function-return-values
40 runonce_ret = {}
41 def runonce(function):
42     def runonce_wrapper(*args):
43         if args in runonce_ret:
44             return runonce_ret[args]
45         else:
46             ret = function(*args)
47             runonce_ret[args] = ret
48             return ret
49     return runonce_wrapper
50
51
52 def ADD_LD_LIBRARY_PATH(path):
53     '''add something to LD_LIBRARY_PATH'''
54     if 'LD_LIBRARY_PATH' in os.environ:
55         oldpath = os.environ['LD_LIBRARY_PATH']
56     else:
57         oldpath = ''
58     newpath = oldpath.split(':')
59     if not path in newpath:
60         newpath.append(path)
61         os.environ['LD_LIBRARY_PATH'] = ':'.join(newpath)
62
63
64 def install_rpath(bld):
65     '''the rpath value for installation'''
66     bld.env['RPATH'] = []
67     bld.env['RPATH_ST'] = []
68     if bld.env.RPATH_ON_INSTALL:
69         return ['-Wl,-rpath=%s/lib' % bld.env.PREFIX]
70     return []
71
72
73 def build_rpath(bld):
74     '''the rpath value for build'''
75     rpath = os.path.normpath('%s/%s' % (bld.env['BUILD_DIRECTORY'], LIB_PATH))
76     bld.env['RPATH'] = []
77     bld.env['RPATH_ST'] = []
78     if bld.env.RPATH_ON_BUILD:
79         return ['-Wl,-rpath=%s' % rpath]
80     ADD_LD_LIBRARY_PATH(rpath)
81     return []
82
83
84 @conf
85 def LOCAL_CACHE(ctx, name):
86     '''return a named build cache dictionary, used to store
87        state inside other functions'''
88     if name in ctx.env:
89         return ctx.env[name]
90     ctx.env[name] = {}
91     return ctx.env[name]
92
93
94 @conf
95 def LOCAL_CACHE_SET(ctx, cachename, key, value):
96     '''set a value in a local cache'''
97     cache = LOCAL_CACHE(ctx, cachename)
98     cache[key] = value
99
100
101 @conf
102 def ASSERT(ctx, expression, msg):
103     '''a build assert call'''
104     if not expression:
105         sys.stderr.write("ERROR: %s\n" % msg)
106         raise AssertionError
107 Build.BuildContext.ASSERT = ASSERT
108
109
110 def SUBDIR(bld, subdir, list):
111     '''create a list of files by pre-pending each with a subdir name'''
112     ret = ''
113     for l in TO_LIST(list):
114         ret = ret + os.path.normpath(os.path.join(subdir, l)) + ' '
115     return ret
116 Build.BuildContext.SUBDIR = SUBDIR
117
118
119 def dict_concat(d1, d2):
120     '''concatenate two dictionaries d1 += d2'''
121     for t in d2:
122         if t not in d1:
123             d1[t] = d2[t]
124
125
126 def exec_command(self, cmd, **kw):
127     '''this overrides the 'waf -v' debug output to be in a nice
128     unix like format instead of a python list.
129     Thanks to ita on #waf for this'''
130     import Utils, Logs
131     _cmd = cmd
132     if isinstance(cmd, list):
133         _cmd = ' '.join(cmd)
134     debug('runner: %s' % _cmd)
135     if self.log:
136         self.log.write('%s\n' % cmd)
137         kw['log'] = self.log
138     try:
139         if not kw.get('cwd', None):
140             kw['cwd'] = self.cwd
141     except AttributeError:
142         self.cwd = kw['cwd'] = self.bldnode.abspath()
143     return Utils.exec_command(cmd, **kw)
144 Build.BuildContext.exec_command = exec_command
145
146
147 def ADD_COMMAND(opt, name, function):
148     '''add a new top level command to waf'''
149     Utils.g_module.__dict__[name] = function
150     opt.name = function
151 Options.Handler.ADD_COMMAND = ADD_COMMAND
152
153
154 @feature('cc', 'cshlib', 'cprogram')
155 @before('apply_core','exec_rule')
156 def process_depends_on(self):
157     '''The new depends_on attribute for build rules
158        allow us to specify a dependency on output from
159        a source generation rule'''
160     if getattr(self , 'depends_on', None):
161         lst = self.to_list(self.depends_on)
162         for x in lst:
163             y = self.bld.name_to_obj(x, self.env)
164             self.bld.ASSERT(y is not None, "Failed to find dependency %s of %s" % (x, self.name))
165             y.post()
166             if getattr(y, 'more_includes', None):
167                   self.includes += " " + y.more_includes
168
169
170 os_path_relpath = getattr(os.path, 'relpath', None)
171 if os_path_relpath is None:
172     # Python < 2.6 does not have os.path.relpath, provide a replacement
173     # (imported from Python2.6.5~rc2)
174     def os_path_relpath(path, start):
175         """Return a relative version of a path"""
176         start_list = os.path.abspath(start).split("/")
177         path_list = os.path.abspath(path).split("/")
178
179         # Work out how much of the filepath is shared by start and path.
180         i = len(os.path.commonprefix([start_list, path_list]))
181
182         rel_list = ['..'] * (len(start_list)-i) + path_list[i:]
183         if not rel_list:
184             return start
185         return os.path.join(*rel_list)
186
187
188 def unique_list(seq):
189     '''return a uniquified list in the same order as the existing list'''
190     seen = {}
191     result = []
192     for item in seq:
193         if item in seen: continue
194         seen[item] = True
195         result.append(item)
196     return result
197
198
199 def TO_LIST(str):
200     '''Split a list, preserving quoted strings and existing lists'''
201     if str is None:
202         return []
203     if isinstance(str, list):
204         return str
205     lst = str.split()
206     # the string may have had quotes in it, now we
207     # check if we did have quotes, and use the slower shlex
208     # if we need to
209     for e in lst:
210         if e[0] == '"':
211             return shlex.split(str)
212     return lst
213
214
215 def subst_vars_error(string, env):
216     '''substitute vars, throw an error if a variable is not defined'''
217     lst = re.split('(\$\{\w+\})', string)
218     out = []
219     for v in lst:
220         if re.match('\$\{\w+\}', v):
221             vname = v[2:-1]
222             if not vname in env:
223                 print "Failed to find variable %s in %s" % (vname, string)
224                 raise
225             v = env[vname]
226         out.append(v)
227     return ''.join(out)
228
229
230 @conf
231 def SUBST_ENV_VAR(ctx, varname):
232     '''Substitute an environment variable for any embedded variables'''
233     return subst_vars_error(ctx.env[varname], ctx.env)
234 Build.BuildContext.SUBST_ENV_VAR = SUBST_ENV_VAR
235
236
237 def ENFORCE_GROUP_ORDERING(bld):
238     '''enforce group ordering for the project. This
239        makes the group ordering apply only when you specify
240        a target with --target'''
241     if Options.options.compile_targets:
242         @feature('*')
243         def force_previous_groups(self):
244             my_id = id(self)
245
246             bld = self.bld
247             stop = None
248             for g in bld.task_manager.groups:
249                 for t in g.tasks_gen:
250                     if id(t) == my_id:
251                         stop = id(g)
252                         break
253                 if stop is None:
254                     return
255
256                 for g in bld.task_manager.groups:
257                     if id(g) == stop:
258                         break
259                     for t in g.tasks_gen:
260                         t.post()
261 Build.BuildContext.ENFORCE_GROUP_ORDERING = ENFORCE_GROUP_ORDERING
262
263
264 def recursive_dirlist(dir, relbase):
265     '''recursive directory list'''
266     ret = []
267     for f in os.listdir(dir):
268         f2 = dir + '/' + f
269         if os.path.isdir(f2):
270             ret.extend(recursive_dirlist(f2, relbase))
271         else:
272             ret.append(os_path_relpath(f2, relbase))
273     return ret
274
275
276 def mkdir_p(dir):
277     '''like mkdir -p'''
278     if os.path.isdir(dir):
279         return
280     mkdir_p(os.path.dirname(dir))
281     os.mkdir(dir)
282
283
284 def SUBST_VARS_RECURSIVE(string, env):
285     '''recursively expand variables'''
286     if string is None:
287         return string
288     limit=100
289     while (string.find('${') != -1 and limit > 0):
290         string = subst_vars_error(string, env)
291         limit -= 1
292     return string
293
294
295 @conf
296 def EXPAND_VARIABLES(ctx, varstr, vars=None):
297     '''expand variables from a user supplied dictionary
298
299     This is most useful when you pass vars=locals() to expand
300     all your local variables in strings
301     '''
302
303     if isinstance(varstr, list):
304         ret = []
305         for s in varstr:
306             ret.append(EXPAND_VARIABLES(ctx, s, vars=vars))
307         return ret
308
309     import Environment
310     env = Environment.Environment()
311     ret = varstr
312     # substitute on user supplied dict if avaiilable
313     if vars is not None:
314         for v in vars.keys():
315             env[v] = vars[v]
316         ret = SUBST_VARS_RECURSIVE(ret, env)
317
318     # if anything left, subst on the environment as well
319     if ret.find('${') != -1:
320         ret = SUBST_VARS_RECURSIVE(ret, ctx.env)
321     # make sure there is nothing left. Also check for the common
322     # typo of $( instead of ${
323     if ret.find('${') != -1 or ret.find('$(') != -1:
324         print('Failed to substitute all variables in varstr=%s' % ret)
325         raise
326     return ret
327 Build.BuildContext.EXPAND_VARIABLES = EXPAND_VARIABLES
328
329
330 def RUN_COMMAND(cmd,
331                 env=None,
332                 shell=False):
333     '''run a external command, return exit code or signal'''
334     if env:
335         cmd = SUBST_VARS_RECURSIVE(cmd, env)
336
337     status = os.system(cmd)
338     if os.WIFEXITED(status):
339         return os.WEXITSTATUS(status)
340     if os.WIFSIGNALED(status):
341         return - os.WTERMSIG(status)
342     print "Unknown exit reason %d for command: %s" (status, cmd)
343     return -1
344
345
346 # make sure we have md5. some systems don't have it
347 try:
348     from hashlib import md5
349 except:
350     try:
351         import md5
352     except:
353         import Constants
354         Constants.SIG_NIL = hash('abcd')
355         class replace_md5(object):
356             def __init__(self):
357                 self.val = None
358             def update(self, val):
359                 self.val = hash((self.val, val))
360             def digest(self):
361                 return str(self.val)
362             def hexdigest(self):
363                 return self.digest().encode('hex')
364         def replace_h_file(filename):
365             f = open(filename, 'rb')
366             m = replace_md5()
367             while (filename):
368                 filename = f.read(100000)
369                 m.update(filename)
370             f.close()
371             return m.digest()
372         Utils.md5 = replace_md5
373         Task.md5 = replace_md5
374         Utils.h_file = replace_h_file
375