Introduce system MIT krb5 build with --with-system-mitkrb5 option.
[nivanova/samba-autobuild/.git] / buildtools / wafsamba / samba_utils.py
1 # a waf tool to add autoconf-like macros to the configure section
2 # and for SAMBA_ macros for building libraries, binaries etc
3
4 import Build, os, sys, Options, Utils, Task, re, fnmatch, Logs
5 from TaskGen import feature, before
6 from Configure import conf, ConfigurationContext
7 from Logs import debug
8 import shlex
9
10 # TODO: make this a --option
11 LIB_PATH="shared"
12
13
14 # sigh, python octal constants are a mess
15 MODE_644 = int('644', 8)
16 MODE_755 = int('755', 8)
17
18 @conf
19 def SET_TARGET_TYPE(ctx, target, value):
20     '''set the target type of a target'''
21     cache = LOCAL_CACHE(ctx, 'TARGET_TYPE')
22     if target in cache and cache[target] != 'EMPTY':
23         Logs.error("ERROR: Target '%s' in directory %s re-defined as %s - was %s" % (target, ctx.curdir, value, cache[target]))
24         sys.exit(1)
25     LOCAL_CACHE_SET(ctx, 'TARGET_TYPE', target, value)
26     debug("task_gen: Target '%s' created of type '%s' in %s" % (target, value, ctx.curdir))
27     return True
28
29
30 def GET_TARGET_TYPE(ctx, target):
31     '''get target type from cache'''
32     cache = LOCAL_CACHE(ctx, 'TARGET_TYPE')
33     if not target in cache:
34         return None
35     return cache[target]
36
37
38 ######################################################
39 # this is used as a decorator to make functions only
40 # run once. Based on the idea from
41 # http://stackoverflow.com/questions/815110/is-there-a-decorator-to-simply-cache-function-return-values
42 runonce_ret = {}
43 def runonce(function):
44     def runonce_wrapper(*args):
45         if args in runonce_ret:
46             return runonce_ret[args]
47         else:
48             ret = function(*args)
49             runonce_ret[args] = ret
50             return ret
51     return runonce_wrapper
52
53
54 def ADD_LD_LIBRARY_PATH(path):
55     '''add something to LD_LIBRARY_PATH'''
56     if 'LD_LIBRARY_PATH' in os.environ:
57         oldpath = os.environ['LD_LIBRARY_PATH']
58     else:
59         oldpath = ''
60     newpath = oldpath.split(':')
61     if not path in newpath:
62         newpath.append(path)
63         os.environ['LD_LIBRARY_PATH'] = ':'.join(newpath)
64
65
66 def needs_private_lib(bld, target):
67     '''return True if a target links to a private library'''
68     for lib in getattr(target, "final_libs", []):
69         t = bld.name_to_obj(lib, bld.env)
70         if t and getattr(t, 'private_library', False):
71             return True
72     return False
73
74
75 def install_rpath(target):
76     '''the rpath value for installation'''
77     bld = target.bld
78     bld.env['RPATH'] = []
79     ret = set()
80     if bld.env.RPATH_ON_INSTALL:
81         ret.add(bld.EXPAND_VARIABLES(bld.env.LIBDIR))
82     if bld.env.RPATH_ON_INSTALL_PRIVATE and needs_private_lib(bld, target):
83         ret.add(bld.EXPAND_VARIABLES(bld.env.PRIVATELIBDIR))
84     return list(ret)
85
86
87 def build_rpath(bld):
88     '''the rpath value for build'''
89     rpaths = [os.path.normpath('%s/%s' % (bld.env.BUILD_DIRECTORY, d)) for d in ("shared", "shared/private")]
90     bld.env['RPATH'] = []
91     if bld.env.RPATH_ON_BUILD:
92         return rpaths
93     for rpath in rpaths:
94         ADD_LD_LIBRARY_PATH(rpath)
95     return []
96
97
98 @conf
99 def LOCAL_CACHE(ctx, name):
100     '''return a named build cache dictionary, used to store
101        state inside other functions'''
102     if name in ctx.env:
103         return ctx.env[name]
104     ctx.env[name] = {}
105     return ctx.env[name]
106
107
108 @conf
109 def LOCAL_CACHE_SET(ctx, cachename, key, value):
110     '''set a value in a local cache'''
111     cache = LOCAL_CACHE(ctx, cachename)
112     cache[key] = value
113
114
115 @conf
116 def ASSERT(ctx, expression, msg):
117     '''a build assert call'''
118     if not expression:
119         raise Utils.WafError("ERROR: %s\n" % msg)
120 Build.BuildContext.ASSERT = ASSERT
121
122
123 def SUBDIR(bld, subdir, list):
124     '''create a list of files by pre-pending each with a subdir name'''
125     ret = ''
126     for l in TO_LIST(list):
127         ret = ret + os.path.normpath(os.path.join(subdir, l)) + ' '
128     return ret
129 Build.BuildContext.SUBDIR = SUBDIR
130
131
132 def dict_concat(d1, d2):
133     '''concatenate two dictionaries d1 += d2'''
134     for t in d2:
135         if t not in d1:
136             d1[t] = d2[t]
137
138
139 def exec_command(self, cmd, **kw):
140     '''this overrides the 'waf -v' debug output to be in a nice
141     unix like format instead of a python list.
142     Thanks to ita on #waf for this'''
143     import Utils, Logs
144     _cmd = cmd
145     if isinstance(cmd, list):
146         _cmd = ' '.join(cmd)
147     debug('runner: %s' % _cmd)
148     if self.log:
149         self.log.write('%s\n' % cmd)
150         kw['log'] = self.log
151     try:
152         if not kw.get('cwd', None):
153             kw['cwd'] = self.cwd
154     except AttributeError:
155         self.cwd = kw['cwd'] = self.bldnode.abspath()
156     return Utils.exec_command(cmd, **kw)
157 Build.BuildContext.exec_command = exec_command
158
159
160 def ADD_COMMAND(opt, name, function):
161     '''add a new top level command to waf'''
162     Utils.g_module.__dict__[name] = function
163     opt.name = function
164 Options.Handler.ADD_COMMAND = ADD_COMMAND
165
166
167 @feature('cc', 'cshlib', 'cprogram')
168 @before('apply_core','exec_rule')
169 def process_depends_on(self):
170     '''The new depends_on attribute for build rules
171        allow us to specify a dependency on output from
172        a source generation rule'''
173     if getattr(self , 'depends_on', None):
174         lst = self.to_list(self.depends_on)
175         for x in lst:
176             y = self.bld.name_to_obj(x, self.env)
177             self.bld.ASSERT(y is not None, "Failed to find dependency %s of %s" % (x, self.name))
178             y.post()
179             if getattr(y, 'more_includes', None):
180                   self.includes += " " + y.more_includes
181
182
183 os_path_relpath = getattr(os.path, 'relpath', None)
184 if os_path_relpath is None:
185     # Python < 2.6 does not have os.path.relpath, provide a replacement
186     # (imported from Python2.6.5~rc2)
187     def os_path_relpath(path, start):
188         """Return a relative version of a path"""
189         start_list = os.path.abspath(start).split("/")
190         path_list = os.path.abspath(path).split("/")
191
192         # Work out how much of the filepath is shared by start and path.
193         i = len(os.path.commonprefix([start_list, path_list]))
194
195         rel_list = ['..'] * (len(start_list)-i) + path_list[i:]
196         if not rel_list:
197             return start
198         return os.path.join(*rel_list)
199
200
201 def unique_list(seq):
202     '''return a uniquified list in the same order as the existing list'''
203     seen = {}
204     result = []
205     for item in seq:
206         if item in seen: continue
207         seen[item] = True
208         result.append(item)
209     return result
210
211
212 def TO_LIST(str, delimiter=None):
213     '''Split a list, preserving quoted strings and existing lists'''
214     if str is None:
215         return []
216     if isinstance(str, list):
217         return str
218     lst = str.split(delimiter)
219     # the string may have had quotes in it, now we
220     # check if we did have quotes, and use the slower shlex
221     # if we need to
222     for e in lst:
223         if e[0] == '"':
224             return shlex.split(str)
225     return lst
226
227
228 def subst_vars_error(string, env):
229     '''substitute vars, throw an error if a variable is not defined'''
230     lst = re.split('(\$\{\w+\})', string)
231     out = []
232     for v in lst:
233         if re.match('\$\{\w+\}', v):
234             vname = v[2:-1]
235             if not vname in env:
236                 raise KeyError("Failed to find variable %s in %s" % (vname, string))
237             v = env[vname]
238         out.append(v)
239     return ''.join(out)
240
241
242 @conf
243 def SUBST_ENV_VAR(ctx, varname):
244     '''Substitute an environment variable for any embedded variables'''
245     return subst_vars_error(ctx.env[varname], ctx.env)
246 Build.BuildContext.SUBST_ENV_VAR = SUBST_ENV_VAR
247
248
249 def ENFORCE_GROUP_ORDERING(bld):
250     '''enforce group ordering for the project. This
251        makes the group ordering apply only when you specify
252        a target with --target'''
253     if Options.options.compile_targets:
254         @feature('*')
255         @before('exec_rule', 'apply_core', 'collect')
256         def force_previous_groups(self):
257             if getattr(self.bld, 'enforced_group_ordering', False) == True:
258                 return
259             self.bld.enforced_group_ordering = True
260
261             def group_name(g):
262                 tm = self.bld.task_manager
263                 return [x for x in tm.groups_names if id(tm.groups_names[x]) == id(g)][0]
264
265             my_id = id(self)
266             bld = self.bld
267             stop = None
268             for g in bld.task_manager.groups:
269                 for t in g.tasks_gen:
270                     if id(t) == my_id:
271                         stop = id(g)
272                         debug('group: Forcing up to group %s for target %s',
273                               group_name(g), self.name or self.target)
274                         break
275                 if stop != None:
276                     break
277             if stop is None:
278                 return
279
280             for i in xrange(len(bld.task_manager.groups)):
281                 g = bld.task_manager.groups[i]
282                 bld.task_manager.current_group = i
283                 if id(g) == stop:
284                     break
285                 debug('group: Forcing group %s', group_name(g))
286                 for t in g.tasks_gen:
287                     if not getattr(t, 'forced_groups', False):
288                         debug('group: Posting %s', t.name or t.target)
289                         t.forced_groups = True
290                         t.post()
291 Build.BuildContext.ENFORCE_GROUP_ORDERING = ENFORCE_GROUP_ORDERING
292
293
294 def recursive_dirlist(dir, relbase, pattern=None):
295     '''recursive directory list'''
296     ret = []
297     for f in os.listdir(dir):
298         f2 = dir + '/' + f
299         if os.path.isdir(f2):
300             ret.extend(recursive_dirlist(f2, relbase))
301         else:
302             if pattern and not fnmatch.fnmatch(f, pattern):
303                 continue
304             ret.append(os_path_relpath(f2, relbase))
305     return ret
306
307
308 def mkdir_p(dir):
309     '''like mkdir -p'''
310     if not dir:
311         return
312     if dir.endswith("/"):
313         mkdir_p(dir[:-1])
314         return
315     if os.path.isdir(dir):
316         return
317     mkdir_p(os.path.dirname(dir))
318     os.mkdir(dir)
319
320
321 def SUBST_VARS_RECURSIVE(string, env):
322     '''recursively expand variables'''
323     if string is None:
324         return string
325     limit=100
326     while (string.find('${') != -1 and limit > 0):
327         string = subst_vars_error(string, env)
328         limit -= 1
329     return string
330
331
332 @conf
333 def EXPAND_VARIABLES(ctx, varstr, vars=None):
334     '''expand variables from a user supplied dictionary
335
336     This is most useful when you pass vars=locals() to expand
337     all your local variables in strings
338     '''
339
340     if isinstance(varstr, list):
341         ret = []
342         for s in varstr:
343             ret.append(EXPAND_VARIABLES(ctx, s, vars=vars))
344         return ret
345
346     if not isinstance(varstr, str):
347         return varstr
348
349     import Environment
350     env = Environment.Environment()
351     ret = varstr
352     # substitute on user supplied dict if avaiilable
353     if vars is not None:
354         for v in vars.keys():
355             env[v] = vars[v]
356         ret = SUBST_VARS_RECURSIVE(ret, env)
357
358     # if anything left, subst on the environment as well
359     if ret.find('${') != -1:
360         ret = SUBST_VARS_RECURSIVE(ret, ctx.env)
361     # make sure there is nothing left. Also check for the common
362     # typo of $( instead of ${
363     if ret.find('${') != -1 or ret.find('$(') != -1:
364         Logs.error('Failed to substitute all variables in varstr=%s' % ret)
365         sys.exit(1)
366     return ret
367 Build.BuildContext.EXPAND_VARIABLES = EXPAND_VARIABLES
368
369
370 def RUN_COMMAND(cmd,
371                 env=None,
372                 shell=False):
373     '''run a external command, return exit code or signal'''
374     if env:
375         cmd = SUBST_VARS_RECURSIVE(cmd, env)
376
377     status = os.system(cmd)
378     if os.WIFEXITED(status):
379         return os.WEXITSTATUS(status)
380     if os.WIFSIGNALED(status):
381         return - os.WTERMSIG(status)
382     Logs.error("Unknown exit reason %d for command: %s" (status, cmd))
383     return -1
384
385
386 # make sure we have md5. some systems don't have it
387 try:
388     from hashlib import md5
389 except:
390     try:
391         import md5
392     except:
393         import Constants
394         Constants.SIG_NIL = hash('abcd')
395         class replace_md5(object):
396             def __init__(self):
397                 self.val = None
398             def update(self, val):
399                 self.val = hash((self.val, val))
400             def digest(self):
401                 return str(self.val)
402             def hexdigest(self):
403                 return self.digest().encode('hex')
404         def replace_h_file(filename):
405             f = open(filename, 'rb')
406             m = replace_md5()
407             while (filename):
408                 filename = f.read(100000)
409                 m.update(filename)
410             f.close()
411             return m.digest()
412         Utils.md5 = replace_md5
413         Task.md5 = replace_md5
414         Utils.h_file = replace_h_file
415
416
417 def LOAD_ENVIRONMENT():
418     '''load the configuration environment, allowing access to env vars
419        from new commands'''
420     import Environment
421     env = Environment.Environment()
422     try:
423         env.load('.lock-wscript')
424         env.load(env.blddir + '/c4che/default.cache.py')
425     except:
426         pass
427     return env
428
429
430 def IS_NEWER(bld, file1, file2):
431     '''return True if file1 is newer than file2'''
432     t1 = os.stat(os.path.join(bld.curdir, file1)).st_mtime
433     t2 = os.stat(os.path.join(bld.curdir, file2)).st_mtime
434     return t1 > t2
435 Build.BuildContext.IS_NEWER = IS_NEWER
436
437
438 @conf
439 def RECURSE(ctx, directory):
440     '''recurse into a directory, relative to the curdir or top level'''
441     try:
442         visited_dirs = ctx.visited_dirs
443     except:
444         visited_dirs = ctx.visited_dirs = set()
445     d = os.path.join(ctx.curdir, directory)
446     if os.path.exists(d):
447         abspath = os.path.abspath(d)
448     else:
449         abspath = os.path.abspath(os.path.join(Utils.g_module.srcdir, directory))
450     ctxclass = ctx.__class__.__name__
451     key = ctxclass + ':' + abspath
452     if key in visited_dirs:
453         # already done it
454         return
455     visited_dirs.add(key)
456     relpath = os_path_relpath(abspath, ctx.curdir)
457     if ctxclass == 'Handler':
458         return ctx.sub_options(relpath)
459     if ctxclass == 'ConfigurationContext':
460         return ctx.sub_config(relpath)
461     if ctxclass == 'BuildContext':
462         return ctx.add_subdirs(relpath)
463     Logs.error('Unknown RECURSE context class', ctxclass)
464     raise
465 Options.Handler.RECURSE = RECURSE
466 Build.BuildContext.RECURSE = RECURSE
467
468
469 def CHECK_MAKEFLAGS(bld):
470     '''check for MAKEFLAGS environment variable in case we are being
471     called from a Makefile try to honor a few make command line flags'''
472     if not 'WAF_MAKE' in os.environ:
473         return
474     makeflags = os.environ.get('MAKEFLAGS')
475     if makeflags is None:
476         return
477     jobs_set = False
478     # we need to use shlex.split to cope with the escaping of spaces
479     # in makeflags
480     for opt in shlex.split(makeflags):
481         # options can come either as -x or as x
482         if opt[0:2] == 'V=':
483             Options.options.verbose = Logs.verbose = int(opt[2:])
484             if Logs.verbose > 0:
485                 Logs.zones = ['runner']
486             if Logs.verbose > 2:
487                 Logs.zones = ['*']
488         elif opt[0].isupper() and opt.find('=') != -1:
489             # this allows us to set waf options on the make command line
490             # for example, if you do "make FOO=blah", then we set the
491             # option 'FOO' in Options.options, to blah. If you look in wafsamba/wscript
492             # you will see that the command line accessible options have their dest=
493             # set to uppercase, to allow for passing of options from make in this way
494             # this is also how "make test TESTS=testpattern" works, and
495             # "make VERBOSE=1" as well as things like "make SYMBOLCHECK=1"
496             loc = opt.find('=')
497             setattr(Options.options, opt[0:loc], opt[loc+1:])
498         elif opt[0] != '-':
499             for v in opt:
500                 if v == 'j':
501                     jobs_set = True
502                 elif v == 'k':
503                     Options.options.keep = True                
504         elif opt == '-j':
505             jobs_set = True
506         elif opt == '-k':
507             Options.options.keep = True                
508     if not jobs_set:
509         # default to one job
510         Options.options.jobs = 1
511             
512 Build.BuildContext.CHECK_MAKEFLAGS = CHECK_MAKEFLAGS
513
514 option_groups = {}
515
516 def option_group(opt, name):
517     '''find or create an option group'''
518     global option_groups
519     if name in option_groups:
520         return option_groups[name]
521     gr = opt.add_option_group(name)
522     option_groups[name] = gr
523     return gr
524 Options.Handler.option_group = option_group
525
526
527 def save_file(filename, contents, create_dir=False):
528     '''save data to a file'''
529     if create_dir:
530         mkdir_p(os.path.dirname(filename))
531     try:
532         f = open(filename, 'w')
533         f.write(contents)
534         f.close()
535     except:
536         return False
537     return True
538
539
540 def load_file(filename):
541     '''return contents of a file'''
542     try:
543         f = open(filename, 'r')
544         r = f.read()
545         f.close()
546     except:
547         return None
548     return r
549
550
551 def reconfigure(ctx):
552     '''rerun configure if necessary'''
553     import Configure, samba_wildcard, Scripting
554     if not os.path.exists(".lock-wscript"):
555         raise Utils.WafError('configure has not been run')
556     bld = samba_wildcard.fake_build_environment()
557     Configure.autoconfig = True
558     Scripting.check_configured(bld)
559
560
561 def map_shlib_extension(ctx, name, python=False):
562     '''map a filename with a shared library extension of .so to the real shlib name'''
563     if name is None:
564         return None
565     if name[-1:].isdigit():
566         # some libraries have specified versions in the wscript rule
567         return name
568     (root1, ext1) = os.path.splitext(name)
569     if python:
570         (root2, ext2) = os.path.splitext(ctx.env.pyext_PATTERN)
571     else:
572         (root2, ext2) = os.path.splitext(ctx.env.shlib_PATTERN)
573     return root1+ext2
574 Build.BuildContext.map_shlib_extension = map_shlib_extension
575
576 def apply_pattern(filename, pattern):
577     '''apply a filename pattern to a filename that may have a directory component'''
578     dirname = os.path.dirname(filename)
579     if not dirname:
580         return pattern % filename
581     basename = os.path.basename(filename)
582     return os.path.join(dirname, pattern % basename)
583
584 def make_libname(ctx, name, nolibprefix=False, version=None, python=False):
585     """make a library filename
586          Options:
587               nolibprefix: don't include the lib prefix
588               version    : add a version number
589               python     : if we should use python module name conventions"""
590
591     if python:
592         libname = apply_pattern(name, ctx.env.pyext_PATTERN)
593     else:
594         libname = apply_pattern(name, ctx.env.shlib_PATTERN)
595     if nolibprefix and libname[0:3] == 'lib':
596         libname = libname[3:]
597     if version:
598         if version[0] == '.':
599             version = version[1:]
600         (root, ext) = os.path.splitext(libname)
601         if ext == ".dylib":
602             # special case - version goes before the prefix
603             libname = "%s.%s%s" % (root, version, ext)
604         else:
605             libname = "%s%s.%s" % (root, ext, version)
606     return libname
607 Build.BuildContext.make_libname = make_libname
608
609
610 def get_tgt_list(bld):
611     '''return a list of build objects for samba'''
612
613     targets = LOCAL_CACHE(bld, 'TARGET_TYPE')
614
615     # build a list of task generators we are interested in
616     tgt_list = []
617     for tgt in targets:
618         type = targets[tgt]
619         if not type in ['SUBSYSTEM', 'MODULE', 'BINARY', 'LIBRARY', 'ASN1', 'PYTHON']:
620             continue
621         t = bld.name_to_obj(tgt, bld.env)
622         if t is None:
623             Logs.error("Target %s of type %s has no task generator" % (tgt, type))
624             sys.exit(1)
625         tgt_list.append(t)
626     return tgt_list
627
628 from Constants import WSCRIPT_FILE
629 def PROCESS_SEPARATE_RULE(self, rule):
630     ''' cause waf to process additional script based on `rule'.
631         You should have file named wscript_<stage>_rule in the current directory
632         where stage is either 'configure' or 'build'
633     '''
634     ctxclass = self.__class__.__name__
635     stage = ''
636     if ctxclass == 'ConfigurationContext':
637         stage = 'configure'
638     elif ctxclass == 'BuildContext':
639         stage = 'build'
640     file_path = os.path.join(self.curdir, WSCRIPT_FILE+'_'+stage+'_'+rule)
641     txt = load_file(file_path)
642     if txt:
643         dc = {'ctx': self}
644         if getattr(self.__class__, 'pre_recurse', None):
645             dc = self.pre_recurse(txt, file_path, self.curdir)
646         exec(compile(txt, file_path, 'exec'), dc)
647         if getattr(self.__class__, 'post_recurse', None):
648             dc = self.post_recurse(txt, file_path, self.curdir)
649
650 Build.BuildContext.PROCESS_SEPARATE_RULE = PROCESS_SEPARATE_RULE
651 ConfigurationContext.PROCESS_SEPARATE_RULE = PROCESS_SEPARATE_RULE
652
653 def AD_DC_BUILD_IS_ENABLED(self):
654     if self.CONFIG_SET('AD_DC_BUILD_IS_ENABLED'):
655         return True
656     return False
657
658 Build.BuildContext.AD_DC_BUILD_IS_ENABLED = AD_DC_BUILD_IS_ENABLED