c3d296b774a7d82583840c8dcb5f8c692ca8b7f2
[jelmer/dulwich-libgit2.git] / dulwich / objects.py
1 # objects.py -- Access to base git objects
2 # Copyright (C) 2007 James Westby <jw+debian@jameswestby.net>
3 # Copyright (C) 2008-2009 Jelmer Vernooij <jelmer@samba.org>
4 #
5 # This program is free software; you can redistribute it and/or
6 # modify it under the terms of the GNU General Public License
7 # as published by the Free Software Foundation; version 2
8 # of the License or (at your option) a later version of the License.
9 #
10 # This program is distributed in the hope that it will be useful,
11 # but WITHOUT ANY WARRANTY; without even the implied warranty of
12 # MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
13 # GNU General Public License for more details.
14 #
15 # You should have received a copy of the GNU General Public License
16 # along with this program; if not, write to the Free Software
17 # Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston,
18 # MA  02110-1301, USA.
19
20
21 """Access to base git objects."""
22
23
24 import binascii
25 from cStringIO import (
26     StringIO,
27     )
28 import mmap
29 import os
30 import stat
31 import zlib
32
33 from dulwich.errors import (
34     NotBlobError,
35     NotCommitError,
36     NotTagError,
37     NotTreeError,
38     ObjectFormatException,
39     )
40 from dulwich.file import GitFile
41 from dulwich.misc import (
42     make_sha,
43     )
44
45
46 # Header fields for commits
47 _TREE_HEADER = "tree"
48 _PARENT_HEADER = "parent"
49 _AUTHOR_HEADER = "author"
50 _COMMITTER_HEADER = "committer"
51 _ENCODING_HEADER = "encoding"
52
53
54 # Header fields for objects
55 _OBJECT_HEADER = "object"
56 _TYPE_HEADER = "type"
57 _TAG_HEADER = "tag"
58 _TAGGER_HEADER = "tagger"
59
60
61 S_IFGITLINK = 0160000
62
63 def S_ISGITLINK(m):
64     return (stat.S_IFMT(m) == S_IFGITLINK)
65
66
67 def _decompress(string):
68     dcomp = zlib.decompressobj()
69     dcomped = dcomp.decompress(string)
70     dcomped += dcomp.flush()
71     return dcomped
72
73
74 def sha_to_hex(sha):
75     """Takes a string and returns the hex of the sha within"""
76     hexsha = binascii.hexlify(sha)
77     assert len(hexsha) == 40, "Incorrect length of sha1 string: %d" % hexsha
78     return hexsha
79
80
81 def hex_to_sha(hex):
82     """Takes a hex sha and returns a binary sha"""
83     assert len(hex) == 40, "Incorrent length of hexsha: %s" % hex
84     return binascii.unhexlify(hex)
85
86
87 def serializable_property(name, docstring=None):
88     def set(obj, value):
89         obj._ensure_parsed()
90         setattr(obj, "_"+name, value)
91         obj._needs_serialization = True
92     def get(obj):
93         obj._ensure_parsed()
94         return getattr(obj, "_"+name)
95     return property(get, set, doc=docstring)
96
97
98 def object_class(type):
99     """Get the object class corresponding to the given type.
100
101     :param type: Either a type name string or a numeric type.
102     :return: The ShaFile subclass corresponding to the given type.
103     """
104     return _TYPE_MAP[type]
105
106
107 def check_hexsha(hex, error_msg):
108     try:
109         hex_to_sha(hex)
110     except (TypeError, AssertionError):
111         raise ObjectFormatException("%s %s" % (error_msg, hex))
112
113
114 def check_identity(identity, error_msg):
115     email_start = identity.find("<")
116     email_end = identity.find(">")
117     if (email_start < 0 or email_end < 0 or email_end <= email_start
118         or identity.find("<", email_start + 1) >= 0
119         or identity.find(">", email_end + 1) >= 0
120         or not identity.endswith(">")):
121         raise ObjectFormatException(error_msg)
122
123
124 class ShaFile(object):
125     """A git SHA file."""
126
127     @classmethod
128     def _parse_legacy_object(cls, map):
129         """Parse a legacy object, creating it and setting object._text"""
130         text = _decompress(map)
131         object = None
132         for cls in OBJECT_CLASSES:
133             if text.startswith(cls.type_name):
134                 object = cls()
135                 text = text[len(cls.type_name):]
136                 break
137         assert object is not None, "%s is not a known object type" % text[:9]
138         assert text[0] == ' ', "%s is not a space" % text[0]
139         text = text[1:]
140         size = 0
141         i = 0
142         while text[0] >= '0' and text[0] <= '9':
143             if i > 0 and size == 0:
144                 raise AssertionError("Size is not in canonical format")
145             size = (size * 10) + int(text[0])
146             text = text[1:]
147             i += 1
148         object._size = size
149         assert text[0] == "\0", "Size not followed by null"
150         text = text[1:]
151         object.set_raw_string(text)
152         return object
153
154     def as_legacy_object_chunks(self):
155         compobj = zlib.compressobj()
156         yield compobj.compress(self._header())
157         for chunk in self.as_raw_chunks():
158             yield compobj.compress(chunk)
159         yield compobj.flush()
160
161     def as_legacy_object(self):
162         return "".join(self.as_legacy_object_chunks())
163
164     def as_raw_chunks(self):
165         if self._needs_serialization:
166             self._chunked_text = self._serialize()
167             self._needs_serialization = False
168         return self._chunked_text
169
170     def as_raw_string(self):
171         return "".join(self.as_raw_chunks())
172
173     def __str__(self):
174         return self.as_raw_string()
175
176     def __hash__(self):
177         return hash(self.id)
178
179     def as_pretty_string(self):
180         return self.as_raw_string()
181
182     def _ensure_parsed(self):
183         if self._needs_parsing:
184             self._deserialize(self._chunked_text)
185             self._needs_parsing = False
186
187     def set_raw_string(self, text):
188         if type(text) != str:
189             raise TypeError(text)
190         self.set_raw_chunks([text])
191
192     def set_raw_chunks(self, chunks):
193         self._chunked_text = chunks
194         self._sha = None
195         self._needs_parsing = True
196         self._needs_serialization = False
197
198     @classmethod
199     def _parse_object(cls, map):
200         """Parse a new style object , creating it and setting object._text"""
201         used = 0
202         byte = ord(map[used])
203         used += 1
204         type_num = (byte >> 4) & 7
205         try:
206             object = object_class(type_num)()
207         except KeyError:
208             raise AssertionError("Not a known type: %d" % type_num)
209         while (byte & 0x80) != 0:
210             byte = ord(map[used])
211             used += 1
212         raw = map[used:]
213         object.set_raw_string(_decompress(raw))
214         return object
215
216     @classmethod
217     def _parse_file(cls, map):
218         word = (ord(map[0]) << 8) + ord(map[1])
219         if ord(map[0]) == 0x78 and (word % 31) == 0:
220             return cls._parse_legacy_object(map)
221         else:
222             return cls._parse_object(map)
223
224     def __init__(self):
225         """Don't call this directly"""
226         self._sha = None
227
228     def _deserialize(self, chunks):
229         raise NotImplementedError(self._deserialize)
230
231     def _serialize(self):
232         raise NotImplementedError(self._serialize)
233
234     @classmethod
235     def from_file(cls, filename):
236         """Get the contents of a SHA file on disk"""
237         size = os.path.getsize(filename)
238         f = GitFile(filename, 'rb')
239         try:
240             map = mmap.mmap(f.fileno(), size, access=mmap.ACCESS_READ)
241             shafile = cls._parse_file(map)
242             return shafile
243         finally:
244             f.close()
245
246     @staticmethod
247     def from_raw_string(type_num, string):
248         """Creates an object of the indicated type from the raw string given.
249
250         :param type_num: The numeric type of the object.
251         :param string: The raw uncompressed contents.
252         """
253         obj = object_class(type_num)()
254         obj.set_raw_string(string)
255         return obj
256
257     @staticmethod
258     def from_raw_chunks(type_num, chunks):
259         """Creates an object of the indicated type from the raw chunks given.
260
261         :param type_num: The numeric type of the object.
262         :param chunks: An iterable of the raw uncompressed contents.
263         """
264         obj = object_class(type_num)()
265         obj.set_raw_chunks(chunks)
266         return obj
267
268     @classmethod
269     def from_string(cls, string):
270         """Create a blob from a string."""
271         obj = cls()
272         obj.set_raw_string(string)
273         return obj
274
275     def _check_has_member(self, member, error_msg):
276         """Check that the object has a given member variable.
277
278         :param member: the member variable to check for
279         :param error_msg: the message for an error if the member is missing
280         :raise ObjectFormatException: with the given error_msg if member is
281             missing or is None
282         """
283         if getattr(self, member, None) is None:
284             raise ObjectFormatException(error_msg)
285
286     def check(self):
287         """Check this object for internal consistency.
288
289         :raise ObjectFormatException: if the object is malformed in some way
290         """
291         # TODO: if we find that error-checking during object parsing is a
292         # performance bottleneck, those checks should be moved to the class's
293         # check() method during optimization so we can still check the object
294         # when necessary.
295         try:
296             self._deserialize(self.as_raw_chunks())
297         except Exception, e:
298             raise ObjectFormatException(e)
299
300     def _header(self):
301         return "%s %lu\0" % (self.type_name, self.raw_length())
302
303     def raw_length(self):
304         """Returns the length of the raw string of this object."""
305         ret = 0
306         for chunk in self.as_raw_chunks():
307             ret += len(chunk)
308         return ret
309
310     def _make_sha(self):
311         ret = make_sha()
312         ret.update(self._header())
313         for chunk in self.as_raw_chunks():
314             ret.update(chunk)
315         return ret
316
317     def sha(self):
318         """The SHA1 object that is the name of this object."""
319         if self._needs_serialization or self._sha is None:
320             self._sha = self._make_sha()
321         return self._sha
322
323     @property
324     def id(self):
325         return self.sha().hexdigest()
326
327     def get_type(self):
328         return self.type_num
329
330     def set_type(self, type):
331         self.type_num = type
332
333     # DEPRECATED: use type_num or type_name as needed.
334     type = property(get_type, set_type)
335
336     def __repr__(self):
337         return "<%s %s>" % (self.__class__.__name__, self.id)
338
339     def __ne__(self, other):
340         return self.id != other.id
341
342     def __eq__(self, other):
343         """Return true if the sha of the two objects match.
344
345         The __le__ etc methods aren't overriden as they make no sense,
346         certainly at this level.
347         """
348         return self.id == other.id
349
350
351 class Blob(ShaFile):
352     """A Git Blob object."""
353
354     type_name = 'blob'
355     type_num = 3
356
357     def __init__(self):
358         super(Blob, self).__init__()
359         self._chunked_text = []
360         self._needs_parsing = False
361         self._needs_serialization = False
362
363     def _get_data(self):
364         return self.as_raw_string()
365
366     def _set_data(self, data):
367         self.set_raw_string(data)
368
369     data = property(_get_data, _set_data,
370             "The text contained within the blob object.")
371
372     def _get_chunked(self):
373         return self._chunked_text
374
375     def _set_chunked(self, chunks):
376         self._chunked_text = chunks
377
378     chunked = property(_get_chunked, _set_chunked,
379         "The text within the blob object, as chunks (not necessarily lines).")
380
381     @classmethod
382     def from_file(cls, filename):
383         blob = ShaFile.from_file(filename)
384         if not isinstance(blob, cls):
385             raise NotBlobError(filename)
386         return blob
387
388     def check(self):
389         """Check this object for internal consistency.
390
391         :raise ObjectFormatException: if the object is malformed in some way
392         """
393         pass  # it's impossible for raw data to be malformed
394
395
396 def _parse_tag_or_commit(text):
397     """Parse tag or commit text.
398
399     :param text: the raw text of the tag or commit object.
400     :yield: tuples of (field, value), one per header line, in the order read
401         from the text, possibly including duplicates. Includes a field named
402         None for the freeform tag/commit text.
403     """
404     f = StringIO(text)
405     for l in f:
406         l = l.rstrip("\n")
407         if l == "":
408             # Empty line indicates end of headers
409             break
410         yield l.split(" ", 1)
411     yield (None, f.read())
412     f.close()
413
414
415 def parse_tag(text):
416     return _parse_tag_or_commit(text)
417
418
419 class Tag(ShaFile):
420     """A Git Tag object."""
421
422     type_name = 'tag'
423     type_num = 4
424
425     def __init__(self):
426         super(Tag, self).__init__()
427         self._needs_parsing = False
428         self._needs_serialization = True
429         self._tag_timezone_neg_utc = False
430
431     @classmethod
432     def from_file(cls, filename):
433         tag = ShaFile.from_file(filename)
434         if not isinstance(tag, cls):
435             raise NotTagError(filename)
436         return tag
437
438     @classmethod
439     def from_string(cls, string):
440         """Create a blob from a string."""
441         shafile = cls()
442         shafile.set_raw_string(string)
443         return shafile
444
445     def check(self):
446         """Check this object for internal consistency.
447
448         :raise ObjectFormatException: if the object is malformed in some way
449         """
450         super(Tag, self).check()
451         self._check_has_member("_object_sha", "missing object sha")
452         self._check_has_member("_object_class", "missing object type")
453         self._check_has_member("_name", "missing tag name")
454
455         if not self._name:
456             raise ObjectFormatException("empty tag name")
457
458         check_hexsha(self._object_sha, "invalid object sha")
459
460         if getattr(self, "_tagger", None):
461             check_identity(self._tagger, "invalid tagger")
462
463         last = None
464         for field, _ in parse_tag("".join(self._chunked_text)):
465             if field == _OBJECT_HEADER and last is not None:
466                 raise ObjectFormatException("unexpected object")
467             elif field == _TYPE_HEADER and last != _OBJECT_HEADER:
468                 raise ObjectFormatException("unexpected type")
469             elif field == _TAG_HEADER and last != _TYPE_HEADER:
470                 raise ObjectFormatException("unexpected tag name")
471             elif field == _TAGGER_HEADER and last != _TAG_HEADER:
472                 raise ObjectFormatException("unexpected tagger")
473             last = field
474
475     def _serialize(self):
476         chunks = []
477         chunks.append("%s %s\n" % (_OBJECT_HEADER, self._object_sha))
478         chunks.append("%s %s\n" % (_TYPE_HEADER, self._object_class.type_name))
479         chunks.append("%s %s\n" % (_TAG_HEADER, self._name))
480         if self._tagger:
481             if self._tag_time is None:
482                 chunks.append("%s %s\n" % (_TAGGER_HEADER, self._tagger))
483             else:
484                 chunks.append("%s %s %d %s\n" % (
485                   _TAGGER_HEADER, self._tagger, self._tag_time,
486                   format_timezone(self._tag_timezone,
487                     self._tag_timezone_neg_utc)))
488         chunks.append("\n") # To close headers
489         chunks.append(self._message)
490         return chunks
491
492     def _deserialize(self, chunks):
493         """Grab the metadata attached to the tag"""
494         self._tagger = None
495         for field, value in parse_tag("".join(chunks)):
496             if field == _OBJECT_HEADER:
497                 self._object_sha = value
498             elif field == _TYPE_HEADER:
499                 self._object_class = object_class(value)
500             elif field == _TAG_HEADER:
501                 self._name = value
502             elif field == _TAGGER_HEADER:
503                 try:
504                     sep = value.index("> ")
505                 except ValueError:
506                     self._tagger = value
507                     self._tag_time = None
508                     self._tag_timezone = None
509                     self._tag_timezone_neg_utc = False
510                 else:
511                     self._tagger = value[0:sep+1]
512                     (timetext, timezonetext) = value[sep+2:].rsplit(" ", 1)
513                     self._tag_time = int(timetext)
514                     self._tag_timezone, self._tag_timezone_neg_utc = \
515                             parse_timezone(timezonetext)
516             elif field is None:
517                 self._message = value
518             else:
519                 raise AssertionError("Unknown field %s" % field)
520
521     def _get_object(self):
522         """Get the object pointed to by this tag.
523
524         :return: tuple of (object class, sha).
525         """
526         self._ensure_parsed()
527         return (self._object_class, self._object_sha)
528
529     def _set_object(self, value):
530         self._ensure_parsed()
531         (self._object_class, self._object_sha) = value
532         self._needs_serialization = True
533
534     object = property(_get_object, _set_object)
535
536     name = serializable_property("name", "The name of this tag")
537     tagger = serializable_property("tagger",
538         "Returns the name of the person who created this tag")
539     tag_time = serializable_property("tag_time",
540         "The creation timestamp of the tag.  As the number of seconds since the epoch")
541     tag_timezone = serializable_property("tag_timezone",
542         "The timezone that tag_time is in.")
543     message = serializable_property("message", "The message attached to this tag")
544
545
546 def parse_tree(text):
547     """Parse a tree text.
548
549     :param text: Serialized text to parse
550     :yields: tuples of (name, mode, sha)
551     """
552     count = 0
553     l = len(text)
554     while count < l:
555         mode_end = text.index(' ', count)
556         mode = int(text[count:mode_end], 8)
557         name_end = text.index('\0', mode_end)
558         name = text[mode_end+1:name_end]
559         count = name_end+21
560         sha = text[name_end+1:count]
561         yield (name, mode, sha_to_hex(sha))
562
563
564 def serialize_tree(items):
565     """Serialize the items in a tree to a text.
566
567     :param items: Sorted iterable over (name, mode, sha) tuples
568     :return: Serialized tree text as chunks
569     """
570     for name, mode, hexsha in items:
571         yield "%04o %s\0%s" % (mode, name, hex_to_sha(hexsha))
572
573
574 def sorted_tree_items(entries):
575     """Iterate over a tree entries dictionary in the order in which 
576     the items would be serialized.
577
578     :param entries: Dictionary mapping names to (mode, sha) tuples
579     :return: Iterator over (name, mode, sha)
580     """
581     for name, entry in sorted(entries.iteritems(), cmp=cmp_entry):
582         yield name, entry[0], entry[1]
583
584
585 def cmp_entry((name1, value1), (name2, value2)):
586     """Compare two tree entries."""
587     if stat.S_ISDIR(value1[0]):
588         name1 += "/"
589     if stat.S_ISDIR(value2[0]):
590         name2 += "/"
591     return cmp(name1, name2)
592
593
594 class Tree(ShaFile):
595     """A Git tree object"""
596
597     type_name = 'tree'
598     type_num = 2
599
600     def __init__(self):
601         super(Tree, self).__init__()
602         self._entries = {}
603         self._needs_parsing = False
604         self._needs_serialization = True
605
606     @classmethod
607     def from_file(cls, filename):
608         tree = ShaFile.from_file(filename)
609         if not isinstance(tree, cls):
610             raise NotTreeError(filename)
611         return tree
612
613     def __contains__(self, name):
614         self._ensure_parsed()
615         return name in self._entries
616
617     def __getitem__(self, name):
618         self._ensure_parsed()
619         return self._entries[name]
620
621     def __setitem__(self, name, value):
622         assert isinstance(value, tuple)
623         assert len(value) == 2
624         self._ensure_parsed()
625         self._entries[name] = value
626         self._needs_serialization = True
627
628     def __delitem__(self, name):
629         self._ensure_parsed()
630         del self._entries[name]
631         self._needs_serialization = True
632
633     def __len__(self):
634         self._ensure_parsed()
635         return len(self._entries)
636
637     def __iter__(self):
638         self._ensure_parsed()
639         return iter(self._entries)
640
641     def add(self, mode, name, hexsha):
642         assert type(mode) == int
643         assert type(name) == str
644         assert type(hexsha) == str
645         self._ensure_parsed()
646         self._entries[name] = mode, hexsha
647         self._needs_serialization = True
648
649     def entries(self):
650         """Return a list of tuples describing the tree entries"""
651         self._ensure_parsed()
652         # The order of this is different from iteritems() for historical
653         # reasons
654         return [
655             (mode, name, hexsha) for (name, mode, hexsha) in self.iteritems()]
656
657     def iteritems(self):
658         """Iterate over entries in the order in which they would be serialized.
659
660         :return: Iterator over (name, mode, sha) tuples
661         """
662         self._ensure_parsed()
663         return sorted_tree_items(self._entries)
664
665     def _deserialize(self, chunks):
666         """Grab the entries in the tree"""
667         parsed_entries = parse_tree("".join(chunks))
668         # TODO: list comprehension is for efficiency in the common (small) case;
669         # if memory efficiency in the large case is a concern, use a genexp.
670         self._entries = dict([(n, (m, s)) for n, m, s in parsed_entries])
671         self._needs_parsing = False
672
673     def check(self):
674         """Check this object for internal consistency.
675
676         :raise ObjectFormatException: if the object is malformed in some way
677         """
678         super(Tree, self).check()
679         last = None
680         allowed_modes = (stat.S_IFREG | 0755, stat.S_IFREG | 0644,
681                          stat.S_IFLNK, stat.S_IFDIR, S_IFGITLINK,
682                          # TODO: optionally exclude as in git fsck --strict
683                          stat.S_IFREG | 0664)
684         for name, mode, sha in parse_tree("".join(self._chunked_text)):
685             check_hexsha(sha, 'invalid sha %s' % sha)
686             if '/' in name or name in ('', '.', '..'):
687                 raise ObjectFormatException('invalid name %s' % name)
688
689             if mode not in allowed_modes:
690                 raise ObjectFormatException('invalid mode %06o' % mode)
691
692             entry = (name, (mode, sha))
693             if last:
694                 if cmp_entry(last, entry) > 0:
695                     raise ObjectFormatException('entries not sorted')
696                 if name == last[0]:
697                     raise ObjectFormatException('duplicate entry %s' % name)
698             last = entry
699
700     def _serialize(self):
701         return list(serialize_tree(self.iteritems()))
702
703     def as_pretty_string(self):
704         text = []
705         for name, mode, hexsha in self.iteritems():
706             if mode & stat.S_IFDIR:
707                 kind = "tree"
708             else:
709                 kind = "blob"
710             text.append("%04o %s %s\t%s\n" % (mode, kind, hexsha, name))
711         return "".join(text)
712
713
714 def parse_timezone(text):
715     offset = int(text)
716     negative_utc = (offset == 0 and text[0] == '-')
717     signum = (offset < 0) and -1 or 1
718     offset = abs(offset)
719     hours = int(offset / 100)
720     minutes = (offset % 100)
721     return signum * (hours * 3600 + minutes * 60), negative_utc
722
723
724 def format_timezone(offset, negative_utc=False):
725     if offset % 60 != 0:
726         raise ValueError("Unable to handle non-minute offset.")
727     if offset < 0 or (offset == 0 and negative_utc):
728         sign = '-'
729     else:
730         sign = '+'
731     offset = abs(offset)
732     return '%c%02d%02d' % (sign, offset / 3600, (offset / 60) % 60)
733
734
735 def parse_commit(text):
736     return _parse_tag_or_commit(text)
737
738
739 class Commit(ShaFile):
740     """A git commit object"""
741
742     type_name = 'commit'
743     type_num = 1
744
745     def __init__(self):
746         super(Commit, self).__init__()
747         self._parents = []
748         self._encoding = None
749         self._needs_parsing = False
750         self._needs_serialization = True
751         self._extra = {}
752         self._author_timezone_neg_utc = False
753         self._commit_timezone_neg_utc = False
754
755     @classmethod
756     def from_file(cls, filename):
757         commit = ShaFile.from_file(filename)
758         if not isinstance(commit, cls):
759             raise NotCommitError(filename)
760         return commit
761
762     def _deserialize(self, chunks):
763         self._parents = []
764         self._extra = []
765         self._author = None
766         for field, value in parse_commit("".join(self._chunked_text)):
767             if field == _TREE_HEADER:
768                 self._tree = value
769             elif field == _PARENT_HEADER:
770                 self._parents.append(value)
771             elif field == _AUTHOR_HEADER:
772                 self._author, timetext, timezonetext = value.rsplit(" ", 2)
773                 self._author_time = int(timetext)
774                 self._author_timezone, self._author_timezone_neg_utc =\
775                     parse_timezone(timezonetext)
776             elif field == _COMMITTER_HEADER:
777                 self._committer, timetext, timezonetext = value.rsplit(" ", 2)
778                 self._commit_time = int(timetext)
779                 self._commit_timezone, self._commit_timezone_neg_utc =\
780                     parse_timezone(timezonetext)
781             elif field == _ENCODING_HEADER:
782                 self._encoding = value
783             elif field is None:
784                 self._message = value
785             else:
786                 self._extra.append((field, value))
787
788     def check(self):
789         """Check this object for internal consistency.
790
791         :raise ObjectFormatException: if the object is malformed in some way
792         """
793         super(Commit, self).check()
794         self._check_has_member("_tree", "missing tree")
795         self._check_has_member("_author", "missing author")
796         self._check_has_member("_committer", "missing committer")
797         # times are currently checked when set
798
799         for parent in self._parents:
800             check_hexsha(parent, "invalid parent sha")
801         check_hexsha(self._tree, "invalid tree sha")
802
803         check_identity(self._author, "invalid author")
804         check_identity(self._committer, "invalid committer")
805
806         last = None
807         for field, _ in parse_commit("".join(self._chunked_text)):
808             if field == _TREE_HEADER and last is not None:
809                 raise ObjectFormatException("unexpected tree")
810             elif field == _PARENT_HEADER and last not in (_PARENT_HEADER,
811                                                           _TREE_HEADER):
812                 raise ObjectFormatException("unexpected parent")
813             elif field == _AUTHOR_HEADER and last not in (_TREE_HEADER,
814                                                           _PARENT_HEADER):
815                 raise ObjectFormatException("unexpected author")
816             elif field == _COMMITTER_HEADER and last != _AUTHOR_HEADER:
817                 raise ObjectFormatException("unexpected committer")
818             elif field == _ENCODING_HEADER and last != _COMMITTER_HEADER:
819                 raise ObjectFormatException("unexpected encoding")
820             last = field
821
822         # TODO: optionally check for duplicate parents
823
824     def _serialize(self):
825         chunks = []
826         chunks.append("%s %s\n" % (_TREE_HEADER, self._tree))
827         for p in self._parents:
828             chunks.append("%s %s\n" % (_PARENT_HEADER, p))
829         chunks.append("%s %s %s %s\n" % (
830           _AUTHOR_HEADER, self._author, str(self._author_time),
831           format_timezone(self._author_timezone,
832                           self._author_timezone_neg_utc)))
833         chunks.append("%s %s %s %s\n" % (
834           _COMMITTER_HEADER, self._committer, str(self._commit_time),
835           format_timezone(self._commit_timezone,
836                           self._commit_timezone_neg_utc)))
837         if self.encoding:
838             chunks.append("%s %s\n" % (_ENCODING_HEADER, self.encoding))
839         for k, v in self.extra:
840             if "\n" in k or "\n" in v:
841                 raise AssertionError("newline in extra data: %r -> %r" % (k, v))
842             chunks.append("%s %s\n" % (k, v))
843         chunks.append("\n") # There must be a new line after the headers
844         chunks.append(self._message)
845         return chunks
846
847     tree = serializable_property("tree", "Tree that is the state of this commit")
848
849     def _get_parents(self):
850         """Return a list of parents of this commit."""
851         self._ensure_parsed()
852         return self._parents
853
854     def _set_parents(self, value):
855         """Set a list of parents of this commit."""
856         self._ensure_parsed()
857         self._needs_serialization = True
858         self._parents = value
859
860     parents = property(_get_parents, _set_parents)
861
862     def _get_extra(self):
863         """Return extra settings of this commit."""
864         self._ensure_parsed()
865         return self._extra
866
867     extra = property(_get_extra)
868
869     author = serializable_property("author",
870         "The name of the author of the commit")
871
872     committer = serializable_property("committer",
873         "The name of the committer of the commit")
874
875     message = serializable_property("message",
876         "The commit message")
877
878     commit_time = serializable_property("commit_time",
879         "The timestamp of the commit. As the number of seconds since the epoch.")
880
881     commit_timezone = serializable_property("commit_timezone",
882         "The zone the commit time is in")
883
884     author_time = serializable_property("author_time",
885         "The timestamp the commit was written. as the number of seconds since the epoch.")
886
887     author_timezone = serializable_property("author_timezone",
888         "Returns the zone the author time is in.")
889
890     encoding = serializable_property("encoding",
891         "Encoding of the commit message.")
892
893
894 OBJECT_CLASSES = (
895     Commit,
896     Tree,
897     Blob,
898     Tag,
899     )
900
901 _TYPE_MAP = {}
902
903 for cls in OBJECT_CLASSES:
904     _TYPE_MAP[cls.type_name] = cls
905     _TYPE_MAP[cls.type_num] = cls
906
907
908
909 # Hold on to the pure-python implementations for testing
910 _parse_tree_py = parse_tree
911 _sorted_tree_items_py = sorted_tree_items
912 try:
913     # Try to import C versions
914     from dulwich._objects import parse_tree, sorted_tree_items
915 except ImportError:
916     pass