~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/repofmt/knitrepo.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2007-11-03 01:53:30 UTC
  • mfrom: (2955.1.1 trunk)
  • Revision ID: pqm@pqm.ubuntu.com-20071103015330-pt1tec7wyxwwcey8
Fix #158972 don't use timeout for HttpServer

Show diffs side-by-side

added added

removed removed

Lines of Context:
24
24
""")
25
25
from bzrlib import (
26
26
    bzrdir,
 
27
    deprecated_graph,
27
28
    errors,
28
29
    knit,
29
30
    lockable_files,
30
31
    lockdir,
31
32
    osutils,
32
 
    symbol_versioning,
33
33
    transactions,
34
34
    xml5,
35
 
    xml6,
36
35
    xml7,
37
36
    )
 
37
 
38
38
from bzrlib.decorators import needs_read_lock, needs_write_lock
39
 
from bzrlib.knit import KnitVersionedFiles, _KndxIndex, _KnitKeyAccess
40
39
from bzrlib.repository import (
41
40
    CommitBuilder,
42
41
    MetaDirRepository,
48
47
from bzrlib.store.versioned import VersionedFileStore
49
48
from bzrlib.trace import mutter, mutter_callsite
50
49
from bzrlib.util import bencode
51
 
from bzrlib.versionedfile import ConstantMapper, HashEscapedPrefixMapper
52
50
 
53
51
 
54
52
class _KnitParentsProvider(object):
59
57
    def __repr__(self):
60
58
        return 'KnitParentsProvider(%r)' % self._knit
61
59
 
62
 
    @symbol_versioning.deprecated_method(symbol_versioning.one_one)
63
60
    def get_parents(self, revision_ids):
64
 
        """See graph._StackedParentsProvider.get_parents"""
65
 
        parent_map = self.get_parent_map(revision_ids)
66
 
        return [parent_map.get(r, None) for r in revision_ids]
67
 
 
68
 
    def get_parent_map(self, keys):
69
 
        """See graph._StackedParentsProvider.get_parent_map"""
70
 
        parent_map = {}
71
 
        for revision_id in keys:
72
 
            if revision_id is None:
73
 
                raise ValueError('get_parent_map(None) is not valid')
 
61
        parents_list = []
 
62
        for revision_id in revision_ids:
74
63
            if revision_id == _mod_revision.NULL_REVISION:
75
 
                parent_map[revision_id] = ()
 
64
                parents = []
76
65
            else:
77
66
                try:
78
 
                    parents = tuple(
79
 
                        self._knit.get_parents_with_ghosts(revision_id))
 
67
                    parents = self._knit.get_parents_with_ghosts(revision_id)
80
68
                except errors.RevisionNotPresent:
81
 
                    continue
 
69
                    parents = None
82
70
                else:
83
71
                    if len(parents) == 0:
84
 
                        parents = (_mod_revision.NULL_REVISION,)
85
 
                parent_map[revision_id] = parents
86
 
        return parent_map
87
 
 
88
 
 
89
 
class _KnitsParentsProvider(object):
90
 
 
91
 
    def __init__(self, knit, prefix=()):
92
 
        """Create a parent provider for string keys mapped to tuple keys."""
93
 
        self._knit = knit
94
 
        self._prefix = prefix
95
 
 
96
 
    def __repr__(self):
97
 
        return 'KnitsParentsProvider(%r)' % self._knit
98
 
 
99
 
    def get_parent_map(self, keys):
100
 
        """See graph._StackedParentsProvider.get_parent_map"""
101
 
        parent_map = self._knit.get_parent_map(
102
 
            [self._prefix + (key,) for key in keys])
103
 
        result = {}
104
 
        for key, parents in parent_map.items():
105
 
            revid = key[-1]
106
 
            if len(parents) == 0:
107
 
                parents = (_mod_revision.NULL_REVISION,)
108
 
            else:
109
 
                parents = tuple(parent[-1] for parent in parents)
110
 
            result[revid] = parents
111
 
        for revision_id in keys:
112
 
            if revision_id == _mod_revision.NULL_REVISION:
113
 
                result[revision_id] = ()
114
 
        return result
 
72
                        parents = [_mod_revision.NULL_REVISION]
 
73
            parents_list.append(parents)
 
74
        return parents_list
115
75
 
116
76
 
117
77
class KnitRepository(MetaDirRepository):
124
84
    _commit_builder_class = None
125
85
    _serializer = None
126
86
 
127
 
    def __init__(self, _format, a_bzrdir, control_files, _commit_builder_class,
128
 
        _serializer):
129
 
        MetaDirRepository.__init__(self, _format, a_bzrdir, control_files)
 
87
    def __init__(self, _format, a_bzrdir, control_files, _revision_store,
 
88
        control_store, text_store, _commit_builder_class, _serializer):
 
89
        MetaDirRepository.__init__(self, _format, a_bzrdir, control_files,
 
90
            _revision_store, control_store, text_store)
130
91
        self._commit_builder_class = _commit_builder_class
131
92
        self._serializer = _serializer
132
93
        self._reconcile_fixes_text_parents = True
133
 
        self._fetch_uses_deltas = True
134
 
        self._fetch_order = 'topological'
 
94
 
 
95
    def _warn_if_deprecated(self):
 
96
        # This class isn't deprecated
 
97
        pass
 
98
 
 
99
    def _inventory_add_lines(self, inv_vf, revid, parents, lines, check_content):
 
100
        return inv_vf.add_lines_with_ghosts(revid, parents, lines,
 
101
            check_content=check_content)[0]
135
102
 
136
103
    @needs_read_lock
137
104
    def _all_revision_ids(self):
138
105
        """See Repository.all_revision_ids()."""
139
 
        return [key[0] for key in self.revisions.keys()]
140
 
 
141
 
    def _activate_new_inventory(self):
142
 
        """Put a replacement inventory.new into use as inventories."""
143
 
        # Copy the content across
144
 
        t = self._transport
145
 
        t.copy('inventory.new.kndx', 'inventory.kndx')
146
 
        try:
147
 
            t.copy('inventory.new.knit', 'inventory.knit')
148
 
        except errors.NoSuchFile:
149
 
            # empty inventories knit
150
 
            t.delete('inventory.knit')
151
 
        # delete the temp inventory
152
 
        t.delete('inventory.new.kndx')
153
 
        try:
154
 
            t.delete('inventory.new.knit')
155
 
        except errors.NoSuchFile:
156
 
            # empty inventories knit
157
 
            pass
158
 
        # Force index reload (sanity check)
159
 
        self.inventories._index._reset_cache()
160
 
        self.inventories.keys()
161
 
 
162
 
    def _backup_inventory(self):
163
 
        t = self._transport
164
 
        t.copy('inventory.kndx', 'inventory.backup.kndx')
165
 
        t.copy('inventory.knit', 'inventory.backup.knit')
166
 
 
167
 
    def _move_file_id(self, from_id, to_id):
168
 
        t = self._transport.clone('knits')
169
 
        from_rel_url = self.texts._index._mapper.map((from_id, None))
170
 
        to_rel_url = self.texts._index._mapper.map((to_id, None))
171
 
        # We expect both files to always exist in this case.
172
 
        for suffix in ('.knit', '.kndx'):
173
 
            t.rename(from_rel_url + suffix, to_rel_url + suffix)
174
 
 
175
 
    def _remove_file_id(self, file_id):
176
 
        t = self._transport.clone('knits')
177
 
        rel_url = self.texts._index._mapper.map((file_id, None))
178
 
        for suffix in ('.kndx', '.knit'):
179
 
            try:
180
 
                t.delete(rel_url + suffix)
181
 
            except errors.NoSuchFile:
182
 
                pass
183
 
 
184
 
    def _temp_inventories(self):
185
 
        result = self._format._get_inventories(self._transport, self,
186
 
            'inventory.new')
187
 
        # Reconciling when the output has no revisions would result in no
188
 
        # writes - but we want to ensure there is an inventory for
189
 
        # compatibility with older clients that don't lazy-load.
190
 
        result.get_parent_map([('A',)])
191
 
        return result
 
106
        # Knits get the revision graph from the index of the revision knit, so
 
107
        # it's always possible even if they're on an unlistable transport.
 
108
        return self._revision_store.all_revision_ids(self.get_transaction())
192
109
 
193
110
    def fileid_involved_between_revs(self, from_revid, to_revid):
194
111
        """Find file_id(s) which are involved in the changes between revisions.
216
133
        return self._fileid_involved_by_set(changed)
217
134
 
218
135
    @needs_read_lock
 
136
    def get_ancestry(self, revision_id, topo_sorted=True):
 
137
        """Return a list of revision-ids integrated by a revision.
 
138
        
 
139
        This is topologically sorted, unless 'topo_sorted' is specified as
 
140
        False.
 
141
        """
 
142
        if _mod_revision.is_null(revision_id):
 
143
            return [None]
 
144
        vf = self._get_revision_vf()
 
145
        try:
 
146
            return [None] + vf.get_ancestry(revision_id, topo_sorted)
 
147
        except errors.RevisionNotPresent:
 
148
            raise errors.NoSuchRevision(self, revision_id)
 
149
 
 
150
    @needs_read_lock
 
151
    def get_data_stream(self, revision_ids):
 
152
        """See Repository.get_data_stream."""
 
153
        item_keys = self.item_keys_introduced_by(revision_ids)
 
154
        for knit_kind, file_id, versions in item_keys:
 
155
            name = (knit_kind,)
 
156
            if knit_kind == 'file':
 
157
                name = ('file', file_id)
 
158
                knit = self.weave_store.get_weave_or_empty(
 
159
                    file_id, self.get_transaction())
 
160
            elif knit_kind == 'inventory':
 
161
                knit = self.get_inventory_weave()
 
162
            elif knit_kind == 'revisions':
 
163
                knit = self._revision_store.get_revision_file(
 
164
                    self.get_transaction())
 
165
            elif knit_kind == 'signatures':
 
166
                knit = self._revision_store.get_signature_file(
 
167
                    self.get_transaction())
 
168
            else:
 
169
                raise AssertionError('Unknown knit kind %r' % (knit_kind,))
 
170
            yield name, _get_stream_as_bytes(knit, versions)
 
171
 
 
172
    @needs_read_lock
219
173
    def get_revision(self, revision_id):
220
174
        """Return the Revision object for a named revision"""
221
175
        revision_id = osutils.safe_revision_id(revision_id)
222
176
        return self.get_revision_reconcile(revision_id)
223
177
 
 
178
    @needs_read_lock
 
179
    def get_revision_graph(self, revision_id=None):
 
180
        """Return a dictionary containing the revision graph.
 
181
 
 
182
        :param revision_id: The revision_id to get a graph from. If None, then
 
183
        the entire revision graph is returned. This is a deprecated mode of
 
184
        operation and will be removed in the future.
 
185
        :return: a dictionary of revision_id->revision_parents_list.
 
186
        """
 
187
        if 'evil' in debug.debug_flags:
 
188
            mutter_callsite(3,
 
189
                "get_revision_graph scales with size of history.")
 
190
        # special case NULL_REVISION
 
191
        if revision_id == _mod_revision.NULL_REVISION:
 
192
            return {}
 
193
        a_weave = self._get_revision_vf()
 
194
        if revision_id is None:
 
195
            return a_weave.get_graph()
 
196
        if revision_id not in a_weave:
 
197
            raise errors.NoSuchRevision(self, revision_id)
 
198
        else:
 
199
            # add what can be reached from revision_id
 
200
            return a_weave.get_graph([revision_id])
 
201
 
 
202
    @needs_read_lock
 
203
    def get_revision_graph_with_ghosts(self, revision_ids=None):
 
204
        """Return a graph of the revisions with ghosts marked as applicable.
 
205
 
 
206
        :param revision_ids: an iterable of revisions to graph or None for all.
 
207
        :return: a Graph object with the graph reachable from revision_ids.
 
208
        """
 
209
        if 'evil' in debug.debug_flags:
 
210
            mutter_callsite(3,
 
211
                "get_revision_graph_with_ghosts scales with size of history.")
 
212
        result = deprecated_graph.Graph()
 
213
        vf = self._get_revision_vf()
 
214
        versions = set(vf.versions())
 
215
        if not revision_ids:
 
216
            pending = set(self.all_revision_ids())
 
217
            required = set([])
 
218
        else:
 
219
            pending = set(revision_ids)
 
220
            # special case NULL_REVISION
 
221
            if _mod_revision.NULL_REVISION in pending:
 
222
                pending.remove(_mod_revision.NULL_REVISION)
 
223
            required = set(pending)
 
224
        done = set([])
 
225
        while len(pending):
 
226
            revision_id = pending.pop()
 
227
            if not revision_id in versions:
 
228
                if revision_id in required:
 
229
                    raise errors.NoSuchRevision(self, revision_id)
 
230
                # a ghost
 
231
                result.add_ghost(revision_id)
 
232
                # mark it as done so we don't try for it again.
 
233
                done.add(revision_id)
 
234
                continue
 
235
            parent_ids = vf.get_parents_with_ghosts(revision_id)
 
236
            for parent_id in parent_ids:
 
237
                # is this queued or done ?
 
238
                if (parent_id not in pending and
 
239
                    parent_id not in done):
 
240
                    # no, queue it.
 
241
                    pending.add(parent_id)
 
242
            result.add_node(revision_id, parent_ids)
 
243
            done.add(revision_id)
 
244
        return result
 
245
 
 
246
    def _get_revision_vf(self):
 
247
        """:return: a versioned file containing the revisions."""
 
248
        vf = self._revision_store.get_revision_file(self.get_transaction())
 
249
        return vf
 
250
 
 
251
    def _get_history_vf(self):
 
252
        """Get a versionedfile whose history graph reflects all revisions.
 
253
 
 
254
        For knit repositories, this is the revision knit.
 
255
        """
 
256
        return self._get_revision_vf()
 
257
 
224
258
    @needs_write_lock
225
259
    def reconcile(self, other=None, thorough=False):
226
260
        """Reconcile this repository."""
229
263
        reconciler.reconcile()
230
264
        return reconciler
231
265
    
 
266
    def revision_parents(self, revision_id):
 
267
        return self._get_revision_vf().get_parents(revision_id)
 
268
 
232
269
    def _make_parents_provider(self):
233
 
        return _KnitsParentsProvider(self.revisions)
 
270
        return _KnitParentsProvider(self._get_revision_vf())
234
271
 
235
272
    def _find_inconsistent_revision_parents(self):
236
273
        """Find revisions with different parent lists in the revision object
239
276
        :returns: an iterator yielding tuples of (revison-id, parents-in-index,
240
277
            parents-in-revision).
241
278
        """
242
 
        if not self.is_locked():
243
 
            raise AssertionError()
244
 
        vf = self.revisions
245
 
        for index_version in vf.keys():
246
 
            parent_map = vf.get_parent_map([index_version])
247
 
            parents_according_to_index = tuple(parent[-1] for parent in
248
 
                parent_map[index_version])
249
 
            revision = self.get_revision(index_version[-1])
 
279
        assert self.is_locked()
 
280
        vf = self._get_revision_vf()
 
281
        for index_version in vf.versions():
 
282
            parents_according_to_index = tuple(vf.get_parents_with_ghosts(
 
283
                index_version))
 
284
            revision = self.get_revision(index_version)
250
285
            parents_according_to_revision = tuple(revision.parent_ids)
251
286
            if parents_according_to_index != parents_according_to_revision:
252
 
                yield (index_version[-1], parents_according_to_index,
 
287
                yield (index_version, parents_according_to_index,
253
288
                    parents_according_to_revision)
254
289
 
255
290
    def _check_for_inconsistent_revision_parents(self):
290
325
    _serializer = xml5.serializer_v5
291
326
    # Knit based repositories handle ghosts reasonably well.
292
327
    supports_ghosts = True
293
 
    # External lookups are not supported in this format.
294
 
    supports_external_lookups = False
295
 
 
296
 
    def _get_inventories(self, repo_transport, repo, name='inventory'):
297
 
        mapper = ConstantMapper(name)
298
 
        index = _KndxIndex(repo_transport, mapper, repo.get_transaction,
299
 
            repo.is_write_locked, repo.is_locked)
300
 
        access = _KnitKeyAccess(repo_transport, mapper)
301
 
        return KnitVersionedFiles(index, access, annotated=False)
302
 
 
303
 
    def _get_revisions(self, repo_transport, repo):
304
 
        mapper = ConstantMapper('revisions')
305
 
        index = _KndxIndex(repo_transport, mapper, repo.get_transaction,
306
 
            repo.is_write_locked, repo.is_locked)
307
 
        access = _KnitKeyAccess(repo_transport, mapper)
308
 
        return KnitVersionedFiles(index, access, max_delta_chain=0,
309
 
            annotated=False)
310
 
 
311
 
    def _get_signatures(self, repo_transport, repo):
312
 
        mapper = ConstantMapper('signatures')
313
 
        index = _KndxIndex(repo_transport, mapper, repo.get_transaction,
314
 
            repo.is_write_locked, repo.is_locked)
315
 
        access = _KnitKeyAccess(repo_transport, mapper)
316
 
        return KnitVersionedFiles(index, access, max_delta_chain=0,
317
 
            annotated=False)
318
 
 
319
 
    def _get_texts(self, repo_transport, repo):
320
 
        mapper = HashEscapedPrefixMapper()
321
 
        base_transport = repo_transport.clone('knits')
322
 
        index = _KndxIndex(base_transport, mapper, repo.get_transaction,
323
 
            repo.is_write_locked, repo.is_locked)
324
 
        access = _KnitKeyAccess(base_transport, mapper)
325
 
        return KnitVersionedFiles(index, access, max_delta_chain=200,
326
 
            annotated=True)
 
328
 
 
329
    def _get_control_store(self, repo_transport, control_files):
 
330
        """Return the control store for this repository."""
 
331
        return VersionedFileStore(
 
332
            repo_transport,
 
333
            prefixed=False,
 
334
            file_mode=control_files._file_mode,
 
335
            versionedfile_class=knit.KnitVersionedFile,
 
336
            versionedfile_kwargs={'factory':knit.KnitPlainFactory()},
 
337
            )
 
338
 
 
339
    def _get_revision_store(self, repo_transport, control_files):
 
340
        """See RepositoryFormat._get_revision_store()."""
 
341
        versioned_file_store = VersionedFileStore(
 
342
            repo_transport,
 
343
            file_mode=control_files._file_mode,
 
344
            prefixed=False,
 
345
            precious=True,
 
346
            versionedfile_class=knit.KnitVersionedFile,
 
347
            versionedfile_kwargs={'delta':False,
 
348
                                  'factory':knit.KnitPlainFactory(),
 
349
                                 },
 
350
            escaped=True,
 
351
            )
 
352
        return KnitRevisionStore(versioned_file_store)
 
353
 
 
354
    def _get_text_store(self, transport, control_files):
 
355
        """See RepositoryFormat._get_text_store()."""
 
356
        return self._get_versioned_file_store('knits',
 
357
                                  transport,
 
358
                                  control_files,
 
359
                                  versionedfile_class=knit.KnitVersionedFile,
 
360
                                  versionedfile_kwargs={
 
361
                                      'create_parent_dir':True,
 
362
                                      'delay_create':True,
 
363
                                      'dir_mode':control_files._dir_mode,
 
364
                                  },
 
365
                                  escaped=True)
327
366
 
328
367
    def initialize(self, a_bzrdir, shared=False):
329
368
        """Create a knit format 1 repository.
342
381
        repo_transport = a_bzrdir.get_repository_transport(None)
343
382
        control_files = lockable_files.LockableFiles(repo_transport,
344
383
                                'lock', lockdir.LockDir)
 
384
        control_store = self._get_control_store(repo_transport, control_files)
345
385
        transaction = transactions.WriteTransaction()
346
 
        result = self.open(a_bzrdir=a_bzrdir, _found=True)
347
 
        result.lock_write()
 
386
        # trigger a write of the inventory store.
 
387
        control_store.get_weave_or_empty('inventory', transaction)
 
388
        _revision_store = self._get_revision_store(repo_transport, control_files)
348
389
        # the revision id here is irrelevant: it will not be stored, and cannot
349
 
        # already exist, we do this to create files on disk for older clients.
350
 
        result.inventories.get_parent_map([('A',)])
351
 
        result.revisions.get_parent_map([('A',)])
352
 
        result.signatures.get_parent_map([('A',)])
353
 
        result.unlock()
354
 
        return result
 
390
        # already exist.
 
391
        _revision_store.has_revision_id('A', transaction)
 
392
        _revision_store.get_signature_file(transaction)
 
393
        return self.open(a_bzrdir=a_bzrdir, _found=True)
355
394
 
356
395
    def open(self, a_bzrdir, _found=False, _override_transport=None):
357
396
        """See RepositoryFormat.open().
362
401
        """
363
402
        if not _found:
364
403
            format = RepositoryFormat.find_format(a_bzrdir)
 
404
            assert format.__class__ ==  self.__class__
365
405
        if _override_transport is not None:
366
406
            repo_transport = _override_transport
367
407
        else:
368
408
            repo_transport = a_bzrdir.get_repository_transport(None)
369
409
        control_files = lockable_files.LockableFiles(repo_transport,
370
410
                                'lock', lockdir.LockDir)
371
 
        repo = self.repository_class(_format=self,
 
411
        text_store = self._get_text_store(repo_transport, control_files)
 
412
        control_store = self._get_control_store(repo_transport, control_files)
 
413
        _revision_store = self._get_revision_store(repo_transport, control_files)
 
414
        return self.repository_class(_format=self,
372
415
                              a_bzrdir=a_bzrdir,
373
416
                              control_files=control_files,
 
417
                              _revision_store=_revision_store,
 
418
                              control_store=control_store,
 
419
                              text_store=text_store,
374
420
                              _commit_builder_class=self._commit_builder_class,
375
421
                              _serializer=self._serializer)
376
 
        repo.revisions = self._get_revisions(repo_transport, repo)
377
 
        repo.signatures = self._get_signatures(repo_transport, repo)
378
 
        repo.inventories = self._get_inventories(repo_transport, repo)
379
 
        repo.texts = self._get_texts(repo_transport, repo)
380
 
        repo._transport = repo_transport
381
 
        return repo
382
422
 
383
423
 
384
424
class RepositoryFormatKnit1(RepositoryFormatKnit):
417
457
 
418
458
 
419
459
class RepositoryFormatKnit3(RepositoryFormatKnit):
420
 
    """Bzr repository knit format 3.
 
460
    """Bzr repository knit format 2.
421
461
 
422
462
    This repository format has:
423
463
     - knits for file texts and inventory
463
503
        return "Knit repository format 3"
464
504
 
465
505
 
466
 
class RepositoryFormatKnit4(RepositoryFormatKnit):
467
 
    """Bzr repository knit format 4.
468
 
 
469
 
    This repository format has everything in format 3, except for
470
 
    tree-references:
471
 
     - knits for file texts and inventory
472
 
     - hash subdirectory based stores.
473
 
     - knits for revisions and signatures
474
 
     - TextStores for revisions and signatures.
475
 
     - a format marker of its own
476
 
     - an optional 'shared-storage' flag
477
 
     - an optional 'no-working-trees' flag
478
 
     - a LockDir lock
479
 
     - support for recording full info about the tree root
 
506
def _get_stream_as_bytes(knit, required_versions):
 
507
    """Generate a serialised data stream.
 
508
 
 
509
    The format is a bencoding of a list.  The first element of the list is a
 
510
    string of the format signature, then each subsequent element is a list
 
511
    corresponding to a record.  Those lists contain:
 
512
 
 
513
      * a version id
 
514
      * a list of options
 
515
      * a list of parents
 
516
      * the bytes
 
517
 
 
518
    :returns: a bencoded list.
480
519
    """
481
 
 
482
 
    repository_class = KnitRepository
483
 
    _commit_builder_class = RootCommitBuilder
484
 
    rich_root_data = True
485
 
    supports_tree_reference = False
486
 
    _serializer = xml6.serializer_v6
487
 
 
488
 
    def _get_matching_bzrdir(self):
489
 
        return bzrdir.format_registry.make_bzrdir('rich-root')
490
 
 
491
 
    def _ignore_setting_bzrdir(self, format):
492
 
        pass
493
 
 
494
 
    _matchingbzrdir = property(_get_matching_bzrdir, _ignore_setting_bzrdir)
495
 
 
496
 
    def check_conversion_target(self, target_format):
497
 
        if not target_format.rich_root_data:
498
 
            raise errors.BadConversionTarget(
499
 
                'Does not support rich root data.', target_format)
500
 
 
501
 
    def get_format_string(self):
502
 
        """See RepositoryFormat.get_format_string()."""
503
 
        return 'Bazaar Knit Repository Format 4 (bzr 1.0)\n'
504
 
 
505
 
    def get_format_description(self):
506
 
        """See RepositoryFormat.get_format_description()."""
507
 
        return "Knit repository format 4"
 
520
    knit_stream = knit.get_data_stream(required_versions)
 
521
    format_signature, data_list, callable = knit_stream
 
522
    data = []
 
523
    data.append(format_signature)
 
524
    for version, options, length, parents in data_list:
 
525
        data.append([version, options, parents, callable(length)])
 
526
    return bencode.bencode(data)