~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/smart/repository.py

  • Committer: Jelmer Vernooij
  • Date: 2010-12-20 11:57:14 UTC
  • mto: This revision was merged to the branch mainline in revision 5577.
  • Revision ID: jelmer@samba.org-20101220115714-2ru3hfappjweeg7q
Don't use no-plugins.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2006-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
12
12
#
13
13
# You should have received a copy of the GNU General Public License
14
14
# along with this program; if not, write to the Free Software
15
 
# Foundation, Inc., 59 Temple Place, Suite 330, Boston, MA  02111-1307  USA
 
15
# Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA 02110-1301 USA
16
16
 
17
17
"""Server-side repository related request implmentations."""
18
18
 
19
 
from cStringIO import StringIO
 
19
import bz2
20
20
import os
 
21
import Queue
21
22
import sys
22
23
import tempfile
23
 
import tarfile
 
24
import threading
24
25
 
25
 
from bzrlib import errors
 
26
from bzrlib import (
 
27
    bencode,
 
28
    errors,
 
29
    graph,
 
30
    osutils,
 
31
    pack,
 
32
    ui,
 
33
    )
26
34
from bzrlib.bzrdir import BzrDir
27
 
from bzrlib.pack import ContainerWriter
28
35
from bzrlib.smart.request import (
29
36
    FailedSmartServerResponse,
30
37
    SmartServerRequest,
31
38
    SuccessfulSmartServerResponse,
32
39
    )
 
40
from bzrlib.repository import _strip_NULL_ghosts, network_format_registry
 
41
from bzrlib import revision as _mod_revision
 
42
from bzrlib.versionedfile import (
 
43
    NetworkRecordStream,
 
44
    record_to_fulltext_bytes,
 
45
    )
33
46
 
34
47
 
35
48
class SmartServerRepositoryRequest(SmartServerRequest):
37
50
 
38
51
    def do(self, path, *args):
39
52
        """Execute a repository request.
40
 
        
41
 
        The repository must be at the exact path - no searching is done.
 
53
 
 
54
        All Repository requests take a path to the repository as their first
 
55
        argument.  The repository must be at the exact path given by the
 
56
        client - no searching is done.
42
57
 
43
58
        The actual logic is delegated to self.do_repository_request.
44
59
 
45
 
        :param path: The path for the repository.
46
 
        :return: A smart server from self.do_repository_request().
 
60
        :param client_path: The path for the repository as received from the
 
61
            client.
 
62
        :return: A SmartServerResponse from self.do_repository_request().
47
63
        """
48
 
        transport = self._backing_transport.clone(path)
 
64
        transport = self.transport_from_client_path(path)
49
65
        bzrdir = BzrDir.open_from_transport(transport)
50
 
        repository = bzrdir.open_repository()
51
 
        return self.do_repository_request(repository, *args)
52
 
 
53
 
 
54
 
class SmartServerRepositoryGetRevisionGraph(SmartServerRepositoryRequest):
55
 
    
56
 
    def do_repository_request(self, repository, revision_id):
 
66
        # Save the repository for use with do_body.
 
67
        self._repository = bzrdir.open_repository()
 
68
        return self.do_repository_request(self._repository, *args)
 
69
 
 
70
    def do_repository_request(self, repository, *args):
 
71
        """Override to provide an implementation for a verb."""
 
72
        # No-op for verbs that take bodies (None as a result indicates a body
 
73
        # is expected)
 
74
        return None
 
75
 
 
76
    def recreate_search(self, repository, search_bytes, discard_excess=False):
 
77
        """Recreate a search from its serialised form.
 
78
 
 
79
        :param discard_excess: If True, and the search refers to data we don't
 
80
            have, just silently accept that fact - the verb calling
 
81
            recreate_search trusts that clients will look for missing things
 
82
            they expected and get it from elsewhere.
 
83
        """
 
84
        lines = search_bytes.split('\n')
 
85
        if lines[0] == 'ancestry-of':
 
86
            heads = lines[1:]
 
87
            search_result = graph.PendingAncestryResult(heads, repository)
 
88
            return search_result, None
 
89
        elif lines[0] == 'search':
 
90
            return self.recreate_search_from_recipe(repository, lines[1:],
 
91
                discard_excess=discard_excess)
 
92
        else:
 
93
            return (None, FailedSmartServerResponse(('BadSearch',)))
 
94
 
 
95
    def recreate_search_from_recipe(self, repository, lines,
 
96
        discard_excess=False):
 
97
        """Recreate a specific revision search (vs a from-tip search).
 
98
 
 
99
        :param discard_excess: If True, and the search refers to data we don't
 
100
            have, just silently accept that fact - the verb calling
 
101
            recreate_search trusts that clients will look for missing things
 
102
            they expected and get it from elsewhere.
 
103
        """
 
104
        start_keys = set(lines[0].split(' '))
 
105
        exclude_keys = set(lines[1].split(' '))
 
106
        revision_count = int(lines[2])
 
107
        repository.lock_read()
 
108
        try:
 
109
            search = repository.get_graph()._make_breadth_first_searcher(
 
110
                start_keys)
 
111
            while True:
 
112
                try:
 
113
                    next_revs = search.next()
 
114
                except StopIteration:
 
115
                    break
 
116
                search.stop_searching_any(exclude_keys.intersection(next_revs))
 
117
            search_result = search.get_result()
 
118
            if (not discard_excess and
 
119
                search_result.get_recipe()[3] != revision_count):
 
120
                # we got back a different amount of data than expected, this
 
121
                # gets reported as NoSuchRevision, because less revisions
 
122
                # indicates missing revisions, and more should never happen as
 
123
                # the excludes list considers ghosts and ensures that ghost
 
124
                # filling races are not a problem.
 
125
                return (None, FailedSmartServerResponse(('NoSuchRevision',)))
 
126
            return (search_result, None)
 
127
        finally:
 
128
            repository.unlock()
 
129
 
 
130
 
 
131
class SmartServerRepositoryReadLocked(SmartServerRepositoryRequest):
 
132
    """Calls self.do_readlocked_repository_request."""
 
133
 
 
134
    def do_repository_request(self, repository, *args):
 
135
        """Read lock a repository for do_readlocked_repository_request."""
 
136
        repository.lock_read()
 
137
        try:
 
138
            return self.do_readlocked_repository_request(repository, *args)
 
139
        finally:
 
140
            repository.unlock()
 
141
 
 
142
 
 
143
class SmartServerRepositoryGetParentMap(SmartServerRepositoryRequest):
 
144
    """Bzr 1.2+ - get parent data for revisions during a graph search."""
 
145
 
 
146
    no_extra_results = False
 
147
 
 
148
    def do_repository_request(self, repository, *revision_ids):
 
149
        """Get parent details for some revisions.
 
150
 
 
151
        All the parents for revision_ids are returned. Additionally up to 64KB
 
152
        of additional parent data found by performing a breadth first search
 
153
        from revision_ids is returned. The verb takes a body containing the
 
154
        current search state, see do_body for details.
 
155
 
 
156
        If 'include-missing:' is in revision_ids, ghosts encountered in the
 
157
        graph traversal for getting parent data are included in the result with
 
158
        a prefix of 'missing:'.
 
159
 
 
160
        :param repository: The repository to query in.
 
161
        :param revision_ids: The utf8 encoded revision_id to answer for.
 
162
        """
 
163
        self._revision_ids = revision_ids
 
164
        return None # Signal that we want a body.
 
165
 
 
166
    def do_body(self, body_bytes):
 
167
        """Process the current search state and perform the parent lookup.
 
168
 
 
169
        :return: A smart server response where the body contains an utf8
 
170
            encoded flattened list of the parents of the revisions (the same
 
171
            format as Repository.get_revision_graph) which has been bz2
 
172
            compressed.
 
173
        """
 
174
        repository = self._repository
 
175
        repository.lock_read()
 
176
        try:
 
177
            return self._do_repository_request(body_bytes)
 
178
        finally:
 
179
            repository.unlock()
 
180
 
 
181
    def _do_repository_request(self, body_bytes):
 
182
        repository = self._repository
 
183
        revision_ids = set(self._revision_ids)
 
184
        include_missing = 'include-missing:' in revision_ids
 
185
        if include_missing:
 
186
            revision_ids.remove('include-missing:')
 
187
        body_lines = body_bytes.split('\n')
 
188
        search_result, error = self.recreate_search_from_recipe(
 
189
            repository, body_lines)
 
190
        if error is not None:
 
191
            return error
 
192
        # TODO might be nice to start up the search again; but thats not
 
193
        # written or tested yet.
 
194
        client_seen_revs = set(search_result.get_keys())
 
195
        # Always include the requested ids.
 
196
        client_seen_revs.difference_update(revision_ids)
 
197
        lines = []
 
198
        repo_graph = repository.get_graph()
 
199
        result = {}
 
200
        queried_revs = set()
 
201
        size_so_far = 0
 
202
        next_revs = revision_ids
 
203
        first_loop_done = False
 
204
        while next_revs:
 
205
            queried_revs.update(next_revs)
 
206
            parent_map = repo_graph.get_parent_map(next_revs)
 
207
            current_revs = next_revs
 
208
            next_revs = set()
 
209
            for revision_id in current_revs:
 
210
                missing_rev = False
 
211
                parents = parent_map.get(revision_id)
 
212
                if parents is not None:
 
213
                    # adjust for the wire
 
214
                    if parents == (_mod_revision.NULL_REVISION,):
 
215
                        parents = ()
 
216
                    # prepare the next query
 
217
                    next_revs.update(parents)
 
218
                    encoded_id = revision_id
 
219
                else:
 
220
                    missing_rev = True
 
221
                    encoded_id = "missing:" + revision_id
 
222
                    parents = []
 
223
                if (revision_id not in client_seen_revs and
 
224
                    (not missing_rev or include_missing)):
 
225
                    # Client does not have this revision, give it to it.
 
226
                    # add parents to the result
 
227
                    result[encoded_id] = parents
 
228
                    # Approximate the serialized cost of this revision_id.
 
229
                    size_so_far += 2 + len(encoded_id) + sum(map(len, parents))
 
230
            # get all the directly asked for parents, and then flesh out to
 
231
            # 64K (compressed) or so. We do one level of depth at a time to
 
232
            # stay in sync with the client. The 250000 magic number is
 
233
            # estimated compression ratio taken from bzr.dev itself.
 
234
            if self.no_extra_results or (
 
235
                first_loop_done and size_so_far > 250000):
 
236
                next_revs = set()
 
237
                break
 
238
            # don't query things we've already queried
 
239
            next_revs.difference_update(queried_revs)
 
240
            first_loop_done = True
 
241
 
 
242
        # sorting trivially puts lexographically similar revision ids together.
 
243
        # Compression FTW.
 
244
        for revision, parents in sorted(result.items()):
 
245
            lines.append(' '.join((revision, ) + tuple(parents)))
 
246
 
 
247
        return SuccessfulSmartServerResponse(
 
248
            ('ok', ), bz2.compress('\n'.join(lines)))
 
249
 
 
250
 
 
251
class SmartServerRepositoryGetRevisionGraph(SmartServerRepositoryReadLocked):
 
252
 
 
253
    def do_readlocked_repository_request(self, repository, revision_id):
57
254
        """Return the result of repository.get_revision_graph(revision_id).
58
 
        
 
255
 
 
256
        Deprecated as of bzr 1.4, but supported for older clients.
 
257
 
59
258
        :param repository: The repository to query in.
60
259
        :param revision_id: The utf8 encoded revision_id to get a graph from.
61
260
        :return: A smart server response where the body contains an utf8
65
264
            revision_id = None
66
265
 
67
266
        lines = []
68
 
        try:
69
 
            revision_graph = repository.get_revision_graph(revision_id)
70
 
        except errors.NoSuchRevision:
 
267
        graph = repository.get_graph()
 
268
        if revision_id:
 
269
            search_ids = [revision_id]
 
270
        else:
 
271
            search_ids = repository.all_revision_ids()
 
272
        search = graph._make_breadth_first_searcher(search_ids)
 
273
        transitive_ids = set()
 
274
        map(transitive_ids.update, list(search))
 
275
        parent_map = graph.get_parent_map(transitive_ids)
 
276
        revision_graph = _strip_NULL_ghosts(parent_map)
 
277
        if revision_id and revision_id not in revision_graph:
71
278
            # Note that we return an empty body, rather than omitting the body.
72
279
            # This way the client knows that it can always expect to find a body
73
280
            # in the response for this method, even in the error case.
79
286
        return SuccessfulSmartServerResponse(('ok', ), '\n'.join(lines))
80
287
 
81
288
 
 
289
class SmartServerRepositoryGetRevIdForRevno(SmartServerRepositoryReadLocked):
 
290
 
 
291
    def do_readlocked_repository_request(self, repository, revno,
 
292
            known_pair):
 
293
        """Find the revid for a given revno, given a known revno/revid pair.
 
294
        
 
295
        New in 1.17.
 
296
        """
 
297
        try:
 
298
            found_flag, result = repository.get_rev_id_for_revno(revno, known_pair)
 
299
        except errors.RevisionNotPresent, err:
 
300
            if err.revision_id != known_pair[1]:
 
301
                raise AssertionError(
 
302
                    'get_rev_id_for_revno raised RevisionNotPresent for '
 
303
                    'non-initial revision: ' + err.revision_id)
 
304
            return FailedSmartServerResponse(
 
305
                ('nosuchrevision', err.revision_id))
 
306
        if found_flag:
 
307
            return SuccessfulSmartServerResponse(('ok', result))
 
308
        else:
 
309
            earliest_revno, earliest_revid = result
 
310
            return SuccessfulSmartServerResponse(
 
311
                ('history-incomplete', earliest_revno, earliest_revid))
 
312
 
 
313
 
82
314
class SmartServerRequestHasRevision(SmartServerRepositoryRequest):
83
315
 
84
316
    def do_repository_request(self, repository, revision_id):
109
341
              firstrev: 1234.230 0
110
342
              latestrev: 345.700 3600
111
343
              revisions: 2
112
 
              size:45
113
344
 
114
345
              But containing only fields returned by the gather_stats() call
115
346
        """
160
391
        if token == '':
161
392
            token = None
162
393
        try:
163
 
            token = repository.lock_write(token=token)
 
394
            token = repository.lock_write(token=token).repository_token
164
395
        except errors.LockContention, e:
165
396
            return FailedSmartServerResponse(('LockContention',))
166
397
        except errors.UnlockableTransport:
176
407
        return SuccessfulSmartServerResponse(('ok', token))
177
408
 
178
409
 
 
410
class SmartServerRepositoryGetStream(SmartServerRepositoryRequest):
 
411
 
 
412
    def do_repository_request(self, repository, to_network_name):
 
413
        """Get a stream for inserting into a to_format repository.
 
414
 
 
415
        :param repository: The repository to stream from.
 
416
        :param to_network_name: The network name of the format of the target
 
417
            repository.
 
418
        """
 
419
        self._to_format = network_format_registry.get(to_network_name)
 
420
        if self._should_fake_unknown():
 
421
            return FailedSmartServerResponse(
 
422
                ('UnknownMethod', 'Repository.get_stream'))
 
423
        return None # Signal that we want a body.
 
424
 
 
425
    def _should_fake_unknown(self):
 
426
        """Return True if we should return UnknownMethod to the client.
 
427
        
 
428
        This is a workaround for bugs in pre-1.19 clients that claim to
 
429
        support receiving streams of CHK repositories.  The pre-1.19 client
 
430
        expects inventory records to be serialized in the format defined by
 
431
        to_network_name, but in pre-1.19 (at least) that format definition
 
432
        tries to use the xml5 serializer, which does not correctly handle
 
433
        rich-roots.  After 1.19 the client can also accept inventory-deltas
 
434
        (which avoids this issue), and those clients will use the
 
435
        Repository.get_stream_1.19 verb instead of this one.
 
436
        So: if this repository is CHK, and the to_format doesn't match,
 
437
        we should just fake an UnknownSmartMethod error so that the client
 
438
        will fallback to VFS, rather than sending it a stream we know it
 
439
        cannot handle.
 
440
        """
 
441
        from_format = self._repository._format
 
442
        to_format = self._to_format
 
443
        if not from_format.supports_chks:
 
444
            # Source not CHK: that's ok
 
445
            return False
 
446
        if (to_format.supports_chks and
 
447
            from_format.repository_class is to_format.repository_class and
 
448
            from_format._serializer == to_format._serializer):
 
449
            # Source is CHK, but target matches: that's ok
 
450
            # (e.g. 2a->2a, or CHK2->2a)
 
451
            return False
 
452
        # Source is CHK, and target is not CHK or incompatible CHK.  We can't
 
453
        # generate a compatible stream.
 
454
        return True
 
455
 
 
456
    def do_body(self, body_bytes):
 
457
        repository = self._repository
 
458
        repository.lock_read()
 
459
        try:
 
460
            search_result, error = self.recreate_search(repository, body_bytes,
 
461
                discard_excess=True)
 
462
            if error is not None:
 
463
                repository.unlock()
 
464
                return error
 
465
            source = repository._get_source(self._to_format)
 
466
            stream = source.get_stream(search_result)
 
467
        except Exception:
 
468
            exc_info = sys.exc_info()
 
469
            try:
 
470
                # On non-error, unlocking is done by the body stream handler.
 
471
                repository.unlock()
 
472
            finally:
 
473
                raise exc_info[0], exc_info[1], exc_info[2]
 
474
        return SuccessfulSmartServerResponse(('ok',),
 
475
            body_stream=self.body_stream(stream, repository))
 
476
 
 
477
    def body_stream(self, stream, repository):
 
478
        byte_stream = _stream_to_byte_stream(stream, repository._format)
 
479
        try:
 
480
            for bytes in byte_stream:
 
481
                yield bytes
 
482
        except errors.RevisionNotPresent, e:
 
483
            # This shouldn't be able to happen, but as we don't buffer
 
484
            # everything it can in theory happen.
 
485
            repository.unlock()
 
486
            yield FailedSmartServerResponse(('NoSuchRevision', e.revision_id))
 
487
        else:
 
488
            repository.unlock()
 
489
 
 
490
 
 
491
class SmartServerRepositoryGetStream_1_19(SmartServerRepositoryGetStream):
 
492
 
 
493
    def _should_fake_unknown(self):
 
494
        """Returns False; we don't need to workaround bugs in 1.19+ clients."""
 
495
        return False
 
496
 
 
497
 
 
498
def _stream_to_byte_stream(stream, src_format):
 
499
    """Convert a record stream to a self delimited byte stream."""
 
500
    pack_writer = pack.ContainerSerialiser()
 
501
    yield pack_writer.begin()
 
502
    yield pack_writer.bytes_record(src_format.network_name(), '')
 
503
    for substream_type, substream in stream:
 
504
        for record in substream:
 
505
            if record.storage_kind in ('chunked', 'fulltext'):
 
506
                serialised = record_to_fulltext_bytes(record)
 
507
            elif record.storage_kind == 'absent':
 
508
                raise ValueError("Absent factory for %s" % (record.key,))
 
509
            else:
 
510
                serialised = record.get_bytes_as(record.storage_kind)
 
511
            if serialised:
 
512
                # Some streams embed the whole stream into the wire
 
513
                # representation of the first record, which means that
 
514
                # later records have no wire representation: we skip them.
 
515
                yield pack_writer.bytes_record(serialised, [(substream_type,)])
 
516
    yield pack_writer.end()
 
517
 
 
518
 
 
519
class _ByteStreamDecoder(object):
 
520
    """Helper for _byte_stream_to_stream.
 
521
 
 
522
    The expected usage of this class is via the function _byte_stream_to_stream
 
523
    which creates a _ByteStreamDecoder, pops off the stream format and then
 
524
    yields the output of record_stream(), the main entry point to
 
525
    _ByteStreamDecoder.
 
526
 
 
527
    Broadly this class has to unwrap two layers of iterators:
 
528
    (type, substream)
 
529
    (substream details)
 
530
 
 
531
    This is complicated by wishing to return type, iterator_for_type, but
 
532
    getting the data for iterator_for_type when we find out type: we can't
 
533
    simply pass a generator down to the NetworkRecordStream parser, instead
 
534
    we have a little local state to seed each NetworkRecordStream instance,
 
535
    and gather the type that we'll be yielding.
 
536
 
 
537
    :ivar byte_stream: The byte stream being decoded.
 
538
    :ivar stream_decoder: A pack parser used to decode the bytestream
 
539
    :ivar current_type: The current type, used to join adjacent records of the
 
540
        same type into a single stream.
 
541
    :ivar first_bytes: The first bytes to give the next NetworkRecordStream.
 
542
    """
 
543
 
 
544
    def __init__(self, byte_stream, record_counter):
 
545
        """Create a _ByteStreamDecoder."""
 
546
        self.stream_decoder = pack.ContainerPushParser()
 
547
        self.current_type = None
 
548
        self.first_bytes = None
 
549
        self.byte_stream = byte_stream
 
550
        self._record_counter = record_counter
 
551
        self.key_count = 0
 
552
 
 
553
    def iter_stream_decoder(self):
 
554
        """Iterate the contents of the pack from stream_decoder."""
 
555
        # dequeue pending items
 
556
        for record in self.stream_decoder.read_pending_records():
 
557
            yield record
 
558
        # Pull bytes of the wire, decode them to records, yield those records.
 
559
        for bytes in self.byte_stream:
 
560
            self.stream_decoder.accept_bytes(bytes)
 
561
            for record in self.stream_decoder.read_pending_records():
 
562
                yield record
 
563
 
 
564
    def iter_substream_bytes(self):
 
565
        if self.first_bytes is not None:
 
566
            yield self.first_bytes
 
567
            # If we run out of pack records, single the outer layer to stop.
 
568
            self.first_bytes = None
 
569
        for record in self.iter_pack_records:
 
570
            record_names, record_bytes = record
 
571
            record_name, = record_names
 
572
            substream_type = record_name[0]
 
573
            if substream_type != self.current_type:
 
574
                # end of a substream, seed the next substream.
 
575
                self.current_type = substream_type
 
576
                self.first_bytes = record_bytes
 
577
                return
 
578
            yield record_bytes
 
579
 
 
580
    def record_stream(self):
 
581
        """Yield substream_type, substream from the byte stream."""
 
582
        def wrap_and_count(pb, rc, substream):
 
583
            """Yield records from stream while showing progress."""
 
584
            counter = 0
 
585
            if rc:
 
586
                if self.current_type != 'revisions' and self.key_count != 0:
 
587
                    # As we know the number of revisions now (in self.key_count)
 
588
                    # we can setup and use record_counter (rc).
 
589
                    if not rc.is_initialized():
 
590
                        rc.setup(self.key_count, self.key_count)
 
591
            for record in substream.read():
 
592
                if rc:
 
593
                    if rc.is_initialized() and counter == rc.STEP:
 
594
                        rc.increment(counter)
 
595
                        pb.update('Estimate', rc.current, rc.max)
 
596
                        counter = 0
 
597
                    if self.current_type == 'revisions':
 
598
                        # Total records is proportional to number of revs
 
599
                        # to fetch. With remote, we used self.key_count to
 
600
                        # track the number of revs. Once we have the revs
 
601
                        # counts in self.key_count, the progress bar changes
 
602
                        # from 'Estimating..' to 'Estimate' above.
 
603
                        self.key_count += 1
 
604
                        if counter == rc.STEP:
 
605
                            pb.update('Estimating..', self.key_count)
 
606
                            counter = 0
 
607
                counter += 1
 
608
                yield record
 
609
 
 
610
        self.seed_state()
 
611
        pb = ui.ui_factory.nested_progress_bar()
 
612
        rc = self._record_counter
 
613
        # Make and consume sub generators, one per substream type:
 
614
        while self.first_bytes is not None:
 
615
            substream = NetworkRecordStream(self.iter_substream_bytes())
 
616
            # after substream is fully consumed, self.current_type is set to
 
617
            # the next type, and self.first_bytes is set to the matching bytes.
 
618
            yield self.current_type, wrap_and_count(pb, rc, substream)
 
619
        if rc:
 
620
            pb.update('Done', rc.max, rc.max)
 
621
        pb.finished()
 
622
 
 
623
    def seed_state(self):
 
624
        """Prepare the _ByteStreamDecoder to decode from the pack stream."""
 
625
        # Set a single generator we can use to get data from the pack stream.
 
626
        self.iter_pack_records = self.iter_stream_decoder()
 
627
        # Seed the very first subiterator with content; after this each one
 
628
        # seeds the next.
 
629
        list(self.iter_substream_bytes())
 
630
 
 
631
 
 
632
def _byte_stream_to_stream(byte_stream, record_counter=None):
 
633
    """Convert a byte stream into a format and a stream.
 
634
 
 
635
    :param byte_stream: A bytes iterator, as output by _stream_to_byte_stream.
 
636
    :return: (RepositoryFormat, stream_generator)
 
637
    """
 
638
    decoder = _ByteStreamDecoder(byte_stream, record_counter)
 
639
    for bytes in byte_stream:
 
640
        decoder.stream_decoder.accept_bytes(bytes)
 
641
        for record in decoder.stream_decoder.read_pending_records(max=1):
 
642
            record_names, src_format_name = record
 
643
            src_format = network_format_registry.get(src_format_name)
 
644
            return src_format, decoder.record_stream()
 
645
 
 
646
 
179
647
class SmartServerRepositoryUnlock(SmartServerRepositoryRequest):
180
648
 
181
649
    def do_repository_request(self, repository, token):
188
656
        return SuccessfulSmartServerResponse(('ok',))
189
657
 
190
658
 
 
659
class SmartServerRepositorySetMakeWorkingTrees(SmartServerRepositoryRequest):
 
660
 
 
661
    def do_repository_request(self, repository, str_bool_new_value):
 
662
        if str_bool_new_value == 'True':
 
663
            new_value = True
 
664
        else:
 
665
            new_value = False
 
666
        repository.set_make_working_trees(new_value)
 
667
        return SuccessfulSmartServerResponse(('ok',))
 
668
 
 
669
 
191
670
class SmartServerRepositoryTarball(SmartServerRepositoryRequest):
192
671
    """Get the raw repository files as a tarball.
193
672
 
194
673
    The returned tarball contains a .bzr control directory which in turn
195
674
    contains a repository.
196
 
    
197
 
    This takes one parameter, compression, which currently must be 
 
675
 
 
676
    This takes one parameter, compression, which currently must be
198
677
    "", "gz", or "bz2".
199
678
 
200
679
    This is used to implement the Repository.copy_content_into operation.
201
680
    """
202
681
 
203
682
    def do_repository_request(self, repository, compression):
204
 
        from bzrlib import osutils
205
 
        repo_transport = repository.control_files._transport
206
683
        tmp_dirname, tmp_repo = self._copy_to_tempdir(repository)
207
684
        try:
208
685
            controldir_name = tmp_dirname + '/.bzr'
211
688
            osutils.rmtree(tmp_dirname)
212
689
 
213
690
    def _copy_to_tempdir(self, from_repo):
214
 
        tmp_dirname = tempfile.mkdtemp(prefix='tmpbzrclone')
 
691
        tmp_dirname = osutils.mkdtemp(prefix='tmpbzrclone')
215
692
        tmp_bzrdir = from_repo.bzrdir._format.initialize(tmp_dirname)
216
693
        tmp_repo = from_repo._format.initialize(tmp_bzrdir)
217
694
        from_repo.copy_content_into(tmp_repo)
224
701
            # all finished; write the tempfile out to the network
225
702
            temp.seek(0)
226
703
            return SuccessfulSmartServerResponse(('ok',), temp.read())
227
 
            # FIXME: Don't read the whole thing into memory here; rather stream it
228
 
            # out from the file onto the network. mbp 20070411
 
704
            # FIXME: Don't read the whole thing into memory here; rather stream
 
705
            # it out from the file onto the network. mbp 20070411
229
706
        finally:
230
707
            temp.close()
231
708
 
232
709
    def _tarball_of_dir(self, dirname, compression, ofile):
 
710
        import tarfile
233
711
        filename = os.path.basename(ofile.name)
234
712
        tarball = tarfile.open(fileobj=ofile, name=filename,
235
713
            mode='w|' + compression)
241
719
            dirname = dirname.encode(sys.getfilesystemencoding())
242
720
            # python's tarball module includes the whole path by default so
243
721
            # override it
244
 
            assert dirname.endswith('.bzr')
 
722
            if not dirname.endswith('.bzr'):
 
723
                raise ValueError(dirname)
245
724
            tarball.add(dirname, '.bzr') # recursive by default
246
725
        finally:
247
726
            tarball.close()
248
727
 
249
728
 
250
 
class SmartServerRepositoryStreamKnitDataForRevisions(SmartServerRepositoryRequest):
251
 
 
252
 
    def do_repository_request(self, repository, *revision_ids):
253
 
        repository.lock_read()
254
 
        try:
255
 
            return self._do_repository_request(repository, revision_ids)
256
 
        finally:
257
 
            repository.unlock()
258
 
 
259
 
    def _do_repository_request(self, repository, revision_ids):
260
 
        stream = repository.get_data_stream(revision_ids)
261
 
        filelike = StringIO()
262
 
        pack = ContainerWriter(filelike.write)
263
 
        pack.begin()
264
 
        try:
265
 
            for name_tuple, bytes in stream:
266
 
                pack.add_bytes_record(bytes, [name_tuple])
267
 
        except errors.RevisionNotPresent, e:
268
 
            return FailedSmartServerResponse(('NoSuchRevision', e.revision_id))
269
 
        pack.end()
270
 
        return SuccessfulSmartServerResponse(('ok',), filelike.getvalue())
 
729
class SmartServerRepositoryInsertStreamLocked(SmartServerRepositoryRequest):
 
730
    """Insert a record stream from a RemoteSink into a repository.
 
731
 
 
732
    This gets bytes pushed to it by the network infrastructure and turns that
 
733
    into a bytes iterator using a thread. That is then processed by
 
734
    _byte_stream_to_stream.
 
735
 
 
736
    New in 1.14.
 
737
    """
 
738
 
 
739
    def do_repository_request(self, repository, resume_tokens, lock_token):
 
740
        """StreamSink.insert_stream for a remote repository."""
 
741
        repository.lock_write(token=lock_token)
 
742
        self.do_insert_stream_request(repository, resume_tokens)
 
743
 
 
744
    def do_insert_stream_request(self, repository, resume_tokens):
 
745
        tokens = [token for token in resume_tokens.split(' ') if token]
 
746
        self.tokens = tokens
 
747
        self.repository = repository
 
748
        self.queue = Queue.Queue()
 
749
        self.insert_thread = threading.Thread(target=self._inserter_thread)
 
750
        self.insert_thread.start()
 
751
 
 
752
    def do_chunk(self, body_stream_chunk):
 
753
        self.queue.put(body_stream_chunk)
 
754
 
 
755
    def _inserter_thread(self):
 
756
        try:
 
757
            src_format, stream = _byte_stream_to_stream(
 
758
                self.blocking_byte_stream())
 
759
            self.insert_result = self.repository._get_sink().insert_stream(
 
760
                stream, src_format, self.tokens)
 
761
            self.insert_ok = True
 
762
        except:
 
763
            self.insert_exception = sys.exc_info()
 
764
            self.insert_ok = False
 
765
 
 
766
    def blocking_byte_stream(self):
 
767
        while True:
 
768
            bytes = self.queue.get()
 
769
            if bytes is StopIteration:
 
770
                return
 
771
            else:
 
772
                yield bytes
 
773
 
 
774
    def do_end(self):
 
775
        self.queue.put(StopIteration)
 
776
        if self.insert_thread is not None:
 
777
            self.insert_thread.join()
 
778
        if not self.insert_ok:
 
779
            exc_info = self.insert_exception
 
780
            raise exc_info[0], exc_info[1], exc_info[2]
 
781
        write_group_tokens, missing_keys = self.insert_result
 
782
        if write_group_tokens or missing_keys:
 
783
            # bzip needed? missing keys should typically be a small set.
 
784
            # Should this be a streaming body response ?
 
785
            missing_keys = sorted(missing_keys)
 
786
            bytes = bencode.bencode((write_group_tokens, missing_keys))
 
787
            self.repository.unlock()
 
788
            return SuccessfulSmartServerResponse(('missing-basis', bytes))
 
789
        else:
 
790
            self.repository.unlock()
 
791
            return SuccessfulSmartServerResponse(('ok', ))
 
792
 
 
793
 
 
794
class SmartServerRepositoryInsertStream_1_19(SmartServerRepositoryInsertStreamLocked):
 
795
    """Insert a record stream from a RemoteSink into a repository.
 
796
 
 
797
    Same as SmartServerRepositoryInsertStreamLocked, except:
 
798
     - the lock token argument is optional
 
799
     - servers that implement this verb accept 'inventory-delta' records in the
 
800
       stream.
 
801
 
 
802
    New in 1.19.
 
803
    """
 
804
 
 
805
    def do_repository_request(self, repository, resume_tokens, lock_token=None):
 
806
        """StreamSink.insert_stream for a remote repository."""
 
807
        SmartServerRepositoryInsertStreamLocked.do_repository_request(
 
808
            self, repository, resume_tokens, lock_token)
 
809
 
 
810
 
 
811
class SmartServerRepositoryInsertStream(SmartServerRepositoryInsertStreamLocked):
 
812
    """Insert a record stream from a RemoteSink into an unlocked repository.
 
813
 
 
814
    This is the same as SmartServerRepositoryInsertStreamLocked, except it
 
815
    takes no lock_tokens; i.e. it works with an unlocked (or lock-free, e.g.
 
816
    like pack format) repository.
 
817
 
 
818
    New in 1.13.
 
819
    """
 
820
 
 
821
    def do_repository_request(self, repository, resume_tokens):
 
822
        """StreamSink.insert_stream for a remote repository."""
 
823
        repository.lock_write()
 
824
        self.do_insert_stream_request(repository, resume_tokens)
 
825
 
271
826