~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/smart/repository.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2009-06-10 10:33:31 UTC
  • mfrom: (4426.1.1 integration)
  • Revision ID: pqm@pqm.ubuntu.com-20090610103331-ht76b0l92gj1gn9d
(bialix) Start Russian translation

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006-2010 Canonical Ltd
 
1
# Copyright (C) 2006, 2007 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
19
19
import bz2
20
20
import os
21
21
import Queue
 
22
import struct
22
23
import sys
 
24
import tarfile
23
25
import tempfile
24
26
import threading
25
27
 
29
31
    graph,
30
32
    osutils,
31
33
    pack,
32
 
    ui,
33
 
    versionedfile,
34
34
    )
35
35
from bzrlib.bzrdir import BzrDir
36
36
from bzrlib.smart.request import (
40
40
    )
41
41
from bzrlib.repository import _strip_NULL_ghosts, network_format_registry
42
42
from bzrlib import revision as _mod_revision
43
 
from bzrlib.versionedfile import (
44
 
    NetworkRecordStream,
45
 
    record_to_fulltext_bytes,
46
 
    )
 
43
from bzrlib.versionedfile import NetworkRecordStream, record_to_fulltext_bytes
47
44
 
48
45
 
49
46
class SmartServerRepositoryRequest(SmartServerRequest):
287
284
        return SuccessfulSmartServerResponse(('ok', ), '\n'.join(lines))
288
285
 
289
286
 
290
 
class SmartServerRepositoryGetRevIdForRevno(SmartServerRepositoryReadLocked):
291
 
 
292
 
    def do_readlocked_repository_request(self, repository, revno,
293
 
            known_pair):
294
 
        """Find the revid for a given revno, given a known revno/revid pair.
295
 
        
296
 
        New in 1.17.
297
 
        """
298
 
        try:
299
 
            found_flag, result = repository.get_rev_id_for_revno(revno, known_pair)
300
 
        except errors.RevisionNotPresent, err:
301
 
            if err.revision_id != known_pair[1]:
302
 
                raise AssertionError(
303
 
                    'get_rev_id_for_revno raised RevisionNotPresent for '
304
 
                    'non-initial revision: ' + err.revision_id)
305
 
            return FailedSmartServerResponse(
306
 
                ('nosuchrevision', err.revision_id))
307
 
        if found_flag:
308
 
            return SuccessfulSmartServerResponse(('ok', result))
309
 
        else:
310
 
            earliest_revno, earliest_revid = result
311
 
            return SuccessfulSmartServerResponse(
312
 
                ('history-incomplete', earliest_revno, earliest_revid))
313
 
 
314
 
 
315
287
class SmartServerRequestHasRevision(SmartServerRepositoryRequest):
316
288
 
317
289
    def do_repository_request(self, repository, revision_id):
418
390
            repository.
419
391
        """
420
392
        self._to_format = network_format_registry.get(to_network_name)
421
 
        if self._should_fake_unknown():
422
 
            return FailedSmartServerResponse(
423
 
                ('UnknownMethod', 'Repository.get_stream'))
424
393
        return None # Signal that we want a body.
425
394
 
426
 
    def _should_fake_unknown(self):
427
 
        """Return True if we should return UnknownMethod to the client.
428
 
        
429
 
        This is a workaround for bugs in pre-1.19 clients that claim to
430
 
        support receiving streams of CHK repositories.  The pre-1.19 client
431
 
        expects inventory records to be serialized in the format defined by
432
 
        to_network_name, but in pre-1.19 (at least) that format definition
433
 
        tries to use the xml5 serializer, which does not correctly handle
434
 
        rich-roots.  After 1.19 the client can also accept inventory-deltas
435
 
        (which avoids this issue), and those clients will use the
436
 
        Repository.get_stream_1.19 verb instead of this one.
437
 
        So: if this repository is CHK, and the to_format doesn't match,
438
 
        we should just fake an UnknownSmartMethod error so that the client
439
 
        will fallback to VFS, rather than sending it a stream we know it
440
 
        cannot handle.
441
 
        """
442
 
        from_format = self._repository._format
443
 
        to_format = self._to_format
444
 
        if not from_format.supports_chks:
445
 
            # Source not CHK: that's ok
446
 
            return False
447
 
        if (to_format.supports_chks and
448
 
            from_format.repository_class is to_format.repository_class and
449
 
            from_format._serializer == to_format._serializer):
450
 
            # Source is CHK, but target matches: that's ok
451
 
            # (e.g. 2a->2a, or CHK2->2a)
452
 
            return False
453
 
        # Source is CHK, and target is not CHK or incompatible CHK.  We can't
454
 
        # generate a compatible stream.
455
 
        return True
456
 
 
457
395
    def do_body(self, body_bytes):
458
396
        repository = self._repository
459
397
        repository.lock_read()
489
427
            repository.unlock()
490
428
 
491
429
 
492
 
class SmartServerRepositoryGetStream_1_19(SmartServerRepositoryGetStream):
493
 
 
494
 
    def _should_fake_unknown(self):
495
 
        """Returns False; we don't need to workaround bugs in 1.19+ clients."""
496
 
        return False
497
 
 
498
 
 
499
430
def _stream_to_byte_stream(stream, src_format):
500
431
    """Convert a record stream to a self delimited byte stream."""
501
432
    pack_writer = pack.ContainerSerialiser()
502
433
    yield pack_writer.begin()
503
434
    yield pack_writer.bytes_record(src_format.network_name(), '')
504
435
    for substream_type, substream in stream:
505
 
        if substream_type == 'inventory-deltas':
506
 
            # This doesn't feel like the ideal place to issue this warning;
507
 
            # however we don't want to do it in the Repository that's
508
 
            # generating the stream, because that might be on the server.
509
 
            # Instead we try to observe it as the stream goes by.
510
 
            ui.ui_factory.warn_cross_format_fetch(src_format,
511
 
                '(remote)')
512
436
        for record in substream:
513
437
            if record.storage_kind in ('chunked', 'fulltext'):
514
438
                serialised = record_to_fulltext_bytes(record)
515
 
            elif record.storage_kind == 'inventory-delta':
516
 
                serialised = record_to_inventory_delta_bytes(record)
517
439
            elif record.storage_kind == 'absent':
518
440
                raise ValueError("Absent factory for %s" % (record.key,))
519
441
            else:
526
448
    yield pack_writer.end()
527
449
 
528
450
 
529
 
class _ByteStreamDecoder(object):
530
 
    """Helper for _byte_stream_to_stream.
531
 
 
532
 
    The expected usage of this class is via the function _byte_stream_to_stream
533
 
    which creates a _ByteStreamDecoder, pops off the stream format and then
534
 
    yields the output of record_stream(), the main entry point to
535
 
    _ByteStreamDecoder.
536
 
 
537
 
    Broadly this class has to unwrap two layers of iterators:
538
 
    (type, substream)
539
 
    (substream details)
540
 
 
541
 
    This is complicated by wishing to return type, iterator_for_type, but
542
 
    getting the data for iterator_for_type when we find out type: we can't
543
 
    simply pass a generator down to the NetworkRecordStream parser, instead
544
 
    we have a little local state to seed each NetworkRecordStream instance,
545
 
    and gather the type that we'll be yielding.
546
 
 
547
 
    :ivar byte_stream: The byte stream being decoded.
548
 
    :ivar stream_decoder: A pack parser used to decode the bytestream
549
 
    :ivar current_type: The current type, used to join adjacent records of the
550
 
        same type into a single stream.
551
 
    :ivar first_bytes: The first bytes to give the next NetworkRecordStream.
552
 
    """
553
 
 
554
 
    def __init__(self, byte_stream):
555
 
        """Create a _ByteStreamDecoder."""
556
 
        self.stream_decoder = pack.ContainerPushParser()
557
 
        self.current_type = None
558
 
        self.first_bytes = None
559
 
        self.byte_stream = byte_stream
560
 
 
561
 
    def iter_stream_decoder(self):
562
 
        """Iterate the contents of the pack from stream_decoder."""
563
 
        # dequeue pending items
564
 
        for record in self.stream_decoder.read_pending_records():
565
 
            yield record
566
 
        # Pull bytes of the wire, decode them to records, yield those records.
567
 
        for bytes in self.byte_stream:
568
 
            self.stream_decoder.accept_bytes(bytes)
569
 
            for record in self.stream_decoder.read_pending_records():
570
 
                yield record
571
 
 
572
 
    def iter_substream_bytes(self):
573
 
        if self.first_bytes is not None:
574
 
            yield self.first_bytes
575
 
            # If we run out of pack records, single the outer layer to stop.
576
 
            self.first_bytes = None
577
 
        for record in self.iter_pack_records:
578
 
            record_names, record_bytes = record
579
 
            record_name, = record_names
580
 
            substream_type = record_name[0]
581
 
            if substream_type != self.current_type:
582
 
                # end of a substream, seed the next substream.
583
 
                self.current_type = substream_type
584
 
                self.first_bytes = record_bytes
585
 
                return
586
 
            yield record_bytes
587
 
 
588
 
    def record_stream(self):
589
 
        """Yield substream_type, substream from the byte stream."""
590
 
        self.seed_state()
591
 
        # Make and consume sub generators, one per substream type:
592
 
        while self.first_bytes is not None:
593
 
            substream = NetworkRecordStream(self.iter_substream_bytes())
594
 
            # after substream is fully consumed, self.current_type is set to
595
 
            # the next type, and self.first_bytes is set to the matching bytes.
596
 
            yield self.current_type, substream.read()
597
 
 
598
 
    def seed_state(self):
599
 
        """Prepare the _ByteStreamDecoder to decode from the pack stream."""
600
 
        # Set a single generator we can use to get data from the pack stream.
601
 
        self.iter_pack_records = self.iter_stream_decoder()
602
 
        # Seed the very first subiterator with content; after this each one
603
 
        # seeds the next.
604
 
        list(self.iter_substream_bytes())
605
 
 
606
 
 
607
451
def _byte_stream_to_stream(byte_stream):
608
452
    """Convert a byte stream into a format and a stream.
609
453
 
610
454
    :param byte_stream: A bytes iterator, as output by _stream_to_byte_stream.
611
455
    :return: (RepositoryFormat, stream_generator)
612
456
    """
613
 
    decoder = _ByteStreamDecoder(byte_stream)
 
457
    stream_decoder = pack.ContainerPushParser()
 
458
    def record_stream():
 
459
        """Closure to return the substreams."""
 
460
        # May have fully parsed records already.
 
461
        for record in stream_decoder.read_pending_records():
 
462
            record_names, record_bytes = record
 
463
            record_name, = record_names
 
464
            substream_type = record_name[0]
 
465
            substream = NetworkRecordStream([record_bytes])
 
466
            yield substream_type, substream.read()
 
467
        for bytes in byte_stream:
 
468
            stream_decoder.accept_bytes(bytes)
 
469
            for record in stream_decoder.read_pending_records():
 
470
                record_names, record_bytes = record
 
471
                record_name, = record_names
 
472
                substream_type = record_name[0]
 
473
                substream = NetworkRecordStream([record_bytes])
 
474
                yield substream_type, substream.read()
614
475
    for bytes in byte_stream:
615
 
        decoder.stream_decoder.accept_bytes(bytes)
616
 
        for record in decoder.stream_decoder.read_pending_records(max=1):
 
476
        stream_decoder.accept_bytes(bytes)
 
477
        for record in stream_decoder.read_pending_records(max=1):
617
478
            record_names, src_format_name = record
618
479
            src_format = network_format_registry.get(src_format_name)
619
 
            return src_format, decoder.record_stream()
 
480
            return src_format, record_stream()
620
481
 
621
482
 
622
483
class SmartServerRepositoryUnlock(SmartServerRepositoryRequest):
682
543
            temp.close()
683
544
 
684
545
    def _tarball_of_dir(self, dirname, compression, ofile):
685
 
        import tarfile
686
546
        filename = os.path.basename(ofile.name)
687
547
        tarball = tarfile.open(fileobj=ofile, name=filename,
688
548
            mode='w|' + compression)
766
626
            return SuccessfulSmartServerResponse(('ok', ))
767
627
 
768
628
 
769
 
class SmartServerRepositoryInsertStream_1_19(SmartServerRepositoryInsertStreamLocked):
770
 
    """Insert a record stream from a RemoteSink into a repository.
771
 
 
772
 
    Same as SmartServerRepositoryInsertStreamLocked, except:
773
 
     - the lock token argument is optional
774
 
     - servers that implement this verb accept 'inventory-delta' records in the
775
 
       stream.
776
 
 
777
 
    New in 1.19.
778
 
    """
779
 
 
780
 
    def do_repository_request(self, repository, resume_tokens, lock_token=None):
781
 
        """StreamSink.insert_stream for a remote repository."""
782
 
        SmartServerRepositoryInsertStreamLocked.do_repository_request(
783
 
            self, repository, resume_tokens, lock_token)
784
 
 
785
 
 
786
629
class SmartServerRepositoryInsertStream(SmartServerRepositoryInsertStreamLocked):
787
630
    """Insert a record stream from a RemoteSink into an unlocked repository.
788
631