~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/smart/repository.py

  • Committer: Canonical.com Patch Queue Manager
  • Date: 2010-09-01 08:02:42 UTC
  • mfrom: (5390.3.3 faster-revert-593560)
  • Revision ID: pqm@pqm.ubuntu.com-20100901080242-esg62ody4frwmy66
(spiv) Avoid repeatedly calling self.target.all_file_ids() in
 InterTree.iter_changes. (Andrew Bennetts)

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
# Copyright (C) 2006, 2007 Canonical Ltd
 
1
# Copyright (C) 2006-2010 Canonical Ltd
2
2
#
3
3
# This program is free software; you can redistribute it and/or modify
4
4
# it under the terms of the GNU General Public License as published by
20
20
import os
21
21
import Queue
22
22
import sys
23
 
import tarfile
24
23
import tempfile
25
24
import threading
26
25
 
30
29
    graph,
31
30
    osutils,
32
31
    pack,
 
32
    ui,
 
33
    versionedfile,
33
34
    )
34
35
from bzrlib.bzrdir import BzrDir
35
36
from bzrlib.smart.request import (
38
39
    SuccessfulSmartServerResponse,
39
40
    )
40
41
from bzrlib.repository import _strip_NULL_ghosts, network_format_registry
 
42
from bzrlib.recordcounter import RecordCounter
41
43
from bzrlib import revision as _mod_revision
42
 
from bzrlib.versionedfile import NetworkRecordStream, record_to_fulltext_bytes
 
44
from bzrlib.versionedfile import (
 
45
    NetworkRecordStream,
 
46
    record_to_fulltext_bytes,
 
47
    )
43
48
 
44
49
 
45
50
class SmartServerRepositoryRequest(SmartServerRequest):
388
393
        if token == '':
389
394
            token = None
390
395
        try:
391
 
            token = repository.lock_write(token=token)
 
396
            token = repository.lock_write(token=token).repository_token
392
397
        except errors.LockContention, e:
393
398
            return FailedSmartServerResponse(('LockContention',))
394
399
        except errors.UnlockableTransport:
414
419
            repository.
415
420
        """
416
421
        self._to_format = network_format_registry.get(to_network_name)
 
422
        if self._should_fake_unknown():
 
423
            return FailedSmartServerResponse(
 
424
                ('UnknownMethod', 'Repository.get_stream'))
417
425
        return None # Signal that we want a body.
418
426
 
 
427
    def _should_fake_unknown(self):
 
428
        """Return True if we should return UnknownMethod to the client.
 
429
        
 
430
        This is a workaround for bugs in pre-1.19 clients that claim to
 
431
        support receiving streams of CHK repositories.  The pre-1.19 client
 
432
        expects inventory records to be serialized in the format defined by
 
433
        to_network_name, but in pre-1.19 (at least) that format definition
 
434
        tries to use the xml5 serializer, which does not correctly handle
 
435
        rich-roots.  After 1.19 the client can also accept inventory-deltas
 
436
        (which avoids this issue), and those clients will use the
 
437
        Repository.get_stream_1.19 verb instead of this one.
 
438
        So: if this repository is CHK, and the to_format doesn't match,
 
439
        we should just fake an UnknownSmartMethod error so that the client
 
440
        will fallback to VFS, rather than sending it a stream we know it
 
441
        cannot handle.
 
442
        """
 
443
        from_format = self._repository._format
 
444
        to_format = self._to_format
 
445
        if not from_format.supports_chks:
 
446
            # Source not CHK: that's ok
 
447
            return False
 
448
        if (to_format.supports_chks and
 
449
            from_format.repository_class is to_format.repository_class and
 
450
            from_format._serializer == to_format._serializer):
 
451
            # Source is CHK, but target matches: that's ok
 
452
            # (e.g. 2a->2a, or CHK2->2a)
 
453
            return False
 
454
        # Source is CHK, and target is not CHK or incompatible CHK.  We can't
 
455
        # generate a compatible stream.
 
456
        return True
 
457
 
419
458
    def do_body(self, body_bytes):
420
459
        repository = self._repository
421
460
        repository.lock_read()
451
490
            repository.unlock()
452
491
 
453
492
 
 
493
class SmartServerRepositoryGetStream_1_19(SmartServerRepositoryGetStream):
 
494
 
 
495
    def _should_fake_unknown(self):
 
496
        """Returns False; we don't need to workaround bugs in 1.19+ clients."""
 
497
        return False
 
498
 
 
499
 
454
500
def _stream_to_byte_stream(stream, src_format):
455
501
    """Convert a record stream to a self delimited byte stream."""
456
502
    pack_writer = pack.ContainerSerialiser()
460
506
        for record in substream:
461
507
            if record.storage_kind in ('chunked', 'fulltext'):
462
508
                serialised = record_to_fulltext_bytes(record)
 
509
            elif record.storage_kind == 'inventory-delta':
 
510
                serialised = record_to_inventory_delta_bytes(record)
463
511
            elif record.storage_kind == 'absent':
464
512
                raise ValueError("Absent factory for %s" % (record.key,))
465
513
            else:
472
520
    yield pack_writer.end()
473
521
 
474
522
 
475
 
def _byte_stream_to_stream(byte_stream):
 
523
class _ByteStreamDecoder(object):
 
524
    """Helper for _byte_stream_to_stream.
 
525
 
 
526
    The expected usage of this class is via the function _byte_stream_to_stream
 
527
    which creates a _ByteStreamDecoder, pops off the stream format and then
 
528
    yields the output of record_stream(), the main entry point to
 
529
    _ByteStreamDecoder.
 
530
 
 
531
    Broadly this class has to unwrap two layers of iterators:
 
532
    (type, substream)
 
533
    (substream details)
 
534
 
 
535
    This is complicated by wishing to return type, iterator_for_type, but
 
536
    getting the data for iterator_for_type when we find out type: we can't
 
537
    simply pass a generator down to the NetworkRecordStream parser, instead
 
538
    we have a little local state to seed each NetworkRecordStream instance,
 
539
    and gather the type that we'll be yielding.
 
540
 
 
541
    :ivar byte_stream: The byte stream being decoded.
 
542
    :ivar stream_decoder: A pack parser used to decode the bytestream
 
543
    :ivar current_type: The current type, used to join adjacent records of the
 
544
        same type into a single stream.
 
545
    :ivar first_bytes: The first bytes to give the next NetworkRecordStream.
 
546
    """
 
547
 
 
548
    def __init__(self, byte_stream, record_counter):
 
549
        """Create a _ByteStreamDecoder."""
 
550
        self.stream_decoder = pack.ContainerPushParser()
 
551
        self.current_type = None
 
552
        self.first_bytes = None
 
553
        self.byte_stream = byte_stream
 
554
        self._record_counter = record_counter
 
555
        self.key_count = 0
 
556
 
 
557
    def iter_stream_decoder(self):
 
558
        """Iterate the contents of the pack from stream_decoder."""
 
559
        # dequeue pending items
 
560
        for record in self.stream_decoder.read_pending_records():
 
561
            yield record
 
562
        # Pull bytes of the wire, decode them to records, yield those records.
 
563
        for bytes in self.byte_stream:
 
564
            self.stream_decoder.accept_bytes(bytes)
 
565
            for record in self.stream_decoder.read_pending_records():
 
566
                yield record
 
567
 
 
568
    def iter_substream_bytes(self):
 
569
        if self.first_bytes is not None:
 
570
            yield self.first_bytes
 
571
            # If we run out of pack records, single the outer layer to stop.
 
572
            self.first_bytes = None
 
573
        for record in self.iter_pack_records:
 
574
            record_names, record_bytes = record
 
575
            record_name, = record_names
 
576
            substream_type = record_name[0]
 
577
            if substream_type != self.current_type:
 
578
                # end of a substream, seed the next substream.
 
579
                self.current_type = substream_type
 
580
                self.first_bytes = record_bytes
 
581
                return
 
582
            yield record_bytes
 
583
 
 
584
    def record_stream(self):
 
585
        """Yield substream_type, substream from the byte stream."""
 
586
        def wrap_and_count(pb, rc, substream):
 
587
            """Yield records from stream while showing progress."""
 
588
            counter = 0
 
589
            if rc:
 
590
                if self.current_type != 'revisions' and self.key_count != 0:
 
591
                    # As we know the number of revisions now (in self.key_count)
 
592
                    # we can setup and use record_counter (rc).
 
593
                    if not rc.is_initialized():
 
594
                        rc.setup(self.key_count, self.key_count)
 
595
            for record in substream.read():
 
596
                if rc:
 
597
                    if rc.is_initialized() and counter == rc.STEP:
 
598
                        rc.increment(counter)
 
599
                        pb.update('Estimate', rc.current, rc.max)
 
600
                        counter = 0
 
601
                    if self.current_type == 'revisions':
 
602
                        # Total records is proportional to number of revs
 
603
                        # to fetch. With remote, we used self.key_count to
 
604
                        # track the number of revs. Once we have the revs
 
605
                        # counts in self.key_count, the progress bar changes
 
606
                        # from 'Estimating..' to 'Estimate' above.
 
607
                        self.key_count += 1
 
608
                        if counter == rc.STEP:
 
609
                            pb.update('Estimating..', self.key_count)
 
610
                            counter = 0
 
611
                counter += 1
 
612
                yield record
 
613
 
 
614
        self.seed_state()
 
615
        pb = ui.ui_factory.nested_progress_bar()
 
616
        rc = self._record_counter
 
617
        # Make and consume sub generators, one per substream type:
 
618
        while self.first_bytes is not None:
 
619
            substream = NetworkRecordStream(self.iter_substream_bytes())
 
620
            # after substream is fully consumed, self.current_type is set to
 
621
            # the next type, and self.first_bytes is set to the matching bytes.
 
622
            yield self.current_type, wrap_and_count(pb, rc, substream)
 
623
        if rc:
 
624
            pb.update('Done', rc.max, rc.max)
 
625
        pb.finished()
 
626
 
 
627
    def seed_state(self):
 
628
        """Prepare the _ByteStreamDecoder to decode from the pack stream."""
 
629
        # Set a single generator we can use to get data from the pack stream.
 
630
        self.iter_pack_records = self.iter_stream_decoder()
 
631
        # Seed the very first subiterator with content; after this each one
 
632
        # seeds the next.
 
633
        list(self.iter_substream_bytes())
 
634
 
 
635
 
 
636
def _byte_stream_to_stream(byte_stream, record_counter=None):
476
637
    """Convert a byte stream into a format and a stream.
477
638
 
478
639
    :param byte_stream: A bytes iterator, as output by _stream_to_byte_stream.
479
640
    :return: (RepositoryFormat, stream_generator)
480
641
    """
481
 
    stream_decoder = pack.ContainerPushParser()
482
 
    def record_stream():
483
 
        """Closure to return the substreams."""
484
 
        # May have fully parsed records already.
485
 
        for record in stream_decoder.read_pending_records():
486
 
            record_names, record_bytes = record
487
 
            record_name, = record_names
488
 
            substream_type = record_name[0]
489
 
            substream = NetworkRecordStream([record_bytes])
490
 
            yield substream_type, substream.read()
491
 
        for bytes in byte_stream:
492
 
            stream_decoder.accept_bytes(bytes)
493
 
            for record in stream_decoder.read_pending_records():
494
 
                record_names, record_bytes = record
495
 
                record_name, = record_names
496
 
                substream_type = record_name[0]
497
 
                substream = NetworkRecordStream([record_bytes])
498
 
                yield substream_type, substream.read()
 
642
    decoder = _ByteStreamDecoder(byte_stream, record_counter)
499
643
    for bytes in byte_stream:
500
 
        stream_decoder.accept_bytes(bytes)
501
 
        for record in stream_decoder.read_pending_records(max=1):
 
644
        decoder.stream_decoder.accept_bytes(bytes)
 
645
        for record in decoder.stream_decoder.read_pending_records(max=1):
502
646
            record_names, src_format_name = record
503
647
            src_format = network_format_registry.get(src_format_name)
504
 
            return src_format, record_stream()
 
648
            return src_format, decoder.record_stream()
505
649
 
506
650
 
507
651
class SmartServerRepositoryUnlock(SmartServerRepositoryRequest):
567
711
            temp.close()
568
712
 
569
713
    def _tarball_of_dir(self, dirname, compression, ofile):
 
714
        import tarfile
570
715
        filename = os.path.basename(ofile.name)
571
716
        tarball = tarfile.open(fileobj=ofile, name=filename,
572
717
            mode='w|' + compression)
650
795
            return SuccessfulSmartServerResponse(('ok', ))
651
796
 
652
797
 
 
798
class SmartServerRepositoryInsertStream_1_19(SmartServerRepositoryInsertStreamLocked):
 
799
    """Insert a record stream from a RemoteSink into a repository.
 
800
 
 
801
    Same as SmartServerRepositoryInsertStreamLocked, except:
 
802
     - the lock token argument is optional
 
803
     - servers that implement this verb accept 'inventory-delta' records in the
 
804
       stream.
 
805
 
 
806
    New in 1.19.
 
807
    """
 
808
 
 
809
    def do_repository_request(self, repository, resume_tokens, lock_token=None):
 
810
        """StreamSink.insert_stream for a remote repository."""
 
811
        SmartServerRepositoryInsertStreamLocked.do_repository_request(
 
812
            self, repository, resume_tokens, lock_token)
 
813
 
 
814
 
653
815
class SmartServerRepositoryInsertStream(SmartServerRepositoryInsertStreamLocked):
654
816
    """Insert a record stream from a RemoteSink into an unlocked repository.
655
817