~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to bzrlib/remotebranch.py

  • Committer: Aaron Bentley
  • Date: 2005-08-11 19:06:02 UTC
  • mto: (1092.1.41) (1185.3.4) (974.1.47)
  • mto: This revision was merged to the branch mainline in revision 1110.
  • Revision ID: abentley@panoramicfeedback.com-20050811190602-12035bb1621de724
Avoided unnecessary temp files

Show diffs side-by-side

added added

removed removed

Lines of Context:
 
1
#! /usr/bin/env python
 
2
 
1
3
# Copyright (C) 2005 Canonical Ltd
2
4
 
3
5
# This program is free software; you can redistribute it and/or modify
24
26
 
25
27
import gzip
26
28
from cStringIO import StringIO
27
 
import os
28
29
import urllib2
29
 
import urlparse
30
 
 
31
 
from bzrlib.errors import BzrError, BzrCheckError
32
 
from bzrlib.branch import Branch, BZR_BRANCH_FORMAT
33
 
from bzrlib.trace import mutter
34
 
from bzrlib.xml import serializer_v4
35
 
 
36
 
 
37
 
ENABLE_URLGRABBER = False
38
 
 
39
 
from bzrlib.errors import BzrError, NoSuchRevision
40
 
 
41
 
class GetFailed(BzrError):
42
 
    def __init__(self, url, status):
43
 
        BzrError.__init__(self, "Get %s failed with status %s" % (url, status))
44
 
        self.url = url
45
 
        self.status = status
 
30
 
 
31
from errors import BzrError, BzrCheckError
 
32
from branch import Branch, BZR_BRANCH_FORMAT
 
33
from trace import mutter
 
34
 
 
35
# velocitynet.com.au transparently proxies connections and thereby
 
36
# breaks keep-alive -- sucks!
 
37
 
 
38
 
 
39
ENABLE_URLGRABBER = True
 
40
 
46
41
 
47
42
if ENABLE_URLGRABBER:
48
 
    import util.urlgrabber
49
 
    import util.urlgrabber.keepalive
50
 
    util.urlgrabber.keepalive.DEBUG = 0
 
43
    import urlgrabber
 
44
    import urlgrabber.keepalive
 
45
    urlgrabber.keepalive.DEBUG = 0
51
46
    def get_url(path, compressed=False):
52
47
        try:
53
48
            url = path
54
49
            if compressed:
55
50
                url += '.gz'
56
51
            mutter("grab url %s" % url)
57
 
            url_f = util.urlgrabber.urlopen(url, keepalive=1, close_connection=0)
58
 
            if url_f.status != 200:
59
 
                raise GetFailed(url, url_f.status)
 
52
            url_f = urlgrabber.urlopen(url, keepalive=1, close_connection=0)
60
53
            if not compressed:
61
54
                return url_f
62
55
            else:
82
75
    orig_url = url
83
76
    while True:
84
77
        try:
85
 
            fmt_url = url + '/.bzr/branch-format'
86
 
            ff = get_url(fmt_url)
 
78
            ff = get_url(url + '/.bzr/branch-format')
 
79
 
87
80
            fmt = ff.read()
88
81
            ff.close()
89
82
 
96
89
        except urllib2.URLError:
97
90
            pass
98
91
 
99
 
        scheme, host, path = list(urlparse.urlparse(url))[:3]
100
 
        # discard params, query, fragment
101
 
        
102
 
        # strip off one component of the path component
103
 
        idx = path.rfind('/')
104
 
        if idx == -1 or path == '/':
105
 
            raise BzrError('no branch root found for URL %s'
106
 
                           ' or enclosing directories'
107
 
                           % orig_url)
108
 
        path = path[:idx]
109
 
        url = urlparse.urlunparse((scheme, host, path, '', '', ''))
 
92
        try:
 
93
            idx = url.rindex('/')
 
94
        except ValueError:
 
95
            raise BzrError('no branch root found for URL %s' % orig_url)
 
96
 
 
97
        url = url[:idx]        
110
98
        
111
99
 
112
100
 
114
102
    def __init__(self, baseurl, find_root=True):
115
103
        """Create new proxy for a remote branch."""
116
104
        if find_root:
117
 
            self.base = _find_remote_root(baseurl)
 
105
            self.baseurl = _find_remote_root(baseurl)
118
106
        else:
119
 
            self.base = baseurl
 
107
            self.baseurl = baseurl
120
108
            self._check_format()
121
109
 
122
110
        self.inventory_store = RemoteStore(baseurl + '/.bzr/inventory-store/')
132
120
    def controlfile(self, filename, mode):
133
121
        if mode not in ('rb', 'rt', 'r'):
134
122
            raise BzrError("file mode %r not supported for remote branches" % mode)
135
 
        return get_url(self.base + '/.bzr/' + filename, False)
 
123
        return get_url(self.baseurl + '/.bzr/' + filename, False)
136
124
 
137
125
 
138
126
    def lock_read(self):
142
130
    def lock_write(self):
143
131
        from errors import LockError
144
132
        raise LockError("write lock not supported for remote branch %s"
145
 
                        % self.base)
 
133
                        % self.baseurl)
146
134
 
147
135
    def unlock(self):
148
136
        pass
149
137
    
150
138
 
151
139
    def relpath(self, path):
152
 
        if not path.startswith(self.base):
 
140
        if not path.startswith(self.baseurl):
153
141
            raise BzrError('path %r is not under base URL %r'
154
 
                           % (path, self.base))
155
 
        pl = len(self.base)
 
142
                           % (path, self.baseurl))
 
143
        pl = len(self.baseurl)
156
144
        return path[pl:].lstrip('/')
157
145
 
158
146
 
159
147
    def get_revision(self, revision_id):
160
 
        try:
161
 
            revf = self.revision_store[revision_id]
162
 
        except KeyError:
163
 
            raise NoSuchRevision(self, revision_id)
164
 
        r = serializer_v4.read_revision(revf)
 
148
        from bzrlib.revision import Revision
 
149
        from bzrlib.xml import unpack_xml
 
150
        revf = self.revision_store[revision_id]
 
151
        r = unpack_xml(Revision, revf)
165
152
        if r.revision_id != revision_id:
166
153
            raise BzrCheckError('revision stored as {%s} actually contains {%s}'
167
154
                                % (revision_id, r.revision_id))
180
167
        
181
168
    def __getitem__(self, fileid):
182
169
        p = self._path(fileid)
183
 
        try:
184
 
            return get_url(p, compressed=True)
185
 
        except urllib2.URLError:
186
 
            raise KeyError(fileid)
 
170
        return get_url(p, compressed=True)
187
171
    
188
172
 
189
173