~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to doc/developers/directory-fingerprints.txt

  • Committer: Robert Collins
  • Date: 2006-03-28 14:29:13 UTC
  • mto: (1626.2.1 integration)
  • mto: This revision was merged to the branch mainline in revision 1628.
  • Revision ID: robertc@robertcollins.net-20060328142913-ac5afb37075719c6
Convert log to use the new tsort.merge_sort routine.

Show diffs side-by-side

added added

removed removed

Lines of Context:
1
 
Directory fingerprints
2
 
======================
3
 
 
4
 
.. contents:: :local:
5
 
 
6
 
Introduction
7
 
------------
8
 
 
9
 
The basic idea is that for a directory in a tree (committed or otherwise), we
10
 
will have a single scalar value.  If these values are the same, the contents of
11
 
the subtree under that directory are necessarily the same.
12
 
 
13
 
This is intended to help with these use cases, by allowing them to quickly skip
14
 
over directories with no relevant changes, and to detect when a directory has
15
 
changed:
16
 
 
17
 
* diff/status (both local trees and historical trees)
18
 
* merge
19
 
* log -v
20
 
* log on a directory
21
 
* commit
22
 
 
23
 
 
24
 
Use-case oriented APIs
25
 
----------------------
26
 
 
27
 
Most of this will be hidden behind the Tree interface.  This should cover
28
 
``log -v``, ``diff``, ``status``, ``merge`` (and implicit merge during
29
 
push, pull, update)::
30
 
 
31
 
  tree.iter_changes(other_tree)
32
 
  tree.get_file_lines(file_id)   # and get_file, get_file_text
33
 
 
34
 
``commit``
35
 
~~~~~~~~~~
36
 
 
37
 
Commit is similar to ``iter_changes``, but different because it needs to
38
 
compare to all the trees.  Commit currently needs to compare the working
39
 
tree to all the parent trees, which is needed to update the last_modified
40
 
field and would be unnecessary if we removed that field (for both files
41
 
and directories) and did not store per-file graphs.
42
 
This would potentially speed up commit after merge.
43
 
 
44
 
Verbose commit also displays the merged files, which does
45
 
require looking at all parents of files that aren't identical
46
 
to the left-hand parent.
47
 
 
48
 
``log``
49
 
~~~~~~~
50
 
 
51
 
Log is interested in two operations: finding the revisions that touched
52
 
anything inside a directory, and getting the differences between
53
 
consecutive revisions (possibly filtered to a directory)::
54
 
 
55
 
  find_touching_revisions(branch, file_id) # should be on Branch?
56
 
 
57
 
Log shows the revisions that merged a change.  At the moment that is not
58
 
included in the per-file graph, and it would also not be visible if the
59
 
directories were hashed.
60
 
 
61
 
 
62
 
 
63
 
 
64
 
Open questions
65
 
--------------
66
 
 
67
 
* Is this a good idea at all?
68
 
 
69
 
  If changing a file changes all its parent directories up to the root it
70
 
  will cause more churn on commit.  (We currently update the all-in-one
71
 
  inventory, but only have to update one line of it.)
72
 
 
73
 
  Every time a child changes, we'll get a new node in the per-directory
74
 
  graph.  This is generally useful: it allows bzr log to do the default
75
 
  mode easily, which is to show all changes under that directory.  The
76
 
  less common operation, ``log --no-recursive`` is still possible by
77
 
  looking only at when the directory itself was renamed, added or removed.
78
 
  (That is what the directory graph describes in bzr 0.18 and it is rarely
79
 
  useful.)
80
 
 
81
 
 
82
 
* Should these be hashes or revision ids or something else?
83
 
 
84
 
  Pros of using hashes: hashes are easy to generate by a foreign branch
85
 
  plugin (e.g. bzr-svn).  They don't need to get recursive last-changed
86
 
  from the foreign branch, or to walk back through history.  They just
87
 
  need the relevant directory state, which any system we support can
88
 
  answer.
89
 
 
90
 
  Hashes converge: if you modify and then modify back, you get the same
91
 
  hash.  This is a pro because you can detect that there were ultimately
92
 
  no significant changes.  And also a con: you cannot use these hashes to form a graph
93
 
  because they get cycles.
94
 
 
95
 
 
96
 
* Are the values unique across the whole tree, or only when comparing
97
 
  different versions of the same object?
98
 
 
99
 
  If we use last-changed revisions, then they will be very not unique
100
 
  across the whole tree.  To look up the contents, you must pass a
101
 
  composite key like ``(file_id, last_changed)``.
102
 
 
103
 
  If we use hashes they will be same only when the two contain the same
104
 
  contents.  Since we say that file ids must be unique, this
105
 
  means they will match if and only if they are empty.  We might relax
106
 
  that in future when we introduce path tokens.
107
 
 
108
 
 
109
 
* Is it reasonable to assume hashes won't collide?
110
 
 
111
 
  The odds of SHA-1 hashes colliding "accidentally" are vanishingly small.
112
 
 
113
 
  It is possible that a `preimage attack`_ against SHA-1 may be discovered
114
 
  in the future.  Since we're not proposing in this document to make
115
 
  revision-ids be SHA-1, if SHA-1 was obsoleted then we could rewrite the
116
 
  contents of revisions but would not need to rename revisions.  So the
117
 
  impact of such a migration should just be a format upgrade, and a
118
 
  recommendation (but not requirement) to re-sign revisions.
119
 
 
120
 
.. _`preimage attack`: http://tools.ietf.org/html/rfc4270
121
 
 
122
 
 
123
 
* If we use hashes, should it be the hash of the
124
 
  representation stored for a directory?
125
 
 
126
 
  In other words, should we pun the representation of the directory with
127
 
  the form used for validation.
128
 
 
129
 
  If there's some data stored that's not in the hash it's problematic.
130
 
  The hash in no longer (effectively) uniquely identifies the
131
 
  representation.
132
 
 
133
 
  It is desirable that we have a hash that covers all data, to guard
134
 
  against bugs, transmission errors, or users trying to hand-hack files.
135
 
  Since we need one hash of everything in the tree, perhaps we should also
136
 
  use it for the fingerprint.
137
 
 
138
 
  Testaments explicitly separate the form used for hashing/signing from
139
 
  the form used for storage.  This allows us to change the storage form
140
 
  without breaking existing GPG signatures.  The downside is that we need
141
 
  to do work O(tree) to make a testament, and this slows down signing,
142
 
  verifying and generating bundles.  It also means that there is some
143
 
  stored data which is not protected by the signature: this data is less
144
 
  important, but corruption of it would still cause problems.
145
 
  We have encountered some specific problems with disagreement between
146
 
  inventories as to the last-change of files, which is currently unsigned.
147
 
  These problems can be introduced by ghosts.
148
 
 
149
 
  If we hash the representation, there is still a way to support old
150
 
  signatures, assuming that we never discard irreplaceable information.
151
 
  The signature should say what format it applies to (similar to
152
 
  testaments), and we could transform in memory the tree back to that
153
 
  format.
154
 
 
155
 
 
156
 
* Is hashing substantially slower than other possible approaches?
157
 
 
158
 
  We already hash all the plain files.  Except in unusual cases, the
159
 
  directory metadata will be substantially smaller: perhaps 200:1 as a
160
 
  rule of thumb.
161
 
 
162
 
  When building a bzr tree, we spend on the order of 100ms hashing all the
163
 
  source lines to validate them (about 13MB of source).
164
 
 
165
 
 
166
 
* Can you calculate one from a directory in the working tree?  Without a basis?
167
 
 
168
 
  This seems possible with either hashes or revision ids.
169
 
 
170
 
  Using last_changed means that calculating the fingerprint from a working
171
 
  tree necessarily requires reading the inventory for the basis
172
 
  revision, so that we know when unchanged files were last changed.  With
173
 
  hashes we could calculate them using the working tree information alone.
174
 
  It's true that we will often then compare that information to the basis
175
 
  tree (e.g. for simple ``bzr diff``), but we may only have to compare at
176
 
  the top level, and sometimes we're comparing to a
177
 
  different tree.  This also touches on whether we should store
178
 
  ``last_modified`` for files, rather than directories.
179
 
 
180
 
  For revision ids we need to assign a value to use for uncommitted
181
 
  changes, but see below about the problems of this.
182
 
 
183
 
  In some ways it would be elegant to say (hypothetical)::
184
 
 
185
 
    wt.get_root().get_last_modified() == branch.get_last_revision()
186
 
 
187
 
  to know that nothing was changed; but this may not be much better than
188
 
  ::
189
 
 
190
 
    wt.get_root().get_hash() ==
191
 
      branch.get_basis().get_root().get_hash()
192
 
 
193
 
 
194
 
* Can you use this to compare (directories from) two working trees?
195
 
 
196
 
  If you can generate it from a working tree, you should be able to use it
197
 
  to compare them.
198
 
 
199
 
  This does rule out for example using ``last_modified=None`` or
200
 
  ``='current:'`` to mean "changed in the working tree."  Even if this is
201
 
  not supported there seems some risk that we would get the same
202
 
  fingerprint for trees that are actually different.
203
 
 
204
 
  We could assign a
205
 
  hypothetical revision id to the tree for uncommitted files.  In that
206
 
  case there is some risk that the not-yet-committed id would become
207
 
  visible or committed.
208
 
 
209
 
 
210
 
* Can we use an "approximate basis"?
211
 
 
212
 
  When using radix trees, you may need context beyond the specific
213
 
  directory being compared.
214
 
 
215
 
 
216
 
* Can you get the fingerprint of parents directories with only selected file ids
217
 
  taken from the working tree?
218
 
 
219
 
  With hashes, we'd want to carry through the unselected files and
220
 
  directories from the values they had in the parent revision.
221
 
 
222
 
 
223
 
* Are unbalanced trees a significant problem?  Trees can be unbalanced by having
224
 
  many directories (deep or wide), or many files per directory.
225
 
 
226
 
  For small trees like bzr, 744 of 874 are in the bzrlib subtree.  In
227
 
  general, larger trees are more balanced, because humans, editors and
228
 
  other tools have trouble managing very unbalanced trees.  But there are
229
 
  exceptions: Aaron has one tree with 20,000 generated but versioned
230
 
  entries in one directory.
231
 
 
232
 
 
233
 
* Should we use a radix tree approach where fingerprints are calculated on a synthetic
234
 
  tree that is by definition balanced, even when the actual tree is unbalanced?
235
 
 
236
 
 
237
 
* What are the specific advantages of using recursive-last-modified rather than
238
 
  hashes?
239
 
 
240
 
  It may be a smaller step change.
241
 
 
242
 
  It's a bidirectional link: given a directory text identifier ``(file_id,
243
 
  last_changed)`` you can look up the revision that last changed it.
244
 
 
245
 
  From the preceding, even without the per-file graph you can skip through
246
 
  the history of this file: go to the last-changed revision, look at all
247
 
  its parents and repeat.
248
 
 
249
 
 
250
 
* Is it a smaller change to use recursive-last-modified on directories?
251
 
 
252
 
  Probably yes:
253
 
 
254
 
  1. We can just put it into the current inventory format without changing
255
 
     anything else.
256
 
 
257
 
     By contrast to use a hash we'd have to either split up the inventory
258
 
     as stored, or change the sort order for the inventory, or synthesize
259
 
     per-directory inventories in memory for hashing.
260
 
 
261
 
     However, xml is somewhat redundant and slow to parse/generate; and
262
 
     reading the whole thing before comparing some sections is only a
263
 
     partial win.  It may be a smaller change but we'd be preserving
264
 
     things we want to change.
265
 
 
266
 
  1. At present we rarely hash storage representations, only file texts.
267
 
     This is not a large technical change, but it is a conceptual change.
268
 
     This has some consequences for how we can upgrade it in future: all
269
 
     the changed directories need to be rewritten up to the revision level.
270
 
 
271
 
  1. If we address directories by hash we need hash-addressed
272
 
     storage.
273
 
 
274
 
  1. If we address directories by hash then for consistency we'd probably
275
 
     (not necessarily) want to address file texts by hash.
276
 
 
277
 
  1. The per-file graph can't be indexed by hash because they can converge, so we
278
 
     need to either rework or dispose of the per-file graph.
279
 
 
280
 
 
281
 
* Any possibilities for avoiding hashes recurring?
282
 
 
283
 
  1. Hash along with an identification of the parents (as in hg).  Then you
284
 
     can't convert a tree without all its basis trees, and there is still
285
 
     convergence when the same merge is done by two people, and you can't
286
 
     create it directly from the working tree.
287
 
 
288
 
  1. Include last-modified revision id in the hash.
289
 
 
290
 
  1. Index by ``(revision, hash)`` or vice versa.
291
 
 
292
 
  1. Store a per-file graph and allow it to have repeated keys.  The graph
293
 
     would tell you about all the parent texts ever seen; you would need
294
 
     to use revision graph information to resolve ambiguities.
295
 
 
296
 
 
297
 
* What are the specific disadvantages of using recursive-last-modified rather than
298
 
  hashes?
299
 
 
300
 
  To calculate the last-changed revision, given the last-changed
301
 
  information of the contained files, you need to look at the revision
302
 
  graph.  They're not enough because you need to know the relations
303
 
  between the mentioned revisions.  In a merge it's possible the correct
304
 
  directory last-modified will not be the same as that of any of the files
305
 
  within it.  This can also happen when a file is removed (deleted or
306
 
  renamed) from a directory.
307
 
 
308
 
 
309
 
* Should we split up storage of the inventories?
310
 
 
311
 
  This is not quite the same but connected.
312
 
 
313
 
 
314
 
* How does this relate to per-file/per-directory hashes?
315
 
 
316
 
  If the version of a file or directory is identified by a hash, we can't
317
 
  use that to point into a per-file graph.  We can have a graph indexed by
318
 
  ``(file_id, hash, revision_id)``.  The last-modified could be stored as
319
 
  part of this graph.
320
 
 
321
 
  The graph would no longer be core data; it could be always present but
322
 
  might be rebuilt.  Treating it as non-core data may make some changes
323
 
  like shallow branches easier?
324
 
 
325
 
 
326
 
* How do you ask a tree for a given text?
327
 
 
328
 
  Right now we say ::
329
 
 
330
 
    revision_tree.get_file_lines(file_id)
331
 
 
332
 
  so the choice of storage is hidden behind the revision tree: it could be
333
 
  accessed by ``(file_id, last_changed)`` or by hash or otherwise.
334
 
 
335
 
  At the moment the Repository exports a friend api to RevisionTree,
336
 
  currently usually talking in VersionedFiles.
337
 
 
338
 
  We probably wouldn't want Repository to expose a ``get_text_for_sha1()``
339
 
  interface because that would be very difficult to support on old
340
 
  repositories or on foreign branches.
341
 
 
342
 
 
343
 
Conclusions
344
 
-----------
345
 
 
346
 
 
347
 
Design changes
348
 
--------------
349
 
 
350
 
 
351
 
 
352
 
 
353
 
API changes
354
 
-----------
355
 
 
356
 
 
357
 
..
358
 
  vim: filetype=rst textwidth=78 expandtab spelllang=en spell
359