~bzr-pqm/bzr/bzr.dev

« back to all changes in this revision

Viewing changes to doc/developers/testing.txt

  • Committer: Robert Collins
  • Date: 2010-05-20 02:57:52 UTC
  • mfrom: (4797.43.11 2.1)
  • mto: This revision was merged to the branch mainline in revision 5243.
  • Revision ID: robertc@robertcollins.net-20100520025752-dbfi4kx7y4ivtiff
Merge up from 2.0/2.1:

* Support Pyrex 0.9.9, required changing how we handle exceptions in Pyrex.
  (John Arbash Meinel, #582656)

* ``bzr clean-tree`` should not delete nested bzrdirs. Required for proper
  support of bzr-externals and scmproj plugins.
  (Alexander Belchenko, bug #572098)

* Reduce peak memory by one copy of compressed text.
  (John Arbash Meinel, #566940)

* Support Pyrex 0.9.9, required changing how we handle exceptions in Pyrex.
  (John Arbash Meinel, #582656)

Show diffs side-by-side

added added

removed removed

Lines of Context:
193
193
<http://babune.ladeuil.net:24842/>.  (Babune = Bazaar Buildbot Network.)
194
194
 
195
195
 
196
 
Running tests in parallel
197
 
-------------------------
198
 
 
199
 
Bazaar can use subunit to spawn multiple test processes.  There is
200
 
slightly more chance you will hit ordering or timing-dependent bugs but
201
 
it's much faster::
202
 
 
203
 
  $ ./bzr selftest --parallel=fork
204
 
 
205
 
Note that you will need the Subunit library
206
 
<https://launchpad.net/subunit/> to use this, which is in
207
 
``python-subunit`` on Ubuntu.
208
 
 
209
 
 
210
 
Running tests from a ramdisk
211
 
----------------------------
212
 
 
213
 
The tests create and delete a lot of temporary files.  In some cases you
214
 
can make the test suite run much faster by running it on a ramdisk.  For
215
 
example::
216
 
 
217
 
  $ sudo mkdir /ram
218
 
  $ sudo mount -t tmpfs none /ram
219
 
  $ TMPDIR=/ram ./bzr selftest ...
220
 
 
221
 
You could also change ``/tmp`` in ``/etc/fstab`` to have type ``tmpfs``,
222
 
if you don't mind possibly losing other files in there when the machine
223
 
restarts.  Add this line (if there is none for ``/tmp`` already)::
224
 
 
225
 
  none           /tmp            tmpfs  defaults        0       0
226
 
 
227
 
With a 6-core machine and ``--parallel=fork`` using a tmpfs doubles the
228
 
test execution speed.
229
 
 
230
 
 
231
196
Writing Tests
232
197
=============
233
198
 
329
294
We make selective use of doctests__.  In general they should provide
330
295
*examples* within the API documentation which can incidentally be tested.  We
331
296
don't try to test every important case using doctests |--| regular Python
332
 
tests are generally a better solution.  That is, we just use doctests to make
333
 
our documentation testable, rather than as a way to make tests. Be aware that
334
 
doctests are not as well isolated as the unit tests, if you need more
335
 
isolation, you're likely want to write unit tests anyway if only to get a
336
 
better control of the test environment.
 
297
tests are generally a better solution.  That is, we just use doctests to
 
298
make our documentation testable, rather than as a way to make tests.
337
299
 
338
300
Most of these are in ``bzrlib/doc/api``.  More additions are welcome.
339
301
 
343
305
Shell-like tests
344
306
----------------
345
307
 
346
 
``bzrlib/tests/script.py`` allows users to write tests in a syntax very
347
 
close to a shell session, using a restricted and limited set of commands
348
 
that should be enough to mimic most of the behaviours.
 
308
``bzrlib/tests/script.py`` allows users to write tests in a syntax very close to a shell session,
 
309
using a restricted and limited set of commands that should be enough to mimic
 
310
most of the behaviours.
349
311
 
350
312
A script is a set of commands, each command is composed of:
351
313
 
370
332
The execution stops as soon as an expected output or an expected error is not
371
333
matched.
372
334
 
373
 
If output occurs and no output is expected, the execution stops and the
374
 
test fails.  If unexpected output occurs on the standard error, then
375
 
execution stops and the test fails.
 
335
When no output is specified, any ouput from the command is accepted
 
336
and execution continue.
376
337
 
377
338
If an error occurs and no expected error is specified, the execution stops.
378
339
 
392
353
If you want the command to succeed for any output, just use::
393
354
 
394
355
  $ bzr add file
395
 
  ...
396
 
  2>...
397
 
 
398
 
or use the ``--quiet`` option::
399
 
 
400
 
  $ bzr add -q file
401
356
 
402
357
The following will stop with an error::
403
358
 
437
392
 
438
393
  $ cat file
439
394
 
440
 
You can run files containing shell-like scripts with::
441
 
 
442
 
  $ bzr test-script <script>
443
 
 
444
 
where ``<script>`` is the path to the file containing the shell-like script.
445
 
 
446
395
The actual use of ScriptRunner within a TestCase looks something like
447
396
this::
448
397
 
449
 
    from bzrlib.tests import script
450
 
 
451
 
    def test_unshelve_keep(self):
452
 
        # some setup here
453
 
        script.run_script(self, '''
454
 
            $ bzr add -q file
455
 
            $ bzr shelve -q --all -m Foo
456
 
            $ bzr shelve --list
457
 
            1: Foo
458
 
            $ bzr unshelve -q --keep
459
 
            $ bzr shelve --list
460
 
            1: Foo
461
 
            $ cat file
462
 
            contents of file
463
 
            ''')
464
 
 
465
 
You can also test commands that read user interaction::
466
 
 
467
 
    def test_confirm_action(self):
468
 
        """You can write tests that demonstrate user confirmation"""
469
 
        commands.builtin_command_registry.register(cmd_test_confirm)
470
 
        self.addCleanup(commands.builtin_command_registry.remove, 'test-confirm')
471
 
        self.run_script("""
472
 
            $ bzr test-confirm
473
 
            2>Really do it? [y/n]: 
474
 
            <yes
475
 
            yes
476
 
            """)
477
 
 
478
 
To avoid having to specify "-q" for all commands whose output is
479
 
irrelevant, the run_script() method may be passed the keyword argument
480
 
``null_output_matches_anything=True``.  For example::
481
 
 
482
 
    def test_ignoring_null_output(self):
483
 
        self.run_script("""
484
 
            $ bzr init
485
 
            $ bzr ci -m 'first revision' --unchanged
486
 
            $ bzr log --line
487
 
            1: ...
488
 
            """, null_output_matches_anything=True)
489
 
           
 
398
        def test_unshelve_keep(self):
 
399
                # some setup here
 
400
                sr = ScriptRunner()
 
401
                sr.run_script(self, '''
 
402
        $ bzr add file
 
403
        $ bzr shelve --all -m Foo
 
404
        $ bzr shelve --list
 
405
        1: Foo
 
406
        $ bzr unshelve --keep
 
407
        $ bzr shelve --list
 
408
        1: Foo
 
409
        $ cat file
 
410
        contents of file
 
411
        ''')
 
412
 
490
413
 
491
414
Import tariff tests
492
415
-------------------
507
430
  dependencies and only needed for particular cases.  If they're loaded in
508
431
  other cases then bzr may break for people who don't have those modules.
509
432
  
510
 
`test_import_tariff` allows us to check that removal of imports doesn't
 
433
`test_import_tarrif` allows us to check that removal of imports doesn't
511
434
regress.
512
435
 
513
436
This is done by running the command in a subprocess with
740
663
        _test_needs_features = [features.apport]
741
664
 
742
665
 
743
 
Testing deprecated code
744
 
-----------------------
745
 
 
746
 
When code is deprecated, it is still supported for some length of time,
747
 
usually until the next major version. The ``applyDeprecated`` helper
748
 
wraps calls to deprecated code to verify that it is correctly issuing the
749
 
deprecation warning, and also prevents the warnings from being printed
750
 
during test runs.
751
 
 
752
 
Typically patches that apply the ``@deprecated_function`` decorator should
753
 
update the accompanying tests to use the ``applyDeprecated`` wrapper.
754
 
 
755
 
``applyDeprecated`` is defined in ``bzrlib.tests.TestCase``. See the API
756
 
docs for more details.
757
 
 
758
 
 
759
666
Testing exceptions and errors
760
667
-----------------------------
761
668
 
834
741
whether a test should be added for that particular implementation,
835
742
or for all implementations of the interface.
836
743
 
 
744
The multiplication of tests for different implementations is normally
 
745
accomplished by overriding the ``load_tests`` function used to load tests
 
746
from a module.  This function typically loads all the tests, then applies
 
747
a TestProviderAdapter to them, which generates a longer suite containing
 
748
all the test variations.
 
749
 
837
750
See also `Per-implementation tests`_ (above).
838
751
 
839
752
 
840
 
Test scenarios and variations
841
 
-----------------------------
 
753
Test scenarios
 
754
--------------
842
755
 
843
756
Some utilities are provided for generating variations of tests.  This can
844
757
be used for per-implementation tests, or other cases where the same test
849
762
values to which the test should be applied.  The test suite should then
850
763
also provide a list of scenarios in which to run the tests.
851
764
 
852
 
A single *scenario* is defined by a `(name, parameter_dict)` tuple.  The
853
 
short string name is combined with the name of the test method to form the
854
 
test instance name.  The parameter dict is merged into the instance's
855
 
attributes.
856
 
 
857
 
For example::
858
 
 
859
 
    load_tests = load_tests_apply_scenarios
860
 
 
861
 
    class TestCheckout(TestCase):
862
 
 
863
 
        scenarios = multiply_scenarios(
864
 
            VaryByRepositoryFormat(), 
865
 
            VaryByTreeFormat(),
866
 
            )
867
 
 
868
 
The `load_tests` declaration or definition should be near the top of the
869
 
file so its effect can be seen.
 
765
Typically ``multiply_tests_from_modules`` should be called from the test
 
766
module's ``load_tests`` function.
870
767
 
871
768
 
872
769
Test support
972
869
Please see bzrlib.treebuilder for more details.
973
870
 
974
871
 
975
 
Temporarily changing state
976
 
~~~~~~~~~~~~~~~~~~~~~~~~~~
977
 
 
978
 
If your test needs to temporarily mutate some global state, and you need
979
 
it restored at the end, you can say for example::
980
 
 
981
 
    self.overrideAttr(osutils, '_cached_user_encoding', 'latin-1')
982
 
 
983
 
Temporarily changing environment variables
984
 
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
985
 
 
986
 
If yout test needs to temporarily change some environment variable value
987
 
(which generally means you want it restored at the end), you can use::
988
 
 
989
 
    self.overrideEnv('BZR_ENV_VAR', 'new_value')
990
 
 
991
 
If you want to remove a variable from the environment, you should use the
992
 
special ``None`` value::
993
 
 
994
 
    self.overrideEnv('PATH', None)
995
 
 
996
 
If you add a new feature which depends on a new environment variable, make
997
 
sure it behaves properly when this variable is not defined (if applicable) and
998
 
if you need to enforce a specific default value, check the
999
 
``TestCase._cleanEnvironment`` in ``bzrlib.tests.__init__.py`` which defines a
1000
 
proper set of values for all tests.
1001
 
 
1002
 
Cleaning up
1003
 
~~~~~~~~~~~
1004
 
 
1005
 
Our base ``TestCase`` class provides an ``addCleanup`` method, which
1006
 
should be used instead of ``tearDown``.  All the cleanups are run when the
1007
 
test finishes, regardless of whether it passes or fails.  If one cleanup
1008
 
fails, later cleanups are still run.
1009
 
 
1010
 
(The same facility is available outside of tests through
1011
 
``bzrlib.cleanup``.)
1012
 
 
1013
 
 
1014
 
Manual testing
1015
 
==============
1016
 
 
1017
 
Generally we prefer automated testing but sometimes a manual test is the
1018
 
right thing, especially for performance tests that want to measure elapsed
1019
 
time rather than effort.
1020
 
 
1021
 
Simulating slow networks
1022
 
------------------------
1023
 
 
1024
 
To get realistically slow network performance for manually measuring
1025
 
performance, we can simulate 500ms latency (thus 1000ms round trips)::
1026
 
 
1027
 
  $ sudo tc qdisc add dev lo root netem delay 500ms
1028
 
 
1029
 
Normal system behaviour is restored with ::
1030
 
 
1031
 
  $ sudo tc qdisc del dev lo root
1032
 
 
1033
 
A more precise version that only filters traffic to port 4155 is::
1034
 
 
1035
 
    tc qdisc add dev lo root handle 1: prio
1036
 
    tc qdisc add dev lo parent 1:3 handle 30: netem delay 500ms 
1037
 
    tc qdisc add dev lo parent 30:1 handle 40: prio
1038
 
    tc filter add dev lo protocol ip parent 1:0 prio 3 u32 match ip dport 4155 0xffff flowid 1:3 handle 800::800
1039
 
    tc filter add dev lo protocol ip parent 1:0 prio 3 u32 match ip sport 4155 0xffff flowid 1:3 handle 800::801
1040
 
 
1041
 
and to remove this::
1042
 
 
1043
 
    tc filter del dev lo protocol ip parent 1: pref 3 u32
1044
 
    tc qdisc del dev lo root handle 1:
1045
 
 
1046
 
You can use similar code to add additional delay to a real network
1047
 
interface, perhaps only when talking to a particular server or pointing at
1048
 
a VM.  For more information see <http://lartc.org/>.
1049
 
 
1050
 
 
1051
872
.. |--| unicode:: U+2014
1052
873
 
1053
874
..
1054
 
   vim: ft=rst tw=74 ai et sw=4
 
875
   vim: ft=rst tw=74 ai