mirror of
https://github.com/explosion/spaCy.git
synced 2024-11-11 04:08:09 +03:00
Fix fixture scopes
This commit is contained in:
parent
6438428ce8
commit
f432bb4b48
|
@ -22,48 +22,48 @@ _models = {'en': ['en_core_web_sm', 'en_core_web_md'],
|
||||||
# only used for tests that require loading the models
|
# only used for tests that require loading the models
|
||||||
# in all other cases, use specific instances
|
# in all other cases, use specific instances
|
||||||
|
|
||||||
@pytest.fixture(params=_models['en'], scope="session")
|
@pytest.fixture(params=_models['en'], scope='session')
|
||||||
def EN(request):
|
def EN(request):
|
||||||
return load_test_model(request.param)
|
return load_test_model(request.param)
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture(params=_models['de'], scope="session")
|
@pytest.fixture(params=_models['de'], scope='session')
|
||||||
def DE(request):
|
def DE(request):
|
||||||
return load_test_model(request.param)
|
return load_test_model(request.param)
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture(params=_models['fr'], scope="session")
|
@pytest.fixture(params=_models['fr'], scope='session')
|
||||||
def FR(request):
|
def FR(request):
|
||||||
return load_test_model(request.param)
|
return load_test_model(request.param)
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture(params=_languages)
|
@pytest.fixture(params=_languages, scope='session')
|
||||||
def tokenizer(request):
|
def tokenizer(request):
|
||||||
lang = util.get_lang_class(request.param)
|
lang = util.get_lang_class(request.param)
|
||||||
return lang.Defaults.create_tokenizer()
|
return lang.Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def en_tokenizer():
|
def en_tokenizer():
|
||||||
return util.get_lang_class('en').Defaults.create_tokenizer()
|
return util.get_lang_class('en').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def en_vocab():
|
def en_vocab():
|
||||||
return util.get_lang_class('en').Defaults.create_vocab()
|
return util.get_lang_class('en').Defaults.create_vocab()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def en_parser():
|
def en_parser():
|
||||||
return util.get_lang_class('en').Defaults.create_parser()
|
return util.get_lang_class('en').Defaults.create_parser()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def es_tokenizer():
|
def es_tokenizer():
|
||||||
return util.get_lang_class('es').Defaults.create_tokenizer()
|
return util.get_lang_class('es').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def de_tokenizer():
|
def de_tokenizer():
|
||||||
return util.get_lang_class('de').Defaults.create_tokenizer()
|
return util.get_lang_class('de').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
@ -73,31 +73,31 @@ def fr_tokenizer():
|
||||||
return util.get_lang_class('fr').Defaults.create_tokenizer()
|
return util.get_lang_class('fr').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def hu_tokenizer():
|
def hu_tokenizer():
|
||||||
return util.get_lang_class('hu').Defaults.create_tokenizer()
|
return util.get_lang_class('hu').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def fi_tokenizer():
|
def fi_tokenizer():
|
||||||
return util.get_lang_class('fi').Defaults.create_tokenizer()
|
return util.get_lang_class('fi').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def sv_tokenizer():
|
def sv_tokenizer():
|
||||||
return util.get_lang_class('sv').Defaults.create_tokenizer()
|
return util.get_lang_class('sv').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def bn_tokenizer():
|
def bn_tokenizer():
|
||||||
return util.get_lang_class('bn').Defaults.create_tokenizer()
|
return util.get_lang_class('bn').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def he_tokenizer():
|
def he_tokenizer():
|
||||||
return util.get_lang_class('he').Defaults.create_tokenizer()
|
return util.get_lang_class('he').Defaults.create_tokenizer()
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def nb_tokenizer():
|
def nb_tokenizer():
|
||||||
return util.get_lang_class('nb').Defaults.create_tokenizer()
|
return util.get_lang_class('nb').Defaults.create_tokenizer()
|
||||||
|
|
||||||
|
@ -107,7 +107,7 @@ def stringstore():
|
||||||
return StringStore()
|
return StringStore()
|
||||||
|
|
||||||
|
|
||||||
@pytest.fixture
|
@pytest.fixture(scope='module')
|
||||||
def en_entityrecognizer():
|
def en_entityrecognizer():
|
||||||
return util.get_lang_class('en').Defaults.create_entity()
|
return util.get_lang_class('en').Defaults.create_entity()
|
||||||
|
|
||||||
|
|
Loading…
Reference in New Issue
Block a user