From 8feb7cfe2d9a2e150bee30a03abf84b0da696ff6 Mon Sep 17 00:00:00 2001 From: ines Date: Wed, 4 Jul 2018 14:46:45 +0200 Subject: [PATCH] Remove model dependency from French lemmatizer tests --- spacy/tests/lang/fr/test_lemmatization.py | 21 ++++++++------------- 1 file changed, 8 insertions(+), 13 deletions(-) diff --git a/spacy/tests/lang/fr/test_lemmatization.py b/spacy/tests/lang/fr/test_lemmatization.py index 15da5b7d4..49ee83531 100644 --- a/spacy/tests/lang/fr/test_lemmatization.py +++ b/spacy/tests/lang/fr/test_lemmatization.py @@ -4,30 +4,25 @@ from __future__ import unicode_literals import pytest -@pytest.mark.models('fr') -def test_lemmatizer_verb(FR): - tokens = FR("Qu'est-ce que tu fais?") +def test_lemmatizer_verb(fr_tokenizer): + tokens = fr_tokenizer("Qu'est-ce que tu fais?") assert tokens[0].lemma_ == "que" assert tokens[1].lemma_ == "être" assert tokens[5].lemma_ == "faire" -@pytest.mark.models('fr') -@pytest.mark.xfail(reason="sont tagged as AUX") -def test_lemmatizer_noun_verb_2(FR): - tokens = FR("Les abaissements de température sont gênants.") +def test_lemmatizer_noun_verb_2(fr_tokenizer): + tokens = fr_tokenizer("Les abaissements de température sont gênants.") assert tokens[4].lemma_ == "être" -@pytest.mark.models('fr') @pytest.mark.xfail(reason="Costaricienne TAG is PROPN instead of NOUN and spacy don't lemmatize PROPN") -def test_lemmatizer_noun(FR): - tokens = FR("il y a des Costaricienne.") +def test_lemmatizer_noun(fr_tokenizer): + tokens = fr_tokenizer("il y a des Costaricienne.") assert tokens[4].lemma_ == "Costaricain" -@pytest.mark.models('fr') -def test_lemmatizer_noun_2(FR): - tokens = FR("Les abaissements de température sont gênants.") +def test_lemmatizer_noun_2(fr_tokenizer): + tokens = fr_tokenizer("Les abaissements de température sont gênants.") assert tokens[1].lemma_ == "abaissement" assert tokens[5].lemma_ == "gênant"