diff --git a/spacy/tests/lang/fr/test_lemmatization.py b/spacy/tests/lang/fr/test_lemmatization.py index 15da5b7d4..49ee83531 100644 --- a/spacy/tests/lang/fr/test_lemmatization.py +++ b/spacy/tests/lang/fr/test_lemmatization.py @@ -4,30 +4,25 @@ from __future__ import unicode_literals import pytest -@pytest.mark.models('fr') -def test_lemmatizer_verb(FR): - tokens = FR("Qu'est-ce que tu fais?") +def test_lemmatizer_verb(fr_tokenizer): + tokens = fr_tokenizer("Qu'est-ce que tu fais?") assert tokens[0].lemma_ == "que" assert tokens[1].lemma_ == "être" assert tokens[5].lemma_ == "faire" -@pytest.mark.models('fr') -@pytest.mark.xfail(reason="sont tagged as AUX") -def test_lemmatizer_noun_verb_2(FR): - tokens = FR("Les abaissements de température sont gênants.") +def test_lemmatizer_noun_verb_2(fr_tokenizer): + tokens = fr_tokenizer("Les abaissements de température sont gênants.") assert tokens[4].lemma_ == "être" -@pytest.mark.models('fr') @pytest.mark.xfail(reason="Costaricienne TAG is PROPN instead of NOUN and spacy don't lemmatize PROPN") -def test_lemmatizer_noun(FR): - tokens = FR("il y a des Costaricienne.") +def test_lemmatizer_noun(fr_tokenizer): + tokens = fr_tokenizer("il y a des Costaricienne.") assert tokens[4].lemma_ == "Costaricain" -@pytest.mark.models('fr') -def test_lemmatizer_noun_2(FR): - tokens = FR("Les abaissements de température sont gênants.") +def test_lemmatizer_noun_2(fr_tokenizer): + tokens = fr_tokenizer("Les abaissements de température sont gênants.") assert tokens[1].lemma_ == "abaissement" assert tokens[5].lemma_ == "gênant"