mirror of
https://github.com/explosion/spaCy.git
synced 2025-03-13 07:55:49 +03:00
isort + flake8 fixed
This commit is contained in:
parent
396266904e
commit
f3967e8b91
|
@ -5,11 +5,7 @@ from thinc.api import Model
|
||||||
from ...language import BaseDefaults, Language
|
from ...language import BaseDefaults, Language
|
||||||
from .lemmatizer import FrenchLemmatizer
|
from .lemmatizer import FrenchLemmatizer
|
||||||
from .lex_attrs import LEX_ATTRS
|
from .lex_attrs import LEX_ATTRS
|
||||||
from .punctuation import (
|
from .punctuation import TOKENIZER_INFIXES, TOKENIZER_PREFIXES, TOKENIZER_SUFFIXES
|
||||||
TOKENIZER_INFIXES,
|
|
||||||
TOKENIZER_PREFIXES,
|
|
||||||
TOKENIZER_SUFFIXES,
|
|
||||||
)
|
|
||||||
from .stop_words import STOP_WORDS
|
from .stop_words import STOP_WORDS
|
||||||
from .syntax_iterators import SYNTAX_ITERATORS
|
from .syntax_iterators import SYNTAX_ITERATORS
|
||||||
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
|
from .tokenizer_exceptions import TOKENIZER_EXCEPTIONS
|
||||||
|
|
|
@ -28,7 +28,7 @@ sentences = [
|
||||||
"Sinon mets-en un peu par terre.",
|
"Sinon mets-en un peu par terre.",
|
||||||
"il n'y a plus rien ici, enfin j'crois, nos p'tites affaires ont été enl'vées.",
|
"il n'y a plus rien ici, enfin j'crois, nos p'tites affaires ont été enl'vées.",
|
||||||
"aujourd'hui, c'est comme ça.",
|
"aujourd'hui, c'est comme ça.",
|
||||||
"un.e directeur.ice, des employé.es, ",
|
"un.e directeur.ice, des employé.es.",
|
||||||
"des non-humain-es étaient là aussi, visiblement heureux·ses.",
|
"des non-humain-es étaient là aussi, visiblement heureux·ses.",
|
||||||
"j'ai trouvé ça surhttps://site_inexistant.fr/accueil#milieu ou www.quelque_part.com/ je pense.",
|
"j'ai trouvé ça surhttps://site_inexistant.fr/accueil#milieu ou www.quelque_part.com/ je pense.",
|
||||||
"ou alors le 21/12 oui c'est ça c'était le 21/12/2023... ou alors le 12.02.2005",
|
"ou alors le 21/12 oui c'est ça c'était le 21/12/2023... ou alors le 12.02.2005",
|
||||||
|
|
|
@ -5,9 +5,9 @@ from ..char_classes import (
|
||||||
CONCAT_QUOTES,
|
CONCAT_QUOTES,
|
||||||
CURRENCY,
|
CURRENCY,
|
||||||
LIST_ELLIPSES,
|
LIST_ELLIPSES,
|
||||||
|
LIST_ICONS,
|
||||||
LIST_PUNCT,
|
LIST_PUNCT,
|
||||||
LIST_QUOTES,
|
LIST_QUOTES,
|
||||||
LIST_ICONS,
|
|
||||||
UNITS,
|
UNITS,
|
||||||
)
|
)
|
||||||
|
|
||||||
|
|
|
@ -1,8 +1,7 @@
|
||||||
from ...util import update_exc
|
|
||||||
from ...symbols import NORM, ORTH
|
from ...symbols import NORM, ORTH
|
||||||
|
from ...util import update_exc
|
||||||
from ..tokenizer_exceptions import BASE_EXCEPTIONS
|
from ..tokenizer_exceptions import BASE_EXCEPTIONS
|
||||||
|
|
||||||
|
|
||||||
_exc = {
|
_exc = {
|
||||||
"St": [{ORTH: "St", NORM: "Saint"}],
|
"St": [{ORTH: "St", NORM: "Saint"}],
|
||||||
"Ste": [{ORTH: "Ste", NORM: "Sainte"}],
|
"Ste": [{ORTH: "Ste", NORM: "Sainte"}],
|
||||||
|
|
Loading…
Reference in New Issue
Block a user