mirror of
https://github.com/explosion/spaCy.git
synced 2024-11-11 20:28:20 +03:00
24 lines
1.3 KiB
Python
24 lines
1.3 KiB
Python
# encoding: utf8
|
|
from __future__ import unicode_literals
|
|
|
|
import pytest
|
|
|
|
|
|
@pytest.mark.parametrize('text,expected_tokens',
|
|
[('פייתון היא שפת תכנות דינמית', ['פייתון', 'היא', 'שפת', 'תכנות', 'דינמית'])])
|
|
def test_tokenizer_handles_abbreviation(he_tokenizer, text, expected_tokens):
|
|
tokens = he_tokenizer(text)
|
|
token_list = [token.text for token in tokens if not token.is_space]
|
|
assert expected_tokens == token_list
|
|
|
|
|
|
@pytest.mark.parametrize('text,expected_tokens', [
|
|
('עקבת אחריו בכל רחבי המדינה.', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '.']),
|
|
('עקבת אחריו בכל רחבי המדינה?', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '?']),
|
|
('עקבת אחריו בכל רחבי המדינה!', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '!']),
|
|
('עקבת אחריו בכל רחבי המדינה..', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '..']),
|
|
('עקבת אחריו בכל רחבי המדינה...', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '...'])])
|
|
def test_tokenizer_handles_punct(he_tokenizer, text, expected_tokens):
|
|
tokens = he_tokenizer(text)
|
|
assert expected_tokens == [token.text for token in tokens]
|