2017-03-24 18:27:44 +03:00
|
|
|
# encoding: utf8
|
|
|
|
from __future__ import unicode_literals
|
|
|
|
|
|
|
|
import pytest
|
|
|
|
|
|
|
|
|
2017-04-19 20:28:00 +03:00
|
|
|
@pytest.mark.parametrize('text,expected_tokens',
|
|
|
|
[('פייתון היא שפת תכנות דינמית', ['פייתון', 'היא', 'שפת', 'תכנות', 'דינמית'])])
|
|
|
|
def test_tokenizer_handles_abbreviation(he_tokenizer, text, expected_tokens):
|
|
|
|
tokens = he_tokenizer(text)
|
|
|
|
token_list = [token.text for token in tokens if not token.is_space]
|
|
|
|
assert expected_tokens == token_list
|
2017-03-24 18:27:44 +03:00
|
|
|
|
|
|
|
|
2017-04-19 20:28:00 +03:00
|
|
|
@pytest.mark.parametrize('text,expected_tokens', [
|
|
|
|
pytest.mark.xfail(('עקבת אחריו בכל רחבי המדינה.', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '.'])),
|
|
|
|
('עקבת אחריו בכל רחבי המדינה?', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '?']),
|
|
|
|
('עקבת אחריו בכל רחבי המדינה!', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '!']),
|
|
|
|
('עקבת אחריו בכל רחבי המדינה..', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '..']),
|
|
|
|
('עקבת אחריו בכל רחבי המדינה...', ['עקבת', 'אחריו', 'בכל', 'רחבי', 'המדינה', '...'])])
|
|
|
|
def test_tokenizer_handles_punct(he_tokenizer, text, expected_tokens):
|
2017-03-24 18:27:44 +03:00
|
|
|
tokens = he_tokenizer(text)
|
2017-04-19 20:28:00 +03:00
|
|
|
assert expected_tokens == [token.text for token in tokens]
|