2018-07-25 00:38:44 +03:00
|
|
|
# coding: utf8
|
2018-07-10 14:48:38 +03:00
|
|
|
from __future__ import unicode_literals
|
|
|
|
|
|
|
|
import pytest
|
|
|
|
|
|
|
|
|
2018-11-27 03:09:36 +03:00
|
|
|
@pytest.mark.parametrize("text", ["αριθ.", "τρισ.", "δισ.", "σελ."])
|
2018-07-25 00:38:44 +03:00
|
|
|
def test_el_tokenizer_handles_abbr(el_tokenizer, text):
|
2018-07-10 14:48:38 +03:00
|
|
|
tokens = el_tokenizer(text)
|
|
|
|
assert len(tokens) == 1
|
|
|
|
|
|
|
|
|
2018-07-25 00:38:44 +03:00
|
|
|
def test_el_tokenizer_handles_exc_in_text(el_tokenizer):
|
2018-07-10 14:48:38 +03:00
|
|
|
text = "Στα 14 τρισ. δολάρια το κόστος από την άνοδο της στάθμης της θάλασσας."
|
|
|
|
tokens = el_tokenizer(text)
|
|
|
|
assert len(tokens) == 14
|
2018-07-25 00:38:44 +03:00
|
|
|
assert tokens[2].text == "τρισ."
|