mirror of
https://github.com/explosion/spaCy.git
synced 2024-11-16 14:47:16 +03:00
30030176ee
Update Korean defaults for `Tokenizer` for tokenization following UD Korean Kaist.
70 lines
2.7 KiB
Python
70 lines
2.7 KiB
Python
import pytest
|
|
|
|
# fmt: off
|
|
TOKENIZER_TESTS = [("서울 타워 근처에 살고 있습니다.", "서울 타워 근처 에 살 고 있 습니다 ."),
|
|
("영등포구에 있는 맛집 좀 알려주세요.", "영등포구 에 있 는 맛집 좀 알려 주 세요 ."),
|
|
("10$ 할인코드를 적용할까요?", "10 $ 할인 코드 를 적용 할까요 ?")]
|
|
|
|
TAG_TESTS = [("서울 타워 근처에 살고 있습니다.",
|
|
"NNP NNG NNG JKB VV EC VX EF SF"),
|
|
("영등포구에 있는 맛집 좀 알려주세요.",
|
|
"NNP JKB VV ETM NNG MAG VV VX EP SF")]
|
|
|
|
FULL_TAG_TESTS = [("영등포구에 있는 맛집 좀 알려주세요.",
|
|
"NNP JKB VV ETM NNG MAG VV+EC VX EP+EF SF")]
|
|
|
|
POS_TESTS = [("서울 타워 근처에 살고 있습니다.",
|
|
"PROPN NOUN NOUN ADP VERB X AUX X PUNCT"),
|
|
("영등포구에 있는 맛집 좀 알려주세요.",
|
|
"PROPN ADP VERB X NOUN ADV VERB AUX X PUNCT")]
|
|
# fmt: on
|
|
|
|
|
|
@pytest.mark.parametrize("text,expected_tokens", TOKENIZER_TESTS)
|
|
def test_ko_tokenizer(ko_tokenizer, text, expected_tokens):
|
|
tokens = [token.text for token in ko_tokenizer(text)]
|
|
assert tokens == expected_tokens.split()
|
|
|
|
|
|
@pytest.mark.parametrize("text,expected_tags", TAG_TESTS)
|
|
def test_ko_tokenizer_tags(ko_tokenizer, text, expected_tags):
|
|
tags = [token.tag_ for token in ko_tokenizer(text)]
|
|
assert tags == expected_tags.split()
|
|
|
|
|
|
@pytest.mark.parametrize("text,expected_tags", FULL_TAG_TESTS)
|
|
def test_ko_tokenizer_full_tags(ko_tokenizer, text, expected_tags):
|
|
tags = ko_tokenizer(text).user_data["full_tags"]
|
|
assert tags == expected_tags.split()
|
|
|
|
|
|
@pytest.mark.parametrize("text,expected_pos", POS_TESTS)
|
|
def test_ko_tokenizer_pos(ko_tokenizer, text, expected_pos):
|
|
pos = [token.pos_ for token in ko_tokenizer(text)]
|
|
assert pos == expected_pos.split()
|
|
|
|
|
|
def test_ko_empty_doc(ko_tokenizer):
|
|
tokens = ko_tokenizer("")
|
|
assert len(tokens) == 0
|
|
|
|
|
|
# fmt: off
|
|
SPACY_TOKENIZER_TESTS = [
|
|
("있다.", "있다 ."),
|
|
("'예'는", "' 예 ' 는"),
|
|
("부 (富) 는", "부 ( 富 ) 는"),
|
|
("부(富)는", "부 ( 富 ) 는"),
|
|
("1982~1983.", "1982 ~ 1983 ."),
|
|
("사과·배·복숭아·수박은 모두 과일이다.", "사과 · 배 · 복숭아 · 수박은 모두 과일이다 ."),
|
|
("그렇구나~", "그렇구나~"),
|
|
("『9시 반의 당구』,", "『 9시 반의 당구 』 ,"),
|
|
]
|
|
# fmt: on
|
|
|
|
|
|
@pytest.mark.parametrize("text,expected_tokens", SPACY_TOKENIZER_TESTS)
|
|
def test_ko_spacy_tokenizer(ko_tokenizer_tokenizer, text, expected_tokens):
|
|
tokens = [token.text for token in ko_tokenizer_tokenizer(text)]
|
|
assert tokens == expected_tokens.split()
|