mirror of
				https://github.com/explosion/spaCy.git
				synced 2025-11-01 00:17:44 +03:00 
			
		
		
		
	
		
			
				
	
	
		
			53 lines
		
	
	
		
			2.0 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
			
		
		
	
	
			53 lines
		
	
	
		
			2.0 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
| # coding: utf-8
 | |
| from __future__ import unicode_literals
 | |
| 
 | |
| import pytest
 | |
| 
 | |
| # fmt: off
 | |
| TOKENIZER_TESTS = [("서울 타워 근처에 살고 있습니다.", "서울 타워 근처 에 살 고 있 습니다 ."),
 | |
|                    ("영등포구에 있는 맛집 좀 알려주세요.", "영등포구 에 있 는 맛집 좀 알려 주 세요 ."),
 | |
|                    ("10$ 할인코드를 적용할까요?", "10 $ 할인 코드 를 적용 할까요 ?")]
 | |
| 
 | |
| TAG_TESTS = [("서울 타워 근처에 살고 있습니다.",
 | |
|               "NNP NNG NNG JKB VV EC VX EF SF"),
 | |
|              ("영등포구에 있는 맛집 좀 알려주세요.",
 | |
|               "NNP JKB VV ETM NNG MAG VV VX EP SF")]
 | |
| 
 | |
| FULL_TAG_TESTS = [("영등포구에 있는 맛집 좀 알려주세요.",
 | |
|                    "NNP JKB VV ETM NNG MAG VV+EC VX EP+EF SF")]
 | |
| 
 | |
| POS_TESTS = [("서울 타워 근처에 살고 있습니다.",
 | |
|               "PROPN NOUN NOUN ADP VERB X AUX X PUNCT"),
 | |
|              ("영등포구에 있는 맛집 좀 알려주세요.",
 | |
|               "PROPN ADP VERB X NOUN ADV VERB AUX X PUNCT")]
 | |
| # fmt: on
 | |
| 
 | |
| 
 | |
| @pytest.mark.parametrize("text,expected_tokens", TOKENIZER_TESTS)
 | |
| def test_ko_tokenizer(ko_tokenizer, text, expected_tokens):
 | |
|     tokens = [token.text for token in ko_tokenizer(text)]
 | |
|     assert tokens == expected_tokens.split()
 | |
| 
 | |
| 
 | |
| @pytest.mark.parametrize("text,expected_tags", TAG_TESTS)
 | |
| def test_ko_tokenizer_tags(ko_tokenizer, text, expected_tags):
 | |
|     tags = [token.tag_ for token in ko_tokenizer(text)]
 | |
|     assert tags == expected_tags.split()
 | |
| 
 | |
| 
 | |
| @pytest.mark.parametrize("text,expected_tags", FULL_TAG_TESTS)
 | |
| def test_ko_tokenizer_full_tags(ko_tokenizer, text, expected_tags):
 | |
|     tags = ko_tokenizer(text).user_data["full_tags"]
 | |
|     assert tags == expected_tags.split()
 | |
| 
 | |
| 
 | |
| @pytest.mark.parametrize("text,expected_pos", POS_TESTS)
 | |
| def test_ko_tokenizer_pos(ko_tokenizer, text, expected_pos):
 | |
|     pos = [token.pos_ for token in ko_tokenizer(text)]
 | |
|     assert pos == expected_pos.split()
 | |
| 
 | |
| 
 | |
| def test_ko_empty_doc(ko_tokenizer):
 | |
|     tokens = ko_tokenizer("")
 | |
|     assert len(tokens) == 0
 |