mirror of
				https://github.com/explosion/spaCy.git
				synced 2025-11-04 01:48:04 +03:00 
			
		
		
		
	* Added examples for Slovene * Update spacy/lang/sl/examples.py Co-authored-by: Adriane Boyd <adrianeboyd@gmail.com> * Corrected a typo in one of the sentences * Updated support for Slovenian * Some minor changes to corrections * Added forint currency * Corrected HYPHENS_PERMITTED regex and some formatting * Minor changes * Un-xfail tokenizer test * Format Co-authored-by: Luka Dragar <D20124481@mytudublin.ie> Co-authored-by: Adriane Boyd <adrianeboyd@gmail.com>
		
			
				
	
	
		
			27 lines
		
	
	
		
			993 B
		
	
	
	
		
			Python
		
	
	
	
	
	
			
		
		
	
	
			27 lines
		
	
	
		
			993 B
		
	
	
	
		
			Python
		
	
	
	
	
	
import pytest
 | 
						|
 | 
						|
 | 
						|
def test_long_text(sl_tokenizer):
 | 
						|
    # Excerpt: European Convention on Human Rights
 | 
						|
    text = """
 | 
						|
upoštevajoč, da si ta deklaracija prizadeva zagotoviti splošno in
 | 
						|
učinkovito priznavanje in spoštovanje v njej razglašenih pravic,
 | 
						|
upoštevajoč, da je cilj Sveta Evrope doseči večjo enotnost med
 | 
						|
njegovimi članicami, in da je eden izmed načinov za zagotavljanje
 | 
						|
tega cilja varstvo in nadaljnji razvoj človekovih pravic in temeljnih
 | 
						|
svoboščin,
 | 
						|
ponovno potrjujoč svojo globoko vero v temeljne svoboščine, na
 | 
						|
katerih temeljita pravičnost in mir v svetu, in ki jih je mogoče najbolje
 | 
						|
zavarovati na eni strani z dejansko politično demokracijo in na drugi
 | 
						|
strani s skupnim razumevanjem in spoštovanjem človekovih pravic,
 | 
						|
od katerih so te svoboščine odvisne,    
 | 
						|
"""
 | 
						|
    tokens = sl_tokenizer(text)
 | 
						|
    assert len(tokens) == 116
 | 
						|
 | 
						|
 | 
						|
def test_ordinal_number(sl_tokenizer):
 | 
						|
    text = "10. decembra 1948"
 | 
						|
    tokens = sl_tokenizer(text)
 | 
						|
    assert len(tokens) == 3
 |