mirror of
				https://github.com/explosion/spaCy.git
				synced 2025-11-04 01:48:04 +03:00 
			
		
		
		
	* Remove unicode declarations * Remove Python 3.5 and 2.7 from CI * Don't require pathlib * Replace compat helpers * Remove OrderedDict * Use f-strings * Set Cython compiler language level * Fix typo * Re-add OrderedDict for Table * Update setup.cfg * Revert CONTRIBUTING.md * Revert lookups.md * Revert top-level.md * Small adjustments and docs [ci skip]
		
			
				
	
	
		
			32 lines
		
	
	
		
			1.7 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
			
		
		
	
	
			32 lines
		
	
	
		
			1.7 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
import pytest
 | 
						||
 | 
						||
 | 
						||
def test_el_tokenizer_handles_long_text(el_tokenizer):
 | 
						||
    text = """Η Ελλάδα (παλαιότερα Ελλάς), επίσημα γνωστή ως Ελληνική Δημοκρατία,\
 | 
						||
    είναι χώρα της νοτιοανατολικής Ευρώπης στο νοτιότερο άκρο της Βαλκανικής χερσονήσου.\
 | 
						||
    Συνορεύει στα βορειοδυτικά με την Αλβανία, στα βόρεια με την πρώην\
 | 
						||
    Γιουγκοσλαβική Δημοκρατία της Μακεδονίας και τη Βουλγαρία και στα βορειοανατολικά με την Τουρκία."""
 | 
						||
    tokens = el_tokenizer(text)
 | 
						||
    assert len(tokens) == 54
 | 
						||
 | 
						||
 | 
						||
@pytest.mark.parametrize(
 | 
						||
    "text,length",
 | 
						||
    [
 | 
						||
        ("Διοικητικά η Ελλάδα διαιρείται σε 13 Περιφέρειες.", 8),
 | 
						||
        ("Η εκπαίδευση στην Ελλάδα χωρίζεται κυρίως σε τρία επίπεδα.", 10),
 | 
						||
        (
 | 
						||
            "Η Ελλάδα είναι μία από τις χώρες της Ευρωπαϊκής Ένωσης (ΕΕ) που διαθέτει σηµαντικό ορυκτό πλούτο.",
 | 
						||
            19,
 | 
						||
        ),
 | 
						||
        (
 | 
						||
            "Η ναυτιλία αποτέλεσε ένα σημαντικό στοιχείο της Ελληνικής οικονομικής δραστηριότητας από τα αρχαία χρόνια.",
 | 
						||
            15,
 | 
						||
        ),
 | 
						||
        ("Η Ελλάδα είναι μέλος σε αρκετούς διεθνείς οργανισμούς.", 9),
 | 
						||
    ],
 | 
						||
)
 | 
						||
def test_el_tokenizer_handles_cnts(el_tokenizer, text, length):
 | 
						||
    tokens = el_tokenizer(text)
 | 
						||
    assert len(tokens) == length
 |