mirror of
				https://github.com/explosion/spaCy.git
				synced 2025-10-31 07:57:35 +03:00 
			
		
		
		
	* Remove unicode declarations * Remove Python 3.5 and 2.7 from CI * Don't require pathlib * Replace compat helpers * Remove OrderedDict * Use f-strings * Set Cython compiler language level * Fix typo * Re-add OrderedDict for Table * Update setup.cfg * Revert CONTRIBUTING.md * Revert lookups.md * Revert top-level.md * Small adjustments and docs [ci skip]
		
			
				
	
	
		
			32 lines
		
	
	
		
			1.7 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
			
		
		
	
	
			32 lines
		
	
	
		
			1.7 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
| import pytest
 | ||
| 
 | ||
| 
 | ||
| def test_el_tokenizer_handles_long_text(el_tokenizer):
 | ||
|     text = """Η Ελλάδα (παλαιότερα Ελλάς), επίσημα γνωστή ως Ελληνική Δημοκρατία,\
 | ||
|     είναι χώρα της νοτιοανατολικής Ευρώπης στο νοτιότερο άκρο της Βαλκανικής χερσονήσου.\
 | ||
|     Συνορεύει στα βορειοδυτικά με την Αλβανία, στα βόρεια με την πρώην\
 | ||
|     Γιουγκοσλαβική Δημοκρατία της Μακεδονίας και τη Βουλγαρία και στα βορειοανατολικά με την Τουρκία."""
 | ||
|     tokens = el_tokenizer(text)
 | ||
|     assert len(tokens) == 54
 | ||
| 
 | ||
| 
 | ||
| @pytest.mark.parametrize(
 | ||
|     "text,length",
 | ||
|     [
 | ||
|         ("Διοικητικά η Ελλάδα διαιρείται σε 13 Περιφέρειες.", 8),
 | ||
|         ("Η εκπαίδευση στην Ελλάδα χωρίζεται κυρίως σε τρία επίπεδα.", 10),
 | ||
|         (
 | ||
|             "Η Ελλάδα είναι μία από τις χώρες της Ευρωπαϊκής Ένωσης (ΕΕ) που διαθέτει σηµαντικό ορυκτό πλούτο.",
 | ||
|             19,
 | ||
|         ),
 | ||
|         (
 | ||
|             "Η ναυτιλία αποτέλεσε ένα σημαντικό στοιχείο της Ελληνικής οικονομικής δραστηριότητας από τα αρχαία χρόνια.",
 | ||
|             15,
 | ||
|         ),
 | ||
|         ("Η Ελλάδα είναι μέλος σε αρκετούς διεθνείς οργανισμούς.", 9),
 | ||
|     ],
 | ||
| )
 | ||
| def test_el_tokenizer_handles_cnts(el_tokenizer, text, length):
 | ||
|     tokens = el_tokenizer(text)
 | ||
|     assert len(tokens) == length
 |