mirror of
				https://github.com/explosion/spaCy.git
				synced 2025-10-31 07:57:35 +03:00 
			
		
		
		
	* Auto-format tests with black * Add flake8 config * Tidy up and remove unused imports * Fix redefinitions of test functions * Replace orths_and_spaces with words and spaces * Fix compatibility with pytest 4.0 * xfail test for now Test was previously overwritten by following test due to naming conflict, so failure wasn't reported * Unfail passing test * Only use fixture via arguments Fixes pytest 4.0 compatibility
		
			
				
	
	
		
			35 lines
		
	
	
		
			1.8 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
			
		
		
	
	
			35 lines
		
	
	
		
			1.8 KiB
		
	
	
	
		
			Python
		
	
	
	
	
	
| # coding: utf8
 | ||
| from __future__ import unicode_literals
 | ||
| 
 | ||
| import pytest
 | ||
| 
 | ||
| 
 | ||
| def test_el_tokenizer_handles_long_text(el_tokenizer):
 | ||
|     text = """Η Ελλάδα (παλαιότερα Ελλάς), επίσημα γνωστή ως Ελληνική Δημοκρατία,\
 | ||
|     είναι χώρα της νοτιοανατολικής Ευρώπης στο νοτιότερο άκρο της Βαλκανικής χερσονήσου.\
 | ||
|     Συνορεύει στα βορειοδυτικά με την Αλβανία, στα βόρεια με την πρώην\
 | ||
|     Γιουγκοσλαβική Δημοκρατία της Μακεδονίας και τη Βουλγαρία και στα βορειοανατολικά με την Τουρκία."""
 | ||
|     tokens = el_tokenizer(text)
 | ||
|     assert len(tokens) == 54
 | ||
| 
 | ||
| 
 | ||
| @pytest.mark.parametrize(
 | ||
|     "text,length",
 | ||
|     [
 | ||
|         ("Διοικητικά η Ελλάδα διαιρείται σε 13 Περιφέρειες.", 8),
 | ||
|         ("Η εκπαίδευση στην Ελλάδα χωρίζεται κυρίως σε τρία επίπεδα.", 10),
 | ||
|         (
 | ||
|             "Η Ελλάδα είναι μία από τις χώρες της Ευρωπαϊκής Ένωσης (ΕΕ) που διαθέτει σηµαντικό ορυκτό πλούτο.",
 | ||
|             19,
 | ||
|         ),
 | ||
|         (
 | ||
|             "Η ναυτιλία αποτέλεσε ένα σημαντικό στοιχείο της Ελληνικής οικονομικής δραστηριότητας από τα αρχαία χρόνια.",
 | ||
|             15,
 | ||
|         ),
 | ||
|         ("Η Ελλάδα είναι μέλος σε αρκετούς διεθνείς οργανισμούς.", 9),
 | ||
|     ],
 | ||
| )
 | ||
| def test_el_tokenizer_handles_cnts(el_tokenizer, text, length):
 | ||
|     tokens = el_tokenizer(text)
 | ||
|     assert len(tokens) == length
 |