mirror of
https://github.com/explosion/spaCy.git
synced 2024-11-14 21:57:15 +03:00
27 lines
1.1 KiB
Python
27 lines
1.1 KiB
Python
|
# coding: utf-8
|
|||
|
|
|||
|
"""Test that longer and mixed texts are tokenized correctly."""
|
|||
|
|
|||
|
|
|||
|
from __future__ import unicode_literals
|
|||
|
|
|||
|
import pytest
|
|||
|
|
|||
|
|
|||
|
def test_tokenizer_handles_long_text(ur_tokenizer):
|
|||
|
text = """اصل میں رسوا ہونے کی ہمیں
|
|||
|
کچھ عادت سی ہو گئی ہے اس لئے جگ ہنسائی کا ذکر نہیں کرتا،ہوا کچھ یوں کہ عرصہ چھ سال بعد ہمیں بھی خیال آیا
|
|||
|
کہ ایک عدد ٹیلی ویژن ہی کیوں نہ خرید لیں ، سوچا ورلڈ کپ ہی دیکھیں گے۔اپنے پاکستان کے کھلاڑیوں کو دیکھ کر
|
|||
|
ورلڈ کپ دیکھنے کا حوصلہ ہی نہ رہا تو اب یوں ہی ادھر اُدھر کے چینل گھمانے لگ پڑتے ہیں۔"""
|
|||
|
|
|||
|
tokens = ur_tokenizer(text)
|
|||
|
assert len(tokens) == 77
|
|||
|
|
|||
|
|
|||
|
@pytest.mark.parametrize('text,length', [
|
|||
|
("تحریر باسط حبیب", 3),
|
|||
|
("میرا پاکستان", 2)])
|
|||
|
def test_tokenizer_handles_cnts(ur_tokenizer, text, length):
|
|||
|
tokens = ur_tokenizer(text)
|
|||
|
assert len(tokens) == length
|