mirror of
https://github.com/explosion/spaCy.git
synced 2024-12-25 09:26:27 +03:00
Update tokenizer exceptions for German
This commit is contained in:
parent
d60380418e
commit
702d1eed93
|
@ -2,7 +2,7 @@
|
|||
from __future__ import unicode_literals
|
||||
|
||||
from ..symbols import *
|
||||
from ..language_data import PRON_LEMMA
|
||||
from ..language_data import PRON_LEMMA, DET_LEMMA
|
||||
|
||||
|
||||
TOKENIZER_EXCEPTIONS = {
|
||||
|
@ -15,23 +15,27 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"'S": [
|
||||
{ORTH: "'S", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'S", LEMMA: PRON_LEMMA, TAG: "PPER"}
|
||||
],
|
||||
|
||||
"'n": [
|
||||
{ORTH: "'n", LEMMA: "ein"}
|
||||
{ORTH: "'n", LEMMA: DET_LEMMA, NORM: "ein"}
|
||||
],
|
||||
|
||||
"'ne": [
|
||||
{ORTH: "'ne", LEMMA: "eine"}
|
||||
{ORTH: "'ne", LEMMA: DET_LEMMA, NORM: "eine"}
|
||||
],
|
||||
|
||||
"'nen": [
|
||||
{ORTH: "'nen", LEMMA: "einen"}
|
||||
{ORTH: "'nen", LEMMA: DET_LEMMA, NORM: "einen"}
|
||||
],
|
||||
|
||||
"'nem": [
|
||||
{ORTH: "'nem", LEMMA: DET_LEMMA, NORM: "einem"}
|
||||
],
|
||||
|
||||
"'s": [
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER"}
|
||||
],
|
||||
|
||||
"Abb.": [
|
||||
|
@ -195,7 +199,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"S'": [
|
||||
{ORTH: "S'", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "S'", LEMMA: PRON_LEMMA, TAG: "PPER"}
|
||||
],
|
||||
|
||||
"Sa.": [
|
||||
|
@ -244,7 +248,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
|
||||
"auf'm": [
|
||||
{ORTH: "auf", LEMMA: "auf"},
|
||||
{ORTH: "'m", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'m", LEMMA: DET_LEMMA, NORM: "dem" }
|
||||
],
|
||||
|
||||
"bspw.": [
|
||||
|
@ -268,8 +272,8 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"du's": [
|
||||
{ORTH: "du", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "du", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"ebd.": [
|
||||
|
@ -285,8 +289,8 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"er's": [
|
||||
{ORTH: "er", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "er", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"evtl.": [
|
||||
|
@ -315,7 +319,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
|
||||
"hinter'm": [
|
||||
{ORTH: "hinter", LEMMA: "hinter"},
|
||||
{ORTH: "'m", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'m", LEMMA: DET_LEMMA, NORM: "dem"}
|
||||
],
|
||||
|
||||
"i.O.": [
|
||||
|
@ -327,13 +331,13 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"ich's": [
|
||||
{ORTH: "ich", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "ich", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"ihr's": [
|
||||
{ORTH: "ihr", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "ihr", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"incl.": [
|
||||
|
@ -385,7 +389,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"s'": [
|
||||
{ORTH: "s'", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "s'", LEMMA: PRON_LEMMA, TAG: "PPER"}
|
||||
],
|
||||
|
||||
"s.o.": [
|
||||
|
@ -393,8 +397,8 @@ TOKENIZER_EXCEPTIONS = {
|
|||
],
|
||||
|
||||
"sie's": [
|
||||
{ORTH: "sie", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "sie", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"sog.": [
|
||||
|
@ -423,7 +427,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
|
||||
"unter'm": [
|
||||
{ORTH: "unter", LEMMA: "unter"},
|
||||
{ORTH: "'m", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'m", LEMMA: DET_LEMMA, NORM: "dem"}
|
||||
],
|
||||
|
||||
"usf.": [
|
||||
|
@ -464,12 +468,12 @@ TOKENIZER_EXCEPTIONS = {
|
|||
|
||||
"vor'm": [
|
||||
{ORTH: "vor", LEMMA: "vor"},
|
||||
{ORTH: "'m", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'m", LEMMA: DET_LEMMA, NORM: "dem"}
|
||||
],
|
||||
|
||||
"wir's": [
|
||||
{ORTH: "wir", LEMMA: PRON_LEMMA},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "wir", LEMMA: PRON_LEMMA, TAG: "PPER"},
|
||||
{ORTH: "'s", LEMMA: PRON_LEMMA, TAG: "PPER", NORM: "es"}
|
||||
],
|
||||
|
||||
"z.B.": [
|
||||
|
@ -506,7 +510,7 @@ TOKENIZER_EXCEPTIONS = {
|
|||
|
||||
"über'm": [
|
||||
{ORTH: "über", LEMMA: "über"},
|
||||
{ORTH: "'m", LEMMA: PRON_LEMMA}
|
||||
{ORTH: "'m", LEMMA: DET_LEMMA, NORM: "dem"}
|
||||
]
|
||||
}
|
||||
|
||||
|
@ -625,5 +629,5 @@ ORTH_ONLY = [
|
|||
"wiss.",
|
||||
"x.",
|
||||
"y.",
|
||||
"z.",
|
||||
"z."
|
||||
]
|
||||
|
|
Loading…
Reference in New Issue
Block a user