Basic language processing/nl: Difference between revisions
No edit summary |
(Updating to match new version of source page) |
||
(5 intermediate revisions by 3 users not shown) | |||
Line 1: | Line 1: | ||
<languages/> | |||
Onder eenvoudige taalverwerking verstaan we part-of-speech tagging, lemmatisering, named entity recognition, chunking en gelijksoortige taken die individuele woorden labelen. | Onder eenvoudige taalverwerking verstaan we part-of-speech tagging, lemmatisering, named entity recognition, chunking en gelijksoortige taken die individuele woorden labelen. | ||
== Frog == | == Frog == | ||
Frog is een voor het Nederlands ontwikkelde integratie van memory-based natuurlijke taalverwerkingsmodules (NLP). De huidige versie van Frog zal woordtokens in Nederlandse tekstbestanden tokeniseren, taggen, lemmatiseren, en morfologisch segmenteren. Daarnaast zal Frog een afhankelijkheidsdiagram toevoegen aan elke zin, de | |||
Frog is een voor het Nederlands ontwikkelde integratie van memory-based natuurlijke taalverwerkingsmodules (NLP). De huidige versie van Frog zal woordtokens in Nederlandse tekstbestanden tokeniseren, taggen, lemmatiseren, en morfologisch segmenteren. Daarnaast zal Frog een afhankelijkheidsdiagram toevoegen aan elke zin, de basiszinsdelen identificeren en de tool zal proberen om alle named entities te vinden en te labelen. | |||
*[https://webservices.cls.ru.nl/frog Online versie] | *[https://webservices.cls.ru.nl/frog Online versie] | ||
Line 8: | Line 10: | ||
== DeepFrog == | == DeepFrog == | ||
DeepFrog streeft ernaar om een (gedeeltelijke) opvolger te zijn van het Nederlandse NLP-project Frog. Waar de verscheidene NLP-modules in Frog nog waren gebouwd op k-NN classifiers, bouwt DeepFrog op deep learning techniques en kan het een verscheidenheid aan neurale transformatoren gebruiken. | DeepFrog streeft ernaar om een (gedeeltelijke) opvolger te zijn van het Nederlandse NLP-project Frog. Waar de verscheidene NLP-modules in Frog nog waren gebouwd op k-NN classifiers, bouwt DeepFrog op deep learning techniques en kan het een verscheidenheid aan neurale transformatoren gebruiken. | ||
Line 15: | Line 18: | ||
*[https://github.com/proycon/deepfrog Github-pagina] | *[https://github.com/proycon/deepfrog Github-pagina] | ||
<span id="LeTs"></span> | |||
<div class="mw-translate-fuzzy"> | |||
== LeTs == | == LeTs == | ||
LeTs is een preprocessor die kan worden gebruikt voor het Nederlands, Duits, Engels en Frans. | LeTs is een preprocessor die kan worden gebruikt voor het Nederlands, Duits, Engels en Frans. | ||
</div> | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
LeTs is preprocessor that can be used for Dutch, German, English and French. | |||
</div> | |||
*[https://lt3.ugent.be/resources/lets/ Projectpagina] | *[https://lt3.ugent.be/resources/lets/ Projectpagina] | ||
Line 25: | Line 35: | ||
[https://spacy.io/models/nl Nederlandse modellen] | [https://spacy.io/models/nl Nederlandse modellen] | ||
<span id="Stanza_-_A_Python_NLP_Package_for_Many_Human_Languages"></span> | |||
<div class="mw-translate-fuzzy"> | |||
== Stanza - A Python NLP Package for Many Human Languages == | == Stanza - A Python NLP Package for Many Human Languages == | ||
Stanza is een verzameling nauwkeurige en efficiënte tools voor de linguïstische analyse van veel menselijke talen. | Stanza is een verzameling nauwkeurige en efficiënte tools voor de linguïstische analyse van veel menselijke talen. | ||
</div> | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
Stanza is a collection of accurate and efficient tools for the linguistic analysis of many human languages. | |||
</div> | |||
* [https://stanfordnlp.github.io/stanza/#stanza--a-python-nlp-package-for-many-human-languages Stanza-Github-pagina's] | * [https://stanfordnlp.github.io/stanza/#stanza--a-python-nlp-package-for-many-human-languages Stanza-Github-pagina's] | ||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
==Trankit== | |||
</div> | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
Trankit is a light-weight Transformer-based Python Toolkit for multilingual Natural Language Processing (NLP). It provides a trainable pipeline for fundamental NLP tasks over 100 languages, and 90 downloadable pretrained pipelines for 56 languages. | |||
</div> | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
*[https://github.com/nlp-uoregon/trankit Trankit Github pages] | |||
</div> | |||
<span id="Adelheid_Tagger-Lemmatizer:_A_Distributed_Lemmatizer_for_Historical_Dutch"></span> | |||
<div class="mw-translate-fuzzy"> | |||
==Adelheid Tagger-Lemmatizer: A Distributed Lemmatizer for Historical Dutch== | ==Adelheid Tagger-Lemmatizer: A Distributed Lemmatizer for Historical Dutch== | ||
Met deze webapplicatie kan een eindgebruiker historische Nederlandse teksten invoeren die vervolgens worden getokeniseerd, gelemmatiseerd en ge-POS-tagd. De applicatie maakt gebruik van de meest geschikte bronnen (zoals lexica) voor de desbetreffende tekst. Voor elke specifieke tekst kan een gebruiker de beste bronnen selecteren uit de beschikbare bronnen in CLARIN, waar deze ook terug te mogen vinden zijn, en waar nodig kunnen deze worden aangevuld met eigen lexica. | Met deze webapplicatie kan een eindgebruiker historische Nederlandse teksten invoeren die vervolgens worden getokeniseerd, gelemmatiseerd en ge-POS-tagd. De applicatie maakt gebruik van de meest geschikte bronnen (zoals lexica) voor de desbetreffende tekst. Voor elke specifieke tekst kan een gebruiker de beste bronnen selecteren uit de beschikbare bronnen in CLARIN, waar deze ook terug te mogen vinden zijn, en waar nodig kunnen deze worden aangevuld met eigen lexica. | ||
</div> | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | |||
With this web-application an end user can have historical Dutch texts tokenized, lemmatized and part-of-speech tagged, using the most appropriate resources (such as lexica) for the text in question. For each specific text, the user can select the best resources from those available in CLARIN, wherever they might reside, and where necessary supplemented by own lexica. | |||
</div> | |||
*[http://portal.clarin.nl/node/1918 CLAPOP-pagina] | *[http://portal.clarin.nl/node/1918 CLAPOP-pagina] | ||
*Geen werkende versie gevonden | *Geen werkende versie gevonden |
Latest revision as of 12:02, 4 June 2024
Onder eenvoudige taalverwerking verstaan we part-of-speech tagging, lemmatisering, named entity recognition, chunking en gelijksoortige taken die individuele woorden labelen.
Frog
Frog is een voor het Nederlands ontwikkelde integratie van memory-based natuurlijke taalverwerkingsmodules (NLP). De huidige versie van Frog zal woordtokens in Nederlandse tekstbestanden tokeniseren, taggen, lemmatiseren, en morfologisch segmenteren. Daarnaast zal Frog een afhankelijkheidsdiagram toevoegen aan elke zin, de basiszinsdelen identificeren en de tool zal proberen om alle named entities te vinden en te labelen.
DeepFrog
DeepFrog streeft ernaar om een (gedeeltelijke) opvolger te zijn van het Nederlandse NLP-project Frog. Waar de verscheidene NLP-modules in Frog nog waren gebouwd op k-NN classifiers, bouwt DeepFrog op deep learning techniques en kan het een verscheidenheid aan neurale transformatoren gebruiken.
Het systeem is nog niet officieel vrijgegeven.
LeTs
LeTs is een preprocessor die kan worden gebruikt voor het Nederlands, Duits, Engels en Frans.
LeTs is preprocessor that can be used for Dutch, German, English and French.
Spacy
Stanza - A Python NLP Package for Many Human Languages
Stanza is een verzameling nauwkeurige en efficiënte tools voor de linguïstische analyse van veel menselijke talen.
Stanza is a collection of accurate and efficient tools for the linguistic analysis of many human languages.
Trankit
Trankit is a light-weight Transformer-based Python Toolkit for multilingual Natural Language Processing (NLP). It provides a trainable pipeline for fundamental NLP tasks over 100 languages, and 90 downloadable pretrained pipelines for 56 languages.
Adelheid Tagger-Lemmatizer: A Distributed Lemmatizer for Historical Dutch
Met deze webapplicatie kan een eindgebruiker historische Nederlandse teksten invoeren die vervolgens worden getokeniseerd, gelemmatiseerd en ge-POS-tagd. De applicatie maakt gebruik van de meest geschikte bronnen (zoals lexica) voor de desbetreffende tekst. Voor elke specifieke tekst kan een gebruiker de beste bronnen selecteren uit de beschikbare bronnen in CLARIN, waar deze ook terug te mogen vinden zijn, en waar nodig kunnen deze worden aangevuld met eigen lexica.
With this web-application an end user can have historical Dutch texts tokenized, lemmatized and part-of-speech tagged, using the most appropriate resources (such as lexica) for the text in question. For each specific text, the user can select the best resources from those available in CLARIN, wherever they might reside, and where necessary supplemented by own lexica.
- CLAPOP-pagina
- Geen werkende versie gevonden