Language modeling/nl: Difference between revisions
(Created page with "==Grote Taalmodellen== * [https://huggingface.co/models?search=dutch Hugging Face Dutch Models] * [https://people.cs.kuleuven.be/~pieter.delobelle/robbert/ RobBERT]: Een Nederlands RoBERTa Taalmodel * [https://github.com/wietsedv/bertje BERTje]: Een Nederlands BERT model * [https://github.com/Rijgersberg/GEITje GEITje]: Een groot open taalmodel") |
(Created page with "==SpaCy== spaCy is een gratis open-source bibliotheek voor Natuurlijke Taalverwerking in Python.") |
||
Line 14: | Line 14: | ||
* [https://huggingface.co/docs/transformers/model_doc/mbart MBart] | * [https://huggingface.co/docs/transformers/model_doc/mbart MBart] | ||
==SpaCy== | ==SpaCy== | ||
spaCy is | spaCy is een gratis open-source bibliotheek voor Natuurlijke Taalverwerking in Python. | ||
* [https://spacy.io/models/nl Nederlandse modellen] | |||
* [https://spacy.io/models/nl | |||
<div lang="en" dir="ltr" class="mw-content-ltr"> | <div lang="en" dir="ltr" class="mw-content-ltr"> |
Revision as of 14:14, 3 April 2024
n-gram modellering
'Colibri core' is een Natuurlijke Taalverwerkingshulpmiddel als ook een C++ en Python-bibliotheek voor het werken met standaard taalkundige constructies zoals n-grams en skipgrams (d.w.z. patronen met een of meerdere gaten van ofwel vaststaande, ofwel dynamische grootte) op een snelle en geheugenefficiënte manier. In de kern bevindt zich de colibri-patroonmodelleerder die het mogelijk maakt om doorzoekingspatroonmodellen te bouwen, bekijken en bewerken.
Grote Taalmodellen
- Hugging Face Dutch Models
- RobBERT: Een Nederlands RoBERTa Taalmodel
- BERTje: Een Nederlands BERT model
- GEITje: Een groot open taalmodel
Meertalige Taalmodellen inclusief het Nederlands
SpaCy
spaCy is een gratis open-source bibliotheek voor Natuurlijke Taalverwerking in Python.
Language Modeling Benchmarks
DUMB
DUMB is a benchmark for evaluating the quality of language models for Dutch NLP tasks. The set of tasks is designed to be diverse and challenging, to test the limits of current language models. The specific datasets and formats are particularly suitable for fine-tuning encoder models, and applicability for large generative models is yet to be determined. Please read the paper for more details.
LLM Leaderboard
This is a leaderboard for Dutch benchmarks for large language models.