Language modeling/nl: Difference between revisions
(Created page with "* [https://dumbench.nl/ DuMB]") |
(Created page with "== Taalmodelleringsbenchmarks == ===DUMB=== DUMB is een benchmark voor het evalueren van de kwaliteit van taalmodellen voor Nederlandse Natuurlijke Taalverwerkingstaken. De set met taken is ontworpen om divers en uitdagend te zijn en de limieten van de bestaande taalmodellen te testen. De specifieke datasets en formaten zijn met name geschikt voor het finetunen van encodermodellen en toepasbaarheid voor grote generatieve modellen moet nog worden vastgesteld. Meer details...") |
||
Line 25: | Line 25: | ||
* [https://dumbench.nl/ DuMB] | * [https://dumbench.nl/ DuMB] | ||
===LLM Scorebord=== | |||
===LLM | Dit is een scorebord voor Nederlandse benchmarks voor grote taalmodellen. | ||
* [https://huggingface.co/spaces/BramVanroy/open_dutch_llm_leaderboard Open Nederlands LLM Scorebord] | |||
* [https://huggingface.co/spaces/BramVanroy/open_dutch_llm_leaderboard Open | |||
Revision as of 14:23, 3 April 2024
n-gram modellering
'Colibri core' is een Natuurlijke Taalverwerkingshulpmiddel als ook een C++ en Python-bibliotheek voor het werken met standaard taalkundige constructies zoals n-grams en skipgrams (d.w.z. patronen met een of meerdere gaten van ofwel vaststaande, ofwel dynamische grootte) op een snelle en geheugenefficiënte manier. In de kern bevindt zich de colibri-patroonmodelleerder die het mogelijk maakt om doorzoekingspatroonmodellen te bouwen, bekijken en bewerken.
Grote Taalmodellen
- Hugging Face Dutch Models
- RobBERT: Een Nederlands RoBERTa Taalmodel
- BERTje: Een Nederlands BERT model
- GEITje: Een groot open taalmodel
Meertalige Taalmodellen inclusief het Nederlands
SpaCy
spaCy is een gratis open-source bibliotheek voor Natuurlijke Taalverwerking in Python.
Taalmodelleringsbenchmarks
DUMB
DUMB is een benchmark voor het evalueren van de kwaliteit van taalmodellen voor Nederlandse Natuurlijke Taalverwerkingstaken. De set met taken is ontworpen om divers en uitdagend te zijn en de limieten van de bestaande taalmodellen te testen. De specifieke datasets en formaten zijn met name geschikt voor het finetunen van encodermodellen en toepasbaarheid voor grote generatieve modellen moet nog worden vastgesteld. Meer details zijn te lezen in het paper dat via onderstaande link te vinden is.
LLM Scorebord
Dit is een scorebord voor Nederlandse benchmarks voor grote taalmodellen.