Language modeling/nl: Difference between revisions

From Clarin K-Centre
Jump to navigation Jump to search
(Created page with "* [https://dumbench.nl/ DuMB]")
(Created page with "== Taalmodelleringsbenchmarks == ===DUMB=== DUMB is een benchmark voor het evalueren van de kwaliteit van taalmodellen voor Nederlandse Natuurlijke Taalverwerkingstaken. De set met taken is ontworpen om divers en uitdagend te zijn en de limieten van de bestaande taalmodellen te testen. De specifieke datasets en formaten zijn met name geschikt voor het finetunen van encodermodellen en toepasbaarheid voor grote generatieve modellen moet nog worden vastgesteld. Meer details...")
Line 25: Line 25:
* [https://dumbench.nl/ DuMB]
* [https://dumbench.nl/ DuMB]


<div lang="en" dir="ltr" class="mw-content-ltr">
===LLM Scorebord===
===LLM Leaderboard===
Dit is een scorebord voor Nederlandse benchmarks voor grote taalmodellen.
This is a leaderboard for Dutch benchmarks for large language models.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
* [https://huggingface.co/spaces/BramVanroy/open_dutch_llm_leaderboard Open Nederlands LLM Scorebord]
* [https://huggingface.co/spaces/BramVanroy/open_dutch_llm_leaderboard Open Dutch LLM Leaderboard]
</div>

Revision as of 14:23, 3 April 2024

n-gram modellering

'Colibri core' is een Natuurlijke Taalverwerkingshulpmiddel als ook een C++ en Python-bibliotheek voor het werken met standaard taalkundige constructies zoals n-grams en skipgrams (d.w.z. patronen met een of meerdere gaten van ofwel vaststaande, ofwel dynamische grootte) op een snelle en geheugenefficiënte manier. In de kern bevindt zich de colibri-patroonmodelleerder die het mogelijk maakt om doorzoekingspatroonmodellen te bouwen, bekijken en bewerken.

Grote Taalmodellen

Meertalige Taalmodellen inclusief het Nederlands

SpaCy

spaCy is een gratis open-source bibliotheek voor Natuurlijke Taalverwerking in Python.

Taalmodelleringsbenchmarks

DUMB

DUMB is een benchmark voor het evalueren van de kwaliteit van taalmodellen voor Nederlandse Natuurlijke Taalverwerkingstaken. De set met taken is ontworpen om divers en uitdagend te zijn en de limieten van de bestaande taalmodellen te testen. De specifieke datasets en formaten zijn met name geschikt voor het finetunen van encodermodellen en toepasbaarheid voor grote generatieve modellen moet nog worden vastgesteld. Meer details zijn te lezen in het paper dat via onderstaande link te vinden is.

LLM Scorebord

Dit is een scorebord voor Nederlandse benchmarks voor grote taalmodellen.