Q&A/nl: Difference between revisions

From Clarin K-Centre
Jump to navigation Jump to search
(Created page with "==Hoe kan ik Flesch-Douma berekenen voor het Nederlands?== De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex]-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een al...")
(Created page with "Wij zouden u ook verwijzen naar OPUS, daar kunt u parallelle txt-bestanden vinden als u het Moses-formaat downloadt -- dan krijgt u een zip dat een .nl en een .tr bestand bevat en deze zijn uitgelijnd op basis van zinnen. Dat betekent dat hetzelfde lijnnummer in de twee bestanden de vertalingen van elkaar zouden moeten zijn.")
Line 117: Line 117:
De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex]-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een alternatief is om het aantal klinkerclusters in elk woord te tellen met gebruik van reguliere uitdrukkingen. Dit zou ook het aantal lettergrepen moeten opleveren.
De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex]-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een alternatief is om het aantal klinkerclusters in elk woord te tellen met gebruik van reguliere uitdrukkingen. Dit zou ook het aantal lettergrepen moeten opleveren.


<div lang="en" dir="ltr" class="mw-content-ltr">
==Ik zoek een parallel corpus van Nederlands-Turkse teksten.==
==I am looking for a parallel corpus of Dutch-Turkish texts.==
We vergelijken de Nederlandse en Turkse vertalingen van de
We are comparing the Dutch and Turkish translations of the Linguistic Inquiry and Word Count [LIWC] dictionaries. Do you know of any corpora that would be suitable?
Linguistic Inquiry and Word Count [LIWC] woordenboeken. Kent u enige corpora die geschikt zouden kunnen zijn?
I found several candidates on OPUS (https://opus.nlpl.eu/), and downloaded the TED2020 talks. However these are .xml files with paragraph/line IDs and I need .txt files. Would you have a script or a way to automatically recode them and remove the unnecessary tags?
Ik heb verscheidene kandidaten gevonden op OPUS (https://opus.nlpl.eu/) en heb de TED2020-lezingen gedownload. Echter, dit zijn .xml-bestanden met paragraaf/lijn IDs en ik heb .txt-bestanden nodig. Heeft u wellicht een script of een manier om deze bestanden automatisch anders te coderen en de onnodige tags te verwijderen?
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Wij zouden u ook verwijzen naar OPUS, daar kunt u parallelle txt-bestanden vinden als u het Moses-formaat downloadt -- dan krijgt u een zip dat een .nl en een .tr bestand bevat en deze zijn uitgelijnd op basis van zinnen. Dat betekent dat hetzelfde lijnnummer in de twee bestanden de vertalingen van elkaar zouden moeten zijn.
We would also refer you to OPUS, you can find parallel txt files if you download the moses format -- then you get a zip which contains a .nl and a .tr file, and these are sentence aligned. i.e. the same line number in the two files should be translations of each other.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<div lang="en" dir="ltr" class="mw-content-ltr">

Revision as of 11:45, 18 April 2024

Deze pagina biedt een lijst met vragen die we hebben ontvangen.

Hoe kan ik toegang krijgen tot CLARIN-hulpmiddelen en diensten, zonder een academisch account?

Het is mogelijk om een account aan te vragen via de CLARIN Accountregistratiepagina.

Hebben jullie domeinspecifieke corpora?

Op de hoofdpagina vindt u een lijst met verschillende soorten corpora die wij hebben. Domeinspecifieke corpora zijn de Parlementaire corpora en de Corpora van academische teksten. Onder de Parallele corpora bevinden zich ook domeinspecifieke corpora.

Zijn er literaire teksten beschikbaar?

Op de Publiek Domein Pagina kunt u een link vinden naar de downloadbare publieke domein bestanden van DBNL.

Is er een spraakherkenningsmachine beschikbaar voor Belgisch-Nederlands?

Sinds april 2022 is er een nieuwe ASR-machine beschikbaar, die specifiek geschikt is voor spraakherkenning van Belgisch-Nederlands..

Kijk ook op de pagina die is toegewijd aan Spraakherkennings systemen

Welke corpora zijn er beschikbaar voor automatische simplificatie van het Nederlands?

Er zijn momenteel geen paralelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.

Als u het zou overwegen om een vorm van onbeheerde simplificatie te ontwikkelen, dan zijn er echter meerdere corpora beschikbaar die zijn samengesteld in een vorm van eenvoudig Nederlands. Deze corpora zijn het Wablieft-corpus (Eenvoudig Belgisch-Nederlands), het Basilex-corpus (Teksten voor kinderen in Nederlandse basisscholen), en WAI-NOT (Zeer eenvoudig Belgisch-Nederlands).

Zijn er corpora die dialogen bevatten tussen twee of meer mensen?

Er zijn een aantal dialoogonderdelen in het CGN (Corpus Gesproken Nederlands).

  • a. Spontane conversaties ('face-to-face')
  • c. Telefoondialogen opgenomen m.b.v. platform
  • d. Telefoondialogen opgenomen m.b.v. minidiskrecorder
  • e. Zakelijke onderhandelingen

Daarnaast is er het IFA Dialoog Videocorpus.

Een verzameling van geannoteerde video-opnames van vriendelijke face-to-face dialogen. Het is gemodelleerd naar de face-to-face dialogen in het Corpus Gesproken Nederlands (CGN). De procedures en het ontwerp van het corpus zijn aangepast om dit corpus bruikbaar te maken voor andere onderzoekers van Nederlandse spraak. Voor dit corpus zijn 20 dialoogconversaties van 15 minuten opgenomen en geannoteerd, in totaal 5 uur aan spraak.

Advies voor het vinden van financiële steun voor het samenstellen van een vergelijkbaar medisch corpus Engels-Nederlands

We onderzoeken of het mogelijk is om dit te laten financieren door CLARIN Resource Families Projectfinanciering. Deze site geeft aan dat het het beste is om het idee eerst informeel in te sturen naar het CLARIN-kantoor, zodat zij erover kunnen adviseren ('Gezien de flexibele aard van dit telefoongesprek worden aanvragers bemoedigd om een projectidee op voorhand in te sturen, om het CLARIN-kantoor de mogelijkheid te bieden om aanvullende richtlijnen te geven en de haalbaarheid van de plannen te beoordelen.')

We zouden echter duidelijk moeten zijn of het hierbij gaat om een parallel corpus, dat een van de categorieën is binnen de Resource Families, of dat het hier gaat om een vergelijkbaar corpus, dat niet een van de categorieën is. We zouden het CLARIN-kantoor kunnen vragen of zij het bruikbaar zouden vinden om zo een categorie toe te voegen.

We zouden een aantal potentiële databronnen moeten identificeren en er zeker van moeten zijn dat dat we de verzamelde data openbaar beschikbaar zouden kunnen stellen zonder GDPR of IP-problemen.

We zouden rekening moeten houden met het EMEA-corpus in OPUS

Is het mogelijk om het vinden van woordconversies voor specifieke corpora te automatiseren?

Denk je dat het mogelijk is om een lijst samen te stellen van conversieparen van het Nederlands, d.w.z. woorden die kunnen worden gebruikt in meer dan 1 spraakonderdeel, gebaseerd op corpora (of mogelijk ook treebanks)? Ik ben met name geïnteresseerd in de volgende onderdelen van spraak: naamwoorden, adjectieven en werkwoorden. Dus, bijvoorbeeld, het zoekalgoritme zou in staat moeten zijn de vetgedrukte woorden als conversieparen te identificeren in de volgende voorbeelden:

  • ik douche / ik neem een douche
  • wij geloven in iets / zijn geloof in iets
  • de crimineel zweert zijn criminele gedrag af
  • wij onderhielden contacten / het onderhoud van het huis
  • wij droogden het droge laken
  • we trommelden op de trommel

Antwoord: Het e-Lex lexicon staat het toe om woordvormen te zoeken met meerdere POS-tags, zoals u vraagt. Dit lexicon is gebaseerd op CGN. Maar uw vraag gaat nog een stapje verder denk ik. Het werkwoord geloven heeft het lemma "geloven", en de conversie naar substantief heeft het lemma geloof. Daarom moeten we kijken of het lemma van het substantief ook voorkomt als een werkwoordsvorm, idem dito voor adjectieven. Er is een perl-script geschreven dat de aangevraagde sets uit het lexiconbestand extraheerde -- resultaten werden gestuurd naar de aanvrager.

Ik zoek gesproken en geschreven corpora voor een contrastief onderzoek Duits-Nederlands waarin ik daadwerkelijk woordvormen kan vinden

Wij verwijzen u naar OpenSonar dat de enige zoekmachine is voor zowel het Corpus Gesproken Nederlands (CGN) als ook het SoNaR-referentiecorpus. Deze zoekmachine is beschikbaar via CLARIN-login. Een alternatief kan het Corpus Hedendaags Nederlands (CHN) zijn, dat de enige zoekmachine is voor het Corpus Hedendaags Nederlands. Als u recentere data nodig heeft, dan hebben wij bij het INT een monitor-corpus met wekelijkse nieuwsbriefdumps tot onze beschikking waarin we zoekopdrachten kunnen lanceren voor u. -- helaas kunnen we dit monitor-corpus niet beschikbaar stellen vanwege IP-restricties.

Ik wil alle Nederlandse lemma's vinden waarin een dubbele afleiding zit, kunt u me helpen?

Het e-Lex-lexicon bevat als zijn derde dataveld de morfologie van lemma's. We hebben alle rijen in de data geëxtraheerd waarin het teken voor afleiding (|) twee keer op rij voorkwam en de gebruiker een gedetailleerde lijst aangeboden van invoeropdrachten en hoe regelmatig deze voorkomen in het e-Lex.

(ing)[N|V.](s)[N|N.N]	9344
(heid)[N|A.](s)[N|N.N]	1470
(er)[N|V.](s)[N|N.N]	1230
(ig)[A|N.](heid)[N|A.]	937
(atie)[N|V.](ief)[A|N.]	769
(iseer)[V|N.](atie)[N|V.]	603
...

Kan ik een verdeling krijgen van de achtervoegsels van Nederlandse adjectieven?

Het e-Lex-lexicon bevat als zijn derde dataveld de morfologie van lemma's. We hebben geteld per lemma-id dat een adjectief is voor de frequentie van het laatste achtervoegsel. Voor geen morfologie hebben we de categorie '0' toegewezen.

0	11781
(ig)	1781
(achtig)	507
(baar)	473
(isch)	431
(elijk)	392
(end)	367
(en)	292
(s)	278
(lijk)	237
(erig)	229
(ief)	168
(aal)	155
(loos)	138
(d)	116
...

Ik wil CGN wave-bestanden gebruiken, maar vond een dode link op de originele website

Er is een permanente link voor de CGN wave-bestand download pagina: http://hdl.handle.net/10032/tm-a2-k6

Welke treebanks zijn er beschikbaar voor het Nederlands?

We hebben deTreebanks pagina toegevoegd aan deze wiki om antwoord te geven op deze vraag.

Is er een corpus met gebiedende zinnen?

Er is niet zo een expliciet corpus beschikbaar. Als we GrETEL een gebiedend voorbeeld aanbieden kunnen we gelijksoortige zinnen extraheren, die gebruikt zouden kunnen worden als een gebiedend corpus.

We zullen wat onderwerpsmodelleringsanalyses toepassen op wat Vlaams/Belgisch-Nederlandse data die we hebben. Omdat onze dataset relatief klein is voor deze soort taak, is het idee om het onderwerpmodel te trainen op een veel groter corpus (bijv. social media posts). Weet u of zo een corpus wellicht beschikbaar is?

Neem een kijkje op [1]

Hoe kan ik de leesbaarheid van een Nederlandse tekst berekenen?

Er is een hulpmiddel genaamd T-scan dat wellicht nuttig is daarvoor.

Hoe kan ik Flesch-Douma berekenen voor het Nederlands?

De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het e-Lex-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een alternatief is om het aantal klinkerclusters in elk woord te tellen met gebruik van reguliere uitdrukkingen. Dit zou ook het aantal lettergrepen moeten opleveren.

Ik zoek een parallel corpus van Nederlands-Turkse teksten.

We vergelijken de Nederlandse en Turkse vertalingen van de Linguistic Inquiry and Word Count [LIWC] woordenboeken. Kent u enige corpora die geschikt zouden kunnen zijn? Ik heb verscheidene kandidaten gevonden op OPUS (https://opus.nlpl.eu/) en heb de TED2020-lezingen gedownload. Echter, dit zijn .xml-bestanden met paragraaf/lijn IDs en ik heb .txt-bestanden nodig. Heeft u wellicht een script of een manier om deze bestanden automatisch anders te coderen en de onnodige tags te verwijderen?

Wij zouden u ook verwijzen naar OPUS, daar kunt u parallelle txt-bestanden vinden als u het Moses-formaat downloadt -- dan krijgt u een zip dat een .nl en een .tr bestand bevat en deze zijn uitgelijnd op basis van zinnen. Dat betekent dat hetzelfde lijnnummer in de twee bestanden de vertalingen van elkaar zouden moeten zijn.

Do you know, are there any reasonable sentiment analysis algorithms/approaches for Dutch?

We have now added a page on sentiment analysis to this wiki.

Are there any spoken corpora available of spontaneous speech with time stamped transcriptions, which are freely available?

On [2] we've collected what is available for Dutch.

The Corpus Gesproken Nederlands (CGN) has a section of spontaneous speech, with time-stamped transcriptions, freely available.

How can I combine search for "green" and "red" word order in OpenSonar?

In principle it is possible to ask for both orders at the same time, see the example for more info.

Can you give advice on setting up a transcription process for a spoken language corpus?

A meeting was held in which we discussed the use of speech recognition, segmentation, speaker diarisation, and post-editing of speech recognition. We have given the advice to include K-Dutch into the project proposal so that K-Dutch can take care of converting ASR output to ELAN tiers, merging of ELAN tiers etc.

What are the character n-gram frequencies for Dutch?

We have counted the n-gram frequencies up to trigrams and made them available at Character_N-grams.

Is there an user friendly interface for working with the EMEA part of the Lassy-Large treebank?

Lassy Large is extremely large, and therefore not entirely available through online query tools such as GrETEL and PaQu, although the latter provides access to the newspaper part. A suggestion is to download the data and then import it into an xml database engine, such as Basex which will allow you to query it with Xpath and Xquery.

What are good POS taggers for non-standard Dutch?

See Basic_language_processing page.

Are there any lexical profiling tools for Dutch?

The request is whether there are any user friendly and freely available tools with which teachers can assess the lexical profile of a text (to which frequency levels do the words belong, how many of the most frequent words should a reader know to understand 95% etc.)

While we are not aware of any tools that do such a thing explicitly, there are a number of tools that go partly that way. We suggest taking a look at

  • LINT which assesses the readability of a text
  • T-scan which is what LINT is based on, and which is a bit less user friendly

There are also a number of tools that can be found at Instituut voor Levende Talen

Is there a word list of difficult words for Dutch?

While this question is about difficult words, we mainly have word lists of easy words at our disposal:

  • There is the BasiLex lexicon that contains words aimed at children up to 12 years old
  • There is the BasiScript lexicon that contains words produced by children up to 12 years old
  • There are frequency lists available for a number of different corpora, each listing the 5000 most frequent words: http://hdl.handle.net/10032/tm-a2-f8
  • The NT2Lex provides a lexicon with words and how they occur in texts aimed at specific CEFR levels.

If a word does not occur in a list of easy words, that could be used as a measure for word difficulty. But, difficulty is determined more than just by words, i.e. there is also syntactic complexity.

You could use e.g. the T-scan tool that measures complexity of texts.

Is there a text only version of the Corpus Spoken Dutch?

The download files of the Corpus Spoken Dutch (CGN) do not contain the text only. The ort files contain ortographic transcriptions and timestamps and the plk files contain part-of-speech and lemma information. The following perl script takes a list of plk files as input and prints the text. If you run this script from the command line in your terminal, then you can create text files.


binmode(STDOUT, ":utf8");

while ($in=shift(@ARGV)) {

   print STDERR "Processing $in\n";

   open(F,$in);

   while (<F>) {

       if (/^<au/) {

           if (@words>0) {

               print join(" ",@words)."\n";

           }

           @words=();

       }

       else {

           ($word,$tag,$lem)=split(/\t/);

           push(@words,$word);

       }

   }

}