Vragen en Antwoorden

From Clarin K-Centre
Revision as of 10:08, 18 April 2024 by Floyd (talk | contribs) (Created page with "==Is het mogelijk om het vinden van woordconversies voor specifieke corpora te automatiseren?== Denk je dat het mogelijk is om een lijst samen te stellen van conversieparen van het Nederlands, d.w.z. woorden die kunnen worden gebruikt in meer dan 1 spraakonderdeel, gebaseerd op corpora (of mogelijk ook treebanks)? Ik ben met name geïnteresseerd in de volgende onderdelen van spraak: naamwoorden, adjectieven en werkwoorden. Dus, bijvoorbeeld, het zoekalgoritme zou in staa...")
Jump to navigation Jump to search

Deze pagina biedt een lijst met vragen die we hebben ontvangen.

Hoe kan ik toegang krijgen tot CLARIN-hulpmiddelen en diensten, zonder een academisch account?

Het is mogelijk om een account aan te vragen via de CLARIN Accountregistratiepagina.

Hebben jullie domeinspecifieke corpora?

Op de hoofdpagina vindt u een lijst met verschillende soorten corpora die wij hebben. Domeinspecifieke corpora zijn de Parlementaire corpora en de Corpora van academische teksten. Onder de Parallele corpora bevinden zich ook domeinspecifieke corpora.

Zijn er literaire teksten beschikbaar?

Op de Publiek Domein Pagina kunt u een link vinden naar de downloadbare publieke domein bestanden van DBNL.

Is er een spraakherkenningsmachine beschikbaar voor Belgisch-Nederlands?

Sinds april 2022 is er een nieuwe ASR-machine beschikbaar, die specifiek geschikt is voor spraakherkenning van Belgisch-Nederlands..

Kijk ook op de pagina die is toegewijd aan Spraakherkennings systemen

Welke corpora zijn er beschikbaar voor automatische simplificatie van het Nederlands?

Er zijn momenteel geen paralelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.

Als u het zou overwegen om een vorm van onbeheerde simplificatie te ontwikkelen, dan zijn er echter meerdere corpora beschikbaar die zijn samengesteld in een vorm van eenvoudig Nederlands. Deze corpora zijn het Wablieft-corpus (Eenvoudig Belgisch-Nederlands), het Basilex-corpus (Teksten voor kinderen in Nederlandse basisscholen), en WAI-NOT (Zeer eenvoudig Belgisch-Nederlands).

Zijn er corpora die dialogen bevatten tussen twee of meer mensen?

Er zijn een aantal dialoogonderdelen in het CGN (Corpus Gesproken Nederlands).

  • a. Spontane conversaties ('face-to-face')
  • c. Telefoondialogen opgenomen m.b.v. platform
  • d. Telefoondialogen opgenomen m.b.v. minidiskrecorder
  • e. Zakelijke onderhandelingen

Daarnaast is er het IFA Dialoog Videocorpus.

Een verzameling van geannoteerde video-opnames van vriendelijke face-to-face dialogen. Het is gemodelleerd naar de face-to-face dialogen in het Corpus Gesproken Nederlands (CGN). De procedures en het ontwerp van het corpus zijn aangepast om dit corpus bruikbaar te maken voor andere onderzoekers van Nederlandse spraak. Voor dit corpus zijn 20 dialoogconversaties van 15 minuten opgenomen en geannoteerd, in totaal 5 uur aan spraak.

Advies voor het vinden van financiële steun voor het samenstellen van een vergelijkbaar medisch corpus Engels-Nederlands

We onderzoeken of het mogelijk is om dit te laten financieren door CLARIN Resource Families Projectfinanciering. Deze site geeft aan dat het het beste is om het idee eerst informeel in te sturen naar het CLARIN-kantoor, zodat zij erover kunnen adviseren ('Gezien de flexibele aard van dit telefoongesprek worden aanvragers bemoedigd om een projectidee op voorhand in te sturen, om het CLARIN-kantoor de mogelijkheid te bieden om aanvullende richtlijnen te geven en de haalbaarheid van de plannen te beoordelen.')

We zouden echter duidelijk moeten zijn of het hierbij gaat om een parallel corpus, dat een van de categorieën is binnen de Resource Families, of dat het hier gaat om een vergelijkbaar corpus, dat niet een van de categorieën is. We zouden het CLARIN-kantoor kunnen vragen of zij het bruikbaar zouden vinden om zo een categorie toe te voegen.

We zouden een aantal potentiële databronnen moeten identificeren en er zeker van moeten zijn dat dat we de verzamelde data openbaar beschikbaar zouden kunnen stellen zonder GDPR of IP-problemen.

We zouden rekening moeten houden met het EMEA-corpus in OPUS

Is het mogelijk om het vinden van woordconversies voor specifieke corpora te automatiseren?

Denk je dat het mogelijk is om een lijst samen te stellen van conversieparen van het Nederlands, d.w.z. woorden die kunnen worden gebruikt in meer dan 1 spraakonderdeel, gebaseerd op corpora (of mogelijk ook treebanks)? Ik ben met name geïnteresseerd in de volgende onderdelen van spraak: naamwoorden, adjectieven en werkwoorden. Dus, bijvoorbeeld, het zoekalgoritme zou in staat moeten zijn de vetgedrukte woorden als conversieparen te identificeren in de volgende voorbeelden:

  • ik douche / ik neem een douche
  • wij geloven in iets / zijn geloof in iets
  • de crimineel zweert zijn criminele gedrag af
  • wij onderhielden contacten / het onderhoud van het huis
  • wij droogden het droge laken
  • we trommelden op de trommel

Antwoord: Het e-Lex lexicon staat het toe om woordvormen te zoeken met meerdere POS-tags, zoals u vraagt. Dit lexicon is gebaseerd op CGN. Maar uw vraag gaat nog een stapje verder denk ik. Het werkwoord geloven heeft het lemma "geloven", en de conversie naar substantief heeft het lemma geloof. Daarom moeten we kijken of het substantief's lemma ook voorkomt als een werkwoordsvorm, idem dito voor adjectieven. Er is een perl-script geschreven dat de aangevraagde sets uit het lexiconbestand extraheerde -- resultaten werden gestuurd naar de aanvrager.

I am looking for spoken and written corpora for a contrastive study German/Dutch in which I can find actual word forms

We refer you to OpenSonar which is the only search engine for both the Spoken Dutch Corpus (CGN) and the SoNaR reference corpus and is available with CLARIN login. An alternative can be the [ http://chn.ivdnt.org/ Corpus Hedendaags Nederlands (CHN) website] which is the online search engine for the Corpus of Contemporary Dutch (CHN). If you need more recent data, at INT we have a monitor corpus with weekly newspaper dumps at our disposal in which we can launch searches for you -- unfortunately we cannot make this monitor corpus available due to IP restrictions.

I want to find all Dutch lemmas in which there is double derivation, can you help me?

The eLex lexicon contains as its third data field the morphology of lemmas. We extracted all rows in the data in which the sign for derivation (|) occurs twice in a row and provided our user with a detailed list of entries and how often they occur in the e-Lex.

(ing)[N|V.](s)[N|N.N]	9344
(heid)[N|A.](s)[N|N.N]	1470
(er)[N|V.](s)[N|N.N]	1230
(ig)[A|N.](heid)[N|A.]	937
(atie)[N|V.](ief)[A|N.]	769
(iseer)[V|N.](atie)[N|V.]	603
...

Can I get a distribution of the suffixes on Dutch adjectives?

The eLex lexicon contains as its third data field the morphology of lemmas. We counted, per lemma id that is an adjective the frequency of the last suffix. For no morphology, we assigned category '0'.

0	11781
(ig)	1781
(achtig)	507
(baar)	473
(isch)	431
(elijk)	392
(end)	367
(en)	292
(s)	278
(lijk)	237
(erig)	229
(ief)	168
(aal)	155
(loos)	138
(d)	116
...

I want to use the CGN wave files, but found a dead link on the original website

There is a permanent link for the CGN wave file download page: http://hdl.handle.net/10032/tm-a2-k6

Which treebanks are available for Dutch?

We have added the Treebanks page to this wiki to answer this question.

Is there a corpus with imperative sentences?

There is no such explicit corpus available. If we provide GrETEL with an imperative example we can extract similar sentences, which should be usable as an imperative corpus.

We will run some topic modeling analyses on some Flemish/Belgian Dutch data we have. Because our data set is relatively small for this kind of task, the idea is to train the topic model on a much larger corpus (e.g. social media posts). Do you know of any such corpus that might be available?

Take a look at [1]

How can I calculate the readability of Dutch text?

There is a tool called T-scan that may be helpful there.

How can I calculate Flesch-Douma for Dutch?

The formula for Flesch-Douma requires two things to be counted: number of words in a sentence and number of syllables per word. While the number of words in a sentence is easily counted with any scripting language, the nr of syllables may seem more difficult. The [ http://hdl.handle.net/10032/tm-a2-h2 e-Lex] lexicon contains hyphenation patterns and hence the number of syllables per word. An alternative is to count the number of vowel clusters in each word using regular expressions, which should also give you the number of syllables.

I am looking for a parallel corpus of Dutch-Turkish texts.

We are comparing the Dutch and Turkish translations of the Linguistic Inquiry and Word Count [LIWC] dictionaries. Do you know of any corpora that would be suitable? I found several candidates on OPUS (https://opus.nlpl.eu/), and downloaded the TED2020 talks. However these are .xml files with paragraph/line IDs and I need .txt files. Would you have a script or a way to automatically recode them and remove the unnecessary tags?

We would also refer you to OPUS, you can find parallel txt files if you download the moses format -- then you get a zip which contains a .nl and a .tr file, and these are sentence aligned. i.e. the same line number in the two files should be translations of each other.

Do you know, are there any reasonable sentiment analysis algorithms/approaches for Dutch?

We have now added a page on sentiment analysis to this wiki.

Are there any spoken corpora available of spontaneous speech with time stamped transcriptions, which are freely available?

On [2] we've collected what is available for Dutch.

The Corpus Gesproken Nederlands (CGN) has a section of spontaneous speech, with time-stamped transcriptions, freely available.

How can I combine search for "green" and "red" word order in OpenSonar?

In principle it is possible to ask for both orders at the same time, see the example for more info.

Can you give advice on setting up a transcription process for a spoken language corpus?

A meeting was held in which we discussed the use of speech recognition, segmentation, speaker diarisation, and post-editing of speech recognition. We have given the advice to include K-Dutch into the project proposal so that K-Dutch can take care of converting ASR output to ELAN tiers, merging of ELAN tiers etc.

What are the character n-gram frequencies for Dutch?

We have counted the n-gram frequencies up to trigrams and made them available at Character_N-grams.

Is there an user friendly interface for working with the EMEA part of the Lassy-Large treebank?

Lassy Large is extremely large, and therefore not entirely available through online query tools such as GrETEL and PaQu, although the latter provides access to the newspaper part. A suggestion is to download the data and then import it into an xml database engine, such as Basex which will allow you to query it with Xpath and Xquery.

What are good POS taggers for non-standard Dutch?

See Basic_language_processing page.

Are there any lexical profiling tools for Dutch?

The request is whether there are any user friendly and freely available tools with which teachers can assess the lexical profile of a text (to which frequency levels do the words belong, how many of the most frequent words should a reader know to understand 95% etc.)

While we are not aware of any tools that do such a thing explicitly, there are a number of tools that go partly that way. We suggest taking a look at

  • LINT which assesses the readability of a text
  • T-scan which is what LINT is based on, and which is a bit less user friendly

There are also a number of tools that can be found at Instituut voor Levende Talen

Is there a word list of difficult words for Dutch?

While this question is about difficult words, we mainly have word lists of easy words at our disposal:

  • There is the BasiLex lexicon that contains words aimed at children up to 12 years old
  • There is the BasiScript lexicon that contains words produced by children up to 12 years old
  • There are frequency lists available for a number of different corpora, each listing the 5000 most frequent words: http://hdl.handle.net/10032/tm-a2-f8
  • The NT2Lex provides a lexicon with words and how they occur in texts aimed at specific CEFR levels.

If a word does not occur in a list of easy words, that could be used as a measure for word difficulty. But, difficulty is determined more than just by words, i.e. there is also syntactic complexity.

You could use e.g. the T-scan tool that measures complexity of texts.

Is there a text only version of the Corpus Spoken Dutch?

The download files of the Corpus Spoken Dutch (CGN) do not contain the text only. The ort files contain ortographic transcriptions and timestamps and the plk files contain part-of-speech and lemma information. The following perl script takes a list of plk files as input and prints the text. If you run this script from the command line in your terminal, then you can create text files.


binmode(STDOUT, ":utf8");

while ($in=shift(@ARGV)) {

   print STDERR "Processing $in\n";

   open(F,$in);

   while (<F>) {

       if (/^<au/) {

           if (@words>0) {

               print join(" ",@words)."\n";

           }

           @words=();

       }

       else {

           ($word,$tag,$lem)=split(/\t/);

           push(@words,$word);

       }

   }

}