Q&A/nl: Difference between revisions

From Clarin K-Centre
Jump to navigation Jump to search
(Created page with "* Download: https://taalmaterialen.ivdnt.org/download/tstc-corpus-gesproken-nederlands/ * Online zoeken: https://portal.clarin.inl.nl/opensonar_frontend/opensonar/search")
(Created page with "Er zijn momenteel geen parallelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.")
 
(44 intermediate revisions by 3 users not shown)
Line 1: Line 1:
<languages/>
Deze pagina biedt een lijst met vragen die we hebben ontvangen.
Deze pagina biedt een lijst met vragen die we hebben ontvangen.


<span id="How_can_I_get_access_to_CLARIN_tools_and_resources,_without_an_academic_account?"></span>
==Hoe kan ik toegang krijgen tot CLARIN-hulpmiddelen en diensten, zonder een academisch account?==
==Hoe kan ik toegang krijgen tot CLARIN-hulpmiddelen en diensten, zonder een academisch account?==
Het is mogelijk om een account aan te vragen via de [https://idm.clarin.eu/unitygw/pub#!registration-CLARIN%20Identity%20Registration CLARIN Accountregistratiepagina].


Het is mogelijk om een account aan te vragen via de [https://idm.clarin.eu/unitygw/pub#!registration-CLARIN%20Identity%20Registration CLARIN-accountregistratiepagina].
<span id="Do_you_have_any_domain_specific_corpora?"></span>
==Hebben jullie domeinspecifieke corpora?==
==Hebben jullie domeinspecifieke corpora?==
Op de [https://kdutch.ivdnt.org/wiki/K-Dutch#Corpora hoofdpagina] vindt u een lijst met verschillende soorten corpora die wij hebben. Domeinspecifieke corpora zijn de [[Parlementaire corpora]] en de  [[Corpora van academische teksten]]. Onder de [[Parallele corpora]] bevinden zich ook domeinspecifieke corpora.


Op de [https://kdutch.ivdnt.org/wiki/K-Dutch/nl#Corpora hoofdpagina] vindt u een lijst met verschillende soorten corpora die wij hebben. Domeinspecifieke corpora zijn de [[Parlementaire corpora]] en de  [[Corpora van academische teksten]]. Onder de [[Parallele corpora]] bevinden zich ook domeinspecifieke corpora.
<span id="Are_there_literary_texts_available?"></span>
==Zijn er literaire teksten beschikbaar?==
==Zijn er literaire teksten beschikbaar?==
Op de [https://kdutch.ivdnt.org/wiki/Historical_corpora#Public_Domain_Data_.40_DBNL Publiek Domein Pagina] kunt u een link vinden naar de downloadbare publieke domein bestanden van DBNL.


Op de [https://kdutch.ivdnt.org/wiki/Historical_corpora#Public_Domain_Data_.40_DBNL Publiek Domein Pagina] kunt u een link vinden naar de downloadbare publiekedomeinbestanden van DBNL.
<span id="Is_there_a_speech_recognition_engine_available_for_Belgian_Dutch?"></span>
==Is er een spraakherkenningsmachine beschikbaar voor Belgisch-Nederlands?==
==Is er een spraakherkenningsmachine beschikbaar voor Belgisch-Nederlands?==
Sinds april 2022 is er een nieuwe ASR-machine beschikbaar, die specifiek geschikt is voor spraakherkenning van Belgisch-Nederlands..
 
Sinds april 2022 is er een nieuwe ASR-machine beschikbaar, die specifiek geschikt is voor spraakherkenning van Belgisch-Nederlands.
*[https://www.spraak.org/webservice/dutch_asr/ Online webservice] TIJDELIJK ONBESCHIKBAAR
*[https://www.spraak.org/webservice/dutch_asr/ Online webservice] TIJDELIJK ONBESCHIKBAAR
*[https://clinjournal.org/clinj/article/view/119 Wetenschappelijke publicatie over de spraakherkenningsmachine.]
*[https://clinjournal.org/clinj/article/view/119 Wetenschappelijke publicatie over de spraakherkenningsmachine.]


Kijk ook op de pagina die is toegewijd aan [[Spraakherkennings]] systemen
Kijk ook op de pagina die is toegewijd aan [https://kdutch.ivdnt.org/wiki/Speech_recognition/nl Spraakherkenningssystemen]


<span id="Which_corpora_are_available_for_Automatic_Simplification_for_Dutch?"></span>
==Welke corpora zijn er beschikbaar voor automatische simplificatie van het Nederlands?==
==Welke corpora zijn er beschikbaar voor automatische simplificatie van het Nederlands?==
Er zijn momenteel geen paralelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.


Als u het zou overwegen om een vorm van onbeheerde simplificatie te ontwikkelen, dan zijn er echter meerdere corpora beschikbaar die zijn samengesteld in een vorm van eenvoudig Nederlands. Deze corpora zijn het [http://hdl.handle.net/10032/tm-a2-q6 Wablieft-corpus] (Eenvoudig Belgisch-Nederlands), het [http://hdl.handle.net/10032/tm-a2-n4 Basilex-corpus] (Teksten voor kinderen in Nederlandse basisscholen), en [http://hdl.handle.net/10032/tm-a2-t9 WAI-NOT] (Zeer eenvoudig Belgisch-Nederlands).
Er zijn momenteel geen parallelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.  


Als u het zou overwegen om een vorm van onbeheerde simplificatie te ontwikkelen, dan zijn er echter meerdere corpora beschikbaar met teksten in een Nederlands dat als eenvoudig beschouwd kan worden. Deze corpora zijn het [http://hdl.handle.net/10032/tm-a2-q6 Wablieft-corpus] (Eenvoudig Belgisch-Nederlands), het [http://hdl.handle.net/10032/tm-a2-n4 Basilex-corpus] (Teksten voor kinderen in Nederlandse basisscholen), en [http://hdl.handle.net/10032/tm-a2-t9 WAI-NOT] (Zeer eenvoudig Belgisch-Nederlands).
<span id="Are_there_any_corpora_that_contain_dialogues_between_two_or_more_people?"></span>
==Zijn er corpora die dialogen bevatten tussen twee of meer mensen?==
==Zijn er corpora die dialogen bevatten tussen twee of meer mensen?==
Er zijn een aantal dialoogonderdelen in het CGN (Corpus Gesproken Nederlands).  
Er zijn een aantal dialoogonderdelen in het CGN (Corpus Gesproken Nederlands).  
* a. Spontane conversaties ('face-to-face')
* a. Spontane conversaties ('face-to-face')
Line 32: Line 45:
* Online zoeken: https://portal.clarin.inl.nl/opensonar_frontend/opensonar/search
* Online zoeken: https://portal.clarin.inl.nl/opensonar_frontend/opensonar/search


<div lang="en" dir="ltr" class="mw-content-ltr">
Daarnaast is er het [https://www.fon.hum.uva.nl/IFA-SpokenLanguageCorpora/IFADVcorpus/ IFA Dialoog Videocorpus].  
There is also the [https://www.fon.hum.uva.nl/IFA-SpokenLanguageCorpora/IFADVcorpus/ IFA Dialog Video corpus].
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Een verzameling van geannoteerde video-opnames van vriendelijke face-to-face-dialogen. Het is gemodelleerd naar de face-to-face-dialogen in het Corpus Gesproken Nederlands (CGN). De procedures en het ontwerp van het corpus zijn aangepast om dit corpus bruikbaar te maken voor andere onderzoekers van Nederlandse spraak. Voor dit corpus zijn 20 dialoogconversaties van 15 minuten opgenomen en geannoteerd, in totaal 5 uur aan spraak.
"A collection of annotated video recordings of friendly Face-to-Face dialogs. It is modelled on the Face-to-Face dialogs in the Spoken Dutch Corpus (CGN). The procedures and design of the corpus were adapted to make this corpus useful for other researchers of Dutch speech. For this corpus 20 dialog conversations of 15 minutes were recorded and annotated, in total 5 hours of speech."
* Download: https://taalmaterialen.ivdnt.org/download/tstc-ifa-dialoog-videocorpus/
* Download: https://taalmaterialen.ivdnt.org/download/tstc-ifa-dialoog-videocorpus/
* Online data: https://www.fon.hum.uva.nl/IFA-SpokenLanguageCorpora/IFADVcorpus/
* Online data: https://www.fon.hum.uva.nl/IFA-SpokenLanguageCorpora/IFADVcorpus/
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Advice_for_finding_financial_support_for_compiling_a_medical_comparable_corpus_English-Dutch"></span>
==Advice for finding financial support for compiling a medical comparable corpus English-Dutch==
==Advies voor het vinden van financiële steun voor het samenstellen van een vergelijkbaar medisch corpus Engels-Nederlands==
We are looking into whether this is fundable by [https://www.clarin.eu/content/clarin-resource-families-project-funding CLARIN Resource Families Project Funding]. The site indicates that it is best to first submit the idea informally to the CLARIN office, so they can advise us ("In view of the flexible nature of this call, applicants are encouraged to send in a project idea beforehand, in order to allow CLARIN Office to give additional guidelines and assess the eligibility of plans.")
 
</div>
We onderzoeken of het mogelijk is om dit te laten financieren door de [https://www.clarin.eu/content/clarin-resource-families-project-funding CLARIN Resource Families Projectfinanciering]. Deze site geeft aan dat het het beste is om het idee eerst informeel in te sturen naar het CLARIN-kantoor, zodat zij erover kunnen adviseren ('Gezien de flexibele aard van dit telefoongesprek worden aanvragers bemoedigd om een projectidee op voorhand in te sturen, om het CLARIN-kantoor de mogelijkheid te bieden om aanvullende richtlijnen te geven en de haalbaarheid van de plannen te beoordelen.')
 
Het zou echter duidelijk moeten zijn of het hierbij gaat om een parallel corpus, dat een van de categorieën is binnen de Resource Families, of dat het hier gaat om een vergelijkbaar corpus, dat niet een van de categorieën is. We zouden het CLARIN-kantoor kunnen vragen of zij het bruikbaar zouden vinden om zo een categorie toe te voegen.


<div lang="en" dir="ltr" class="mw-content-ltr">
We zouden een aantal potentiële databronnen moeten identificeren en er zeker van moeten zijn dat dat we de verzamelde data openbaar beschikbaar zouden kunnen stellen zonder GDPR- of IP-problemen.
We would need to be clear though as to whether this is a parallel corpus, which is one of the categories in the Resource Families, or whether it is a comparable corpus, which is not one of the categories. We might ask the CLARIN office whether they think it would be useful to add such a category.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
We zouden rekening moeten houden met het [https://opus.nlpl.eu/EMEA.php EMEA-corpus in OPUS].
We would have to identify a number of potential data sources, and make sure we can make the collected data publicly available for research, without GDPR or IP issues.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Is_it_possible_to_automate_finding_of_word_conversions_for_specific_corpora?"></span>
We should be aware of the [https://opus.nlpl.eu/EMEA.php EMEA corpus in OPUS]
==Is het mogelijk om het vinden van woordconversies voor specifieke corpora te automatiseren?==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Denk je dat het mogelijk is om een lijst samen te stellen van conversieparen van het Nederlands, d.w.z. woorden die kunnen worden gebruikt in meer dan 1 spraakonderdeel, gebaseerd op corpora (of mogelijk ook treebanks)?
==Is it possible to automate finding of word conversions for specific corpora?==
Ik ben met name geïnteresseerd in de volgende onderdelen van spraak: naamwoorden, adjectieven en werkwoorden. Dus, bijvoorbeeld, het zoekalgoritme zou in staat moeten zijn de vetgedrukte woorden als conversieparen te identificeren in de volgende voorbeelden:
Do you think it is possible to draw up a list of conversion pairs of Dutch, i.e. words that can be used in more than 1 part of speech, on the basis of corpora (or possibly treebanks)? I am particularly concerned with the parts of speech nomen, adjective, and verb. So, for example, the search algorithm should be able to identify the bold words in the following examples as conversion pairs:
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
* ik '''douche''' / ik neem een '''douche'''
* ik '''douche''' / ik neem een '''douche'''
* wij '''geloven''' in iets / zijn '''geloof''' in iets
* wij '''geloven''' in iets / zijn '''geloof''' in iets
Line 71: Line 74:
* wij '''droogden''' het '''droge''' laken
* wij '''droogden''' het '''droge''' laken
* we '''trommelden''' op de '''trommel'''
* we '''trommelden''' op de '''trommel'''
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Antwoord: Het [https://taalmaterialen.ivdnt.org/download/tstc-e-lex/ e-Lex lexicon] staat het toe om woordvormen te zoeken met meerdere POS-tags, zoals u vraagt. Dit lexicon is gebaseerd op het CGN.
Answer: The [https://taalmaterialen.ivdnt.org/download/tstc-e-lex/ e-Lex lexicon] allows you to search word forms with multiple POS tags, as you ask. This lexicon is based on CGN.  
Maar uw vraag gaat nog een stapje verder denk ik. Het werkwoord '''geloven''' heeft het lemma "geloven", en de conversie naar substantief heeft het lemma '''geloof'''. Daarom moeten we kijken of het lemma van het substantief ook voorkomt als een werkwoordsvorm, idem dito voor adjectieven. Er is een perl-script geschreven dat de aangevraagde sets uit het lexiconbestand extraheerde -- resultaten werden gestuurd naar de aanvrager.
But your question goes a little further, I think. The verb '''geloven''' has the lemma "geloven", and the conversion to noun has the lemma '''geloof'''. So we should see whether the noun's lemma also occurs as a verb form, idem ditto for adjectives. A perl script was written that extracts the requested sets from the lexicon file -- results were sent to the requester.
 
</div>
<span id="I_am_looking_for_spoken_and_written_corpora_for_a_contrastive_study_German/Dutch_in_which_I_can_find_actual_word_forms"></span>
==Ik zoek gesproken en geschreven corpora voor een contrastief onderzoek Duits-Nederlands waarin ik daadwerkelijk woordvormen kan vinden==
 
Wij verwijzen u naar [http://opensonar.ivdnt.org/ OpenSonar] dat de enige zoekmachine is voor zowel het Corpus Gesproken Nederlands (CGN) alsook het SoNaR-referentiecorpus. Deze zoekmachine is beschikbaar via een CLARIN-login. Een alternatief kan het [http://chn.ivdnt.org/ Corpus Hedendaags Nederlands (CHN)] zijn, dat de enige zoekmachine is voor het Corpus Hedendaags Nederlands. Als u recentere data nodig heeft, dan hebben wij bij het INT een monitor-corpus met wekelijkse nieuwsbriefdumps tot onze beschikking waarin we zoekopdrachten kunnen lanceren voor u. Helaas kunnen we dit monitorcorpus niet beschikbaar stellen vanwege IP-restricties.


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="I_want_to_find_all_Dutch_lemmas_in_which_there_is_double_derivation,_can_you_help_me?"></span>
==I am looking for spoken and written corpora for a contrastive study German/Dutch in which I can find actual word forms==
==Ik wil alle Nederlandse lemma's vinden waarin een dubbele afleiding zit, kunt u me helpen?==
We refer you to [http://opensonar.ivdnt.org/ OpenSonar] which is the only search engine for both the Spoken Dutch Corpus (CGN) and the SoNaR reference corpus and is available with CLARIN login. An alternative can be the [ http://chn.ivdnt.org/ Corpus Hedendaags Nederlands (CHN) website] which is the online search engine for the Corpus of Contemporary Dutch (CHN). If you need more recent data, at INT we have a monitor corpus with weekly newspaper dumps at our disposal in which we can launch searches for you -- unfortunately we cannot make this monitor corpus available due to IP restrictions.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex-lexicon] bevat als zijn derde dataveld de morfologie van lemma's. We hebben alle rijen in de data geëxtraheerd waarin het teken voor afleiding (|) twee keer op rij voorkwam en de gebruiker een gedetailleerde lijst aangeboden van invoeropdrachten en hoe regelmatig deze voorkomen in het e-Lex.
==I want to find all Dutch lemmas in which there is double derivation, can you help me?==
The [http://hdl.handle.net/10032/tm-a2-h2 eLex lexicon] contains as its third data field the morphology of lemmas. We extracted all rows in the data in which the sign for derivation (|) occurs twice in a row and provided our user with a detailed list of entries and how often they occur in the e-Lex.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<pre>
<pre>
(ing)[N|V.](s)[N|N.N] 9344
(ing)[N|V.](s)[N|N.N] 9344
Line 98: Line 97:
...
...
</pre>
</pre>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Can_I_get_a_distribution_of_the_suffixes_on_Dutch_adjectives?"></span>
==Can I get a distribution of the suffixes on Dutch adjectives?==
==Kan ik een verdeling krijgen van de achtervoegsels van Nederlandse adjectieven?==
The [http://hdl.handle.net/10032/tm-a2-h2 eLex lexicon] contains as its third data field the morphology of lemmas. We counted, per lemma id that is an adjective the frequency of the last suffix. For no morphology, we assigned category '0'.
 
</div>
Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex-lexicon] bevat als zijn derde dataveld de morfologie van lemma's. We hebben geteld per lemma-id dat een adjectief is voor de frequentie van het laatste achtervoegsel. Voor geen morfologie hebben we de categorie '0' toegewezen.


<div lang="en" dir="ltr" class="mw-content-ltr">
<pre>
<pre>
0 11781
0 11781
Line 124: Line 121:
...
...
</pre>
</pre>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="I_want_to_use_the_CGN_wave_files,_but_found_a_dead_link_on_the_original_website"></span>
==I want to use the CGN wave files, but found a dead link on the original website==
==Ik wil CGN wave-bestanden gebruiken, maar vond een dode link op de originele website==
There is a permanent link for the CGN wave file download page: [http://hdl.handle.net/10032/tm-a2-k6 http://hdl.handle.net/10032/tm-a2-k6]
 
</div>
Er is een permanente link voor de CGN-wave-bestanddownloadpagina: [http://hdl.handle.net/10032/tm-a2-k6 http://hdl.handle.net/10032/tm-a2-k6]
 
<span id="Which_treebanks_are_available_for_Dutch?"></span>
==Welke treebanks zijn er beschikbaar voor het Nederlands?==
 
We hebben de [https://kdutch.ivdnt.org/wiki/Treebanks/nl Treebanks] pagina toegevoegd aan deze wiki om antwoord te geven op deze vraag.
 
<span id="Is_there_a_corpus_with_imperative_sentences?"></span>
==Is er een corpus met gebiedende zinnen?==
 
Er is zo geen expliciet corpus beschikbaar. Als we [https://kdutch.ivdnt.org/wiki/Treebank_querying/nl#GrETEL GrETEL] een gebiedend voorbeeld aanbieden kunnen we gelijksoortige zinnen extraheren, die gebruikt zouden kunnen worden als een gebiedend corpus.
 
<span id="We_will_run_some_topic_modeling_analyses_on_some_Flemish/Belgian_Dutch_data_we_have._Because_our_data_set_is_relatively_small_for_this_kind_of_task,_the_idea_is_to_train_the_topic_model_on_a_much_larger_corpus_(e.g._social_media_posts)._Do_you_know_of_any_such_corpus_that_might_be_available?"></span>
==We zullen wat onderwerpsmodelleringsanalyses toepassen op wat Vlaams/Belgisch-Nederlandse data die we hebben. Omdat onze dataset relatief klein is voor deze soort taak, is het idee om het onderwerpmodel te trainen op een veel groter corpus (bijv. social media posts). Weet u of zo een corpus wellicht beschikbaar is? ==
 
Neem een kijkje op [https://kdutch.ivdnt.org/wiki/K-Dutch#Corpora]
 
<span id="How_can_I_calculate_the_readability_of_Dutch_text?"></span>
==Hoe kan ik de leesbaarheid van een Nederlandse tekst berekenen?==
 
Er is een hulpmiddel genaamd [https://tscan.hum.uu.nl/tscan/ T-scan] dat wellicht nuttig is daarvoor.
 
<span id="How_can_I_calculate_Flesch-Douma_for_Dutch?"></span>
==Hoe kan ik Flesch-Douma berekenen voor het Nederlands?==
 
De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het [http://hdl.handle.net/10032/tm-a2-h2 e-Lex]-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een alternatief is om het aantal klinkerclusters in elk woord te tellen met gebruik van reguliere uitdrukkingen. Dit zou ook het aantal lettergrepen moeten opleveren.
 
<span id="I_am_looking_for_a_parallel_corpus_of_Dutch-Turkish_texts."></span>
==Ik zoek een parallel corpus van Nederlands-Turkse teksten.==
 
We vergelijken de Nederlandse en Turkse vertalingen van de
Linguistic Inquiry and Word Count [LIWC] woordenboeken. Kent u enige corpora die geschikt zouden kunnen zijn?
Ik heb verscheidene kandidaten gevonden op OPUS (https://opus.nlpl.eu/) en heb de TED2020-lezingen gedownload. Echter, dit zijn .xml-bestanden met paragraaf/lijn IDs en ik heb .txt-bestanden nodig. Heeft u wellicht een script of een manier om deze bestanden automatisch anders te coderen en de onnodige tags te verwijderen?
 
Wij zouden u ook verwijzen naar OPUS, daar kunt u parallelle txt-bestanden vinden als u het Moses-formaat downloadt -- dan krijgt u een zip dat een .nl en een .tr bestand bevat en deze zijn uitgelijnd op basis van zinnen. Dat betekent dat hetzelfde lijnnummer in de twee bestanden de vertalingen van elkaar zouden moeten zijn.
 
<span id="Do_you_know,_are_there_any_reasonable_sentiment_analysis_algorithms/approaches_for_Dutch?"></span>
==Weet u of er degelijke sentimentanalyse-algoritmes/-methodes bestaan voor het Nederlands?==
 
We hebben nu een pagina over [https://kdutch.ivdnt.org/wiki/Sentiment_analysis/nl sentimentanalyse] toegevoegd aan deze wiki.
 
<span id="Are_there_any_spoken_corpora_available_of_spontaneous_speech_with_time_stamped_transcriptions,_which_are_freely_available?"></span>
==Zijn er gesproken corpora van spontane spraak met time-stamped transcripties, die gratis beschikbaar zijn?==


<div lang="en" dir="ltr" class="mw-content-ltr">
Op [https://kdutch.ivdnt.org/wiki/Spoken_corpora/nl Gesproken_corpora] hebben we verzameld wat beschikbaar is voor het Nederlands.
==Which treebanks are available for Dutch?==
We have added the [[Treebanks]] page to this wiki to answer this question.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Het Corpus Gesproken Nederlands (CGN) heeft een sectie van spontane spraak met time-stamped transcripties, gratis beschikbaar.
==Is there a corpus with imperative sentences?==
There is no such explicit corpus available. If we provide [https://kdutch.ivdnt.org/wiki/Treebank_querying#GrETEL GrETEL] with an imperative example we can extract similar sentences, which should be usable as an imperative corpus.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="How_can_I_combine_search_for_&quot;green&quot;_and_&quot;red&quot;_word_order_in_OpenSonar?"></span>
==We will run some topic modeling analyses on some Flemish/Belgian Dutch data we have. Because our data set is relatively small for this kind of task, the idea is to train the topic model on a much larger corpus (e.g. social media posts). Do you know of any such corpus that might be available? ==
==Hoe kan ik het zoeken naar de 'groene' en 'rode' woordvolgorde in OpenSonar combineren?==
Take a look at [https://kdutch.ivdnt.org/wiki/K-Dutch#Corpora]
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
In principe is het mogelijk om beide opdrachten tegelijkertijd aan te vragen, zie het voorbeeld voor meer informatie.  
==How can I calculate the readability of Dutch text?==
There is a tool called [https://tscan.hum.uu.nl/tscan/ T-scan] that may be helpful there.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
*[https://portal.clarin.inl.nl/opensonar_frontend/opensonar/search/hits?filter=Corpus_title%3A%28%22CGN%22%29&first=0&number=20&patt=%5Blemma%3D%22hebben%7Czijn%22+%26+pos_head%3D%22ww%22%26pos_wvorm%3D%22pv%22%5D%5Bpos_head%3D%22ww%22%26pos_wvorm%3D%22vd%22%5D+%7C+%5Bpos_head%3D%22ww%22%26pos_wvorm%3D%22vd%22%5D%5Blemma%3D%22hebben%7Czijn%22+%26+pos_head%3D%22ww%22%26pos_wvorm%3D%22pv%22%5D&interface=%7B%22form%22%3A%22search%22%2C%22patternMode%22%3A%22expert%22%7D Voorbeeld]
==How can I calculate Flesch-Douma for Dutch?==
The formula for Flesch-Douma requires two things to be counted: number of words in a sentence and number of syllables per word. While the number of words in a sentence is easily counted with any scripting language, the nr of syllables may seem more difficult. The [ http://hdl.handle.net/10032/tm-a2-h2 e-Lex] lexicon contains hyphenation patterns and hence the number of syllables per word. An alternative is to count the number of vowel clusters in each word using regular expressions, which should also give you the number of syllables.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Can_you_give_advice_on_setting_up_a_transcription_process_for_a_spoken_language_corpus?"></span>
==I am looking for a parallel corpus of Dutch-Turkish texts.==
==Kunt u advies geven over het opzetten van een transcriptieproces voor een gesprokentaalcorpus?==
We are comparing the Dutch and Turkish translations of the Linguistic Inquiry and Word Count [LIWC] dictionaries. Do you know of any corpora that would be suitable?
I found several candidates on OPUS (https://opus.nlpl.eu/), and downloaded the TED2020 talks. However these are .xml files with paragraph/line IDs and I need .txt files. Would you have a script or a way to automatically recode them and remove the unnecessary tags?
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
We hebben een overleg gehad waarin we het gebruik van spraakherkenning, segmentatie, sprekersdiarisatie en post-editing van spraakherkenning hebben besproken. We hebben het advies gegeven om K-Dutch te betrekken in het projectvoorstel zodat K-Dutch de ASR-output kan converteren naar ELAN-niveaus, ELAN-niveaus kan samenvoegen etc.
We would also refer you to OPUS, you can find parallel txt files if you download the moses format -- then you get a zip which contains a .nl and a .tr file, and these are sentence aligned. i.e. the same line number in the two files should be translations of each other.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="What_are_the_character_n-gram_frequencies_for_Dutch?"></span>
==Do you know, are there any reasonable sentiment analysis algorithms/approaches for Dutch?==
== Wat zijn de letterteken n-gram-frequenties voor het Nederlands?==
We have now added a page on [[sentiment analysis]] to this wiki.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
We hebben de n-gram-frequenties geteld tot aan trigrams en ze beschikbaar gemaakt op [https://kdutch.ivdnt.org/wiki/Character_N-grams/nl Letterteken_N-grams].
==Are there any spoken corpora available of spontaneous speech with time stamped transcriptions, which are freely available?==
On [https://kdutch.ivdnt.org/wiki/Spoken_corpora] we've collected what is available for Dutch.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Is_there_an_user_friendly_interface_for_working_with_the_EMEA_part_of_the_Lassy-Large_treebank?"></span>
The Corpus Gesproken Nederlands (CGN) has a section of spontaneous speech, with time-stamped transcriptions, freely available.
==Is er een gebruiksvriendelijke interface voor het werken met het EMEA-onderdeel van de Lassy Groot-treebank?==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Lassy Groot is extreem groot en daarom niet geheel beschikbaar met behulp van online zoekhulpmiddelen zoals GrETEL en PaQu, alhoewel deze laatste toegang biedt tot het krantenonderdeel.
==How can I combine search for "green" and "red" word order in OpenSonar?==
Een suggestie is om de data te downloaden en dan te importeren naar een xml-databasemachine, zoals [https://basex.org/ Basex] die het toestaat om erin te zoeken met Xpath en Xquery.
In principle it is possible to ask for both orders at the same time, see the example for more info.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="What_are_good_POS_taggers_for_non-standard_Dutch?"></span>
*[https://portal.clarin.inl.nl/opensonar_frontend/opensonar/search/hits?filter=Corpus_title%3A%28%22CGN%22%29&first=0&number=20&patt=%5Blemma%3D%22hebben%7Czijn%22+%26+pos_head%3D%22ww%22%26pos_wvorm%3D%22pv%22%5D%5Bpos_head%3D%22ww%22%26pos_wvorm%3D%22vd%22%5D+%7C+%5Bpos_head%3D%22ww%22%26pos_wvorm%3D%22vd%22%5D%5Blemma%3D%22hebben%7Czijn%22+%26+pos_head%3D%22ww%22%26pos_wvorm%3D%22pv%22%5D&interface=%7B%22form%22%3A%22search%22%2C%22patternMode%22%3A%22expert%22%7D Example]
==Wat zijn goede POS-taggers voor non-standaard Nederlands?==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Zie de [https://kdutch.ivdnt.org/wiki/Basic_language_processing/nl Eenvoudige Taalverwerking] pagina.
==Can you give advice on setting up a transcription process for a spoken language corpus?==
A meeting was held in which we discussed the use of speech recognition, segmentation, speaker diarisation, and post-editing of speech recognition. We have given the advice to include K-Dutch into the project proposal so that K-Dutch can take care of converting ASR output to ELAN tiers, merging of ELAN tiers etc.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Are_there_any_lexical_profiling_tools_for_Dutch?"></span>
==What are the character n-gram frequencies for Dutch?==
==Zijn er lexicale profileringshulpmiddelen voor het Nederlands?==
We have counted the n-gram frequencies up to trigrams and made them available at [[Character_N-grams]].
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Het verzoek is of er enige gebruiksvriendelijke en gratis beschikbare hulpmiddelen zijn waarmee docenten het lexicale profiel van een tekst kunnen vaststellen (tot welke frequentieniveaus de woorden behoren, hoeveel van de meest frequente woorden de lezer zou moeten kennen om 95% te begrijpen etc.)
==Is there an user friendly interface for working with the EMEA part of the Lassy-Large treebank?==
Lassy Large is extremely large, and therefore not entirely available through online query tools such as GrETEL and PaQu, although the latter provides access to the newspaper part. A suggestion is to download the data and then import it into an xml database engine, such as [https://basex.org/ Basex] which will allow you to query it with Xpath and Xquery.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Hoewel we ons niet bewust zijn van enige hulpmiddelen die zoiets expliciet doen, zijn er een aantal hulpmiddelen die gedeeltelijk die kant op gaan. We stellen voor dat u een kijkje neemt op
==What are good POS taggers for non-standard Dutch?==
*[https://lint.gebruikercentraal.nl/over-lint/ LINT] dat de leesbaarheid van de tekst inschat
See [[Basic_language_processing]] page.
*[https://tscan.hum.uu.nl/tscan/ T-scan] waarop LINT is gebaseerd en dat iets minder gebruiksvriendelijk is.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Er zijn ook een aantal hulpmiddelen die kunnen worden gevonden op [https://ilt.kuleuven.be/aanbod/index.php Instituut voor Levende Talen]
==Are there any lexical profiling tools for Dutch?==
The request is whether there are any user friendly and freely available tools with which teachers can assess the lexical profile of a text (to which frequency levels do the words belong, how many of the most frequent words should a reader know to understand 95% etc.)
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Is_there_a_word_list_of_difficult_words_for_Dutch?"></span>
While we are not aware of any tools that do such a thing explicitly, there are a number of tools that go partly that way.
== Is er een woordenlijst van moeilijke woorden voor het Nederlands? ==
We suggest taking a look at
*[https://lint.gebruikercentraal.nl/over-lint/ LINT] which assesses the readability of a text
*[https://tscan.hum.uu.nl/tscan/ T-scan] which is what LINT is based on, and which is a bit less user friendly
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
Terwijl deze vraag over 'moeilijke' woorden gaat, hebben wij alleen woordenlijsten van eenvoudige woorden tot onze beschikking:
There are also a number of tools that can be found at
[https://ilt.kuleuven.be/aanbod/index.php Instituut voor Levende Talen]
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
* Er is het BasiLex-lexicon dat woorden bevat gericht op kinderen tot 12 jaar oud
== Is there a word list of difficult words for Dutch? ==
* Er is het BasiScript-lexicon dat woorden bevat die zijn geproduceerd door kinderen tot 12 jaar oud
While this question is about ''difficult'' words, we mainly have word lists of easy words at our disposal:
* Er zijn frequentielijsten beschikbaar voor een aantal verschillende corpora, elke een lijst van de 5000 meest frequente woorden: http://hdl.handle.net/10032/tm-a2-f8
</div>
* Het NT2Lex biedt een lexicon met woorden en hoe ze voorkomen in teksten die zijn gericht op specifieke CEFR-niveaus.


<div lang="en" dir="ltr" class="mw-content-ltr">
Als een woord niet voorkomt in een lijst van eenvoudige woorden, dan kan dat worden gebruikt als een maatstaf voor de moeilijkheidsgraad van woorden. Maar, moeilijkheid wordt bepaald door meer dan alleen woorden, d.w.z. er is ook syntactische complexiteit.
* There is the BasiLex lexicon that contains words aimed at children up to 12 years old
* There is the BasiScript lexicon that contains words produced by children up to 12 years old
* There are frequency lists available for a number of different corpora, each listing the 5000 most frequent words: http://hdl.handle.net/10032/tm-a2-f8
* The NT2Lex provides a lexicon with words and how they occur in texts aimed at specific CEFR levels.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
U zou bijvoorbeeld het T-scan hulpmiddel kunnen gebruiken dat de complexiteit van teksten meet.
If a word does not occur in a list of easy words, that could be used as a measure for word difficulty. But, difficulty is determined more than just by words, i.e. there is also syntactic complexity.
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<span id="Is_there_a_text_only_version_of_the_Corpus_Spoken_Dutch?"></span>
You could use e.g. the T-scan tool that measures complexity of texts.
== Is er een versie van het Corpus Gesproken Nederlands met alleen maar tekst? ==
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
De downloadbestanden van het Corpus Gesproken Nederlands (CGN) bevatten geen versies met alleen maar tekst. De <code>ort</code> bestanden bevatten orthografische transcripties en tijdsaanduidingen en de <code>plk</code> bestanden bevatten POS- en lemma-informatie. Het volgende perl-script neemt een lijst van plk-bestanden als input en print de tekst. Als u dit script runt vanaf de command-lijn in uw terminal, dan kunt u tekstbestanden creëren.
== Is there a text only version of the Corpus Spoken Dutch? ==
The download files of the Corpus Spoken Dutch (CGN) do not contain the text only. The <code>ort</code> files contain ortographic transcriptions and timestamps and the <code>plk</code> files contain part-of-speech and lemma information. The following perl script takes a list of plk files as input and prints the text. If you run this script from the command line in your terminal, then you can create text files.
</div>




<div lang="en" dir="ltr" class="mw-content-ltr">
<code>binmode(STDOUT, ":utf8");</code>
<code>binmode(STDOUT, ":utf8");</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>while ($in=shift(@ARGV)) {</code>
<code>while ($in=shift(@ARGV)) {</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>   print STDERR "Processing $in\n";</code>
<code>   print STDERR "Processing $in\n";</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>   open(F,$in);</code>
<code>   open(F,$in);</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>   while (<F>) {</code>
<code>   while (<F>) {</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>       if (/^<au/) {</code>
<code>       if (/^<au/) {</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>           if (@words>0) {</code>
<code>           if (@words>0) {</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>               print join(" ",@words)."\n";</code>
<code>               print join(" ",@words)."\n";</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>           }</code>
<code>           }</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>           @words=();</code>
<code>           @words=();</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>       }</code>
<code>       }</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>       else {</code>
<code>       else {</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>           ($word,$tag,$lem)=split(/\t/);</code>
<code>           ($word,$tag,$lem)=split(/\t/);</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>           push(@words,$word);</code>
<code>           push(@words,$word);</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>       }</code>
<code>       }</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>   }</code>
<code>   }</code>
</div>


<div lang="en" dir="ltr" class="mw-content-ltr">
<code>}</code>
<code>}</code>
</div>

Latest revision as of 14:32, 5 July 2024

Other languages:

Deze pagina biedt een lijst met vragen die we hebben ontvangen.

Hoe kan ik toegang krijgen tot CLARIN-hulpmiddelen en diensten, zonder een academisch account?

Het is mogelijk om een account aan te vragen via de CLARIN-accountregistratiepagina.

Hebben jullie domeinspecifieke corpora?

Op de hoofdpagina vindt u een lijst met verschillende soorten corpora die wij hebben. Domeinspecifieke corpora zijn de Parlementaire corpora en de Corpora van academische teksten. Onder de Parallele corpora bevinden zich ook domeinspecifieke corpora.

Zijn er literaire teksten beschikbaar?

Op de Publiek Domein Pagina kunt u een link vinden naar de downloadbare publiekedomeinbestanden van DBNL.

Is er een spraakherkenningsmachine beschikbaar voor Belgisch-Nederlands?

Sinds april 2022 is er een nieuwe ASR-machine beschikbaar, die specifiek geschikt is voor spraakherkenning van Belgisch-Nederlands.

Kijk ook op de pagina die is toegewijd aan Spraakherkenningssystemen

Welke corpora zijn er beschikbaar voor automatische simplificatie van het Nederlands?

Er zijn momenteel geen parallelle corpora beschikbaar waarin gewoon Nederlands is gesimplificeerd, wat het onmogelijk maakt om dit eenvoudigweg te behandelen als een machinevertaalprobleem.

Als u het zou overwegen om een vorm van onbeheerde simplificatie te ontwikkelen, dan zijn er echter meerdere corpora beschikbaar met teksten in een Nederlands dat als eenvoudig beschouwd kan worden. Deze corpora zijn het Wablieft-corpus (Eenvoudig Belgisch-Nederlands), het Basilex-corpus (Teksten voor kinderen in Nederlandse basisscholen), en WAI-NOT (Zeer eenvoudig Belgisch-Nederlands).

Zijn er corpora die dialogen bevatten tussen twee of meer mensen?

Er zijn een aantal dialoogonderdelen in het CGN (Corpus Gesproken Nederlands).

  • a. Spontane conversaties ('face-to-face')
  • c. Telefoondialogen opgenomen m.b.v. platform
  • d. Telefoondialogen opgenomen m.b.v. minidiskrecorder
  • e. Zakelijke onderhandelingen

Daarnaast is er het IFA Dialoog Videocorpus.

Een verzameling van geannoteerde video-opnames van vriendelijke face-to-face-dialogen. Het is gemodelleerd naar de face-to-face-dialogen in het Corpus Gesproken Nederlands (CGN). De procedures en het ontwerp van het corpus zijn aangepast om dit corpus bruikbaar te maken voor andere onderzoekers van Nederlandse spraak. Voor dit corpus zijn 20 dialoogconversaties van 15 minuten opgenomen en geannoteerd, in totaal 5 uur aan spraak.

Advies voor het vinden van financiële steun voor het samenstellen van een vergelijkbaar medisch corpus Engels-Nederlands

We onderzoeken of het mogelijk is om dit te laten financieren door de CLARIN Resource Families Projectfinanciering. Deze site geeft aan dat het het beste is om het idee eerst informeel in te sturen naar het CLARIN-kantoor, zodat zij erover kunnen adviseren ('Gezien de flexibele aard van dit telefoongesprek worden aanvragers bemoedigd om een projectidee op voorhand in te sturen, om het CLARIN-kantoor de mogelijkheid te bieden om aanvullende richtlijnen te geven en de haalbaarheid van de plannen te beoordelen.')

Het zou echter duidelijk moeten zijn of het hierbij gaat om een parallel corpus, dat een van de categorieën is binnen de Resource Families, of dat het hier gaat om een vergelijkbaar corpus, dat niet een van de categorieën is. We zouden het CLARIN-kantoor kunnen vragen of zij het bruikbaar zouden vinden om zo een categorie toe te voegen.

We zouden een aantal potentiële databronnen moeten identificeren en er zeker van moeten zijn dat dat we de verzamelde data openbaar beschikbaar zouden kunnen stellen zonder GDPR- of IP-problemen.

We zouden rekening moeten houden met het EMEA-corpus in OPUS.

Is het mogelijk om het vinden van woordconversies voor specifieke corpora te automatiseren?

Denk je dat het mogelijk is om een lijst samen te stellen van conversieparen van het Nederlands, d.w.z. woorden die kunnen worden gebruikt in meer dan 1 spraakonderdeel, gebaseerd op corpora (of mogelijk ook treebanks)? Ik ben met name geïnteresseerd in de volgende onderdelen van spraak: naamwoorden, adjectieven en werkwoorden. Dus, bijvoorbeeld, het zoekalgoritme zou in staat moeten zijn de vetgedrukte woorden als conversieparen te identificeren in de volgende voorbeelden:

  • ik douche / ik neem een douche
  • wij geloven in iets / zijn geloof in iets
  • de crimineel zweert zijn criminele gedrag af
  • wij onderhielden contacten / het onderhoud van het huis
  • wij droogden het droge laken
  • we trommelden op de trommel

Antwoord: Het e-Lex lexicon staat het toe om woordvormen te zoeken met meerdere POS-tags, zoals u vraagt. Dit lexicon is gebaseerd op het CGN. Maar uw vraag gaat nog een stapje verder denk ik. Het werkwoord geloven heeft het lemma "geloven", en de conversie naar substantief heeft het lemma geloof. Daarom moeten we kijken of het lemma van het substantief ook voorkomt als een werkwoordsvorm, idem dito voor adjectieven. Er is een perl-script geschreven dat de aangevraagde sets uit het lexiconbestand extraheerde -- resultaten werden gestuurd naar de aanvrager.

Ik zoek gesproken en geschreven corpora voor een contrastief onderzoek Duits-Nederlands waarin ik daadwerkelijk woordvormen kan vinden

Wij verwijzen u naar OpenSonar dat de enige zoekmachine is voor zowel het Corpus Gesproken Nederlands (CGN) alsook het SoNaR-referentiecorpus. Deze zoekmachine is beschikbaar via een CLARIN-login. Een alternatief kan het Corpus Hedendaags Nederlands (CHN) zijn, dat de enige zoekmachine is voor het Corpus Hedendaags Nederlands. Als u recentere data nodig heeft, dan hebben wij bij het INT een monitor-corpus met wekelijkse nieuwsbriefdumps tot onze beschikking waarin we zoekopdrachten kunnen lanceren voor u. Helaas kunnen we dit monitorcorpus niet beschikbaar stellen vanwege IP-restricties.

Ik wil alle Nederlandse lemma's vinden waarin een dubbele afleiding zit, kunt u me helpen?

Het e-Lex-lexicon bevat als zijn derde dataveld de morfologie van lemma's. We hebben alle rijen in de data geëxtraheerd waarin het teken voor afleiding (|) twee keer op rij voorkwam en de gebruiker een gedetailleerde lijst aangeboden van invoeropdrachten en hoe regelmatig deze voorkomen in het e-Lex.

(ing)[N|V.](s)[N|N.N]	9344
(heid)[N|A.](s)[N|N.N]	1470
(er)[N|V.](s)[N|N.N]	1230
(ig)[A|N.](heid)[N|A.]	937
(atie)[N|V.](ief)[A|N.]	769
(iseer)[V|N.](atie)[N|V.]	603
...

Kan ik een verdeling krijgen van de achtervoegsels van Nederlandse adjectieven?

Het e-Lex-lexicon bevat als zijn derde dataveld de morfologie van lemma's. We hebben geteld per lemma-id dat een adjectief is voor de frequentie van het laatste achtervoegsel. Voor geen morfologie hebben we de categorie '0' toegewezen.

0	11781
(ig)	1781
(achtig)	507
(baar)	473
(isch)	431
(elijk)	392
(end)	367
(en)	292
(s)	278
(lijk)	237
(erig)	229
(ief)	168
(aal)	155
(loos)	138
(d)	116
...

Ik wil CGN wave-bestanden gebruiken, maar vond een dode link op de originele website

Er is een permanente link voor de CGN-wave-bestanddownloadpagina: http://hdl.handle.net/10032/tm-a2-k6

Welke treebanks zijn er beschikbaar voor het Nederlands?

We hebben de Treebanks pagina toegevoegd aan deze wiki om antwoord te geven op deze vraag.

Is er een corpus met gebiedende zinnen?

Er is zo geen expliciet corpus beschikbaar. Als we GrETEL een gebiedend voorbeeld aanbieden kunnen we gelijksoortige zinnen extraheren, die gebruikt zouden kunnen worden als een gebiedend corpus.

We zullen wat onderwerpsmodelleringsanalyses toepassen op wat Vlaams/Belgisch-Nederlandse data die we hebben. Omdat onze dataset relatief klein is voor deze soort taak, is het idee om het onderwerpmodel te trainen op een veel groter corpus (bijv. social media posts). Weet u of zo een corpus wellicht beschikbaar is?

Neem een kijkje op [1]

Hoe kan ik de leesbaarheid van een Nederlandse tekst berekenen?

Er is een hulpmiddel genaamd T-scan dat wellicht nuttig is daarvoor.

Hoe kan ik Flesch-Douma berekenen voor het Nederlands?

De formule voor Flesch-Douma vereist twee dingen die geteld moeten worden: het aantal woorden in een zin en het aantal lettergrepen per woord. Terwijl het aantal woorden in een zin gemakkelijk te tellen is met elke scripttaal, lijkt het aantal lettergrepen moeilijker te tellen. Het e-Lex-lexicon bevat woordafbrekingstekens en daarmee het aantal lettergrepen per woord. Een alternatief is om het aantal klinkerclusters in elk woord te tellen met gebruik van reguliere uitdrukkingen. Dit zou ook het aantal lettergrepen moeten opleveren.

Ik zoek een parallel corpus van Nederlands-Turkse teksten.

We vergelijken de Nederlandse en Turkse vertalingen van de Linguistic Inquiry and Word Count [LIWC] woordenboeken. Kent u enige corpora die geschikt zouden kunnen zijn? Ik heb verscheidene kandidaten gevonden op OPUS (https://opus.nlpl.eu/) en heb de TED2020-lezingen gedownload. Echter, dit zijn .xml-bestanden met paragraaf/lijn IDs en ik heb .txt-bestanden nodig. Heeft u wellicht een script of een manier om deze bestanden automatisch anders te coderen en de onnodige tags te verwijderen?

Wij zouden u ook verwijzen naar OPUS, daar kunt u parallelle txt-bestanden vinden als u het Moses-formaat downloadt -- dan krijgt u een zip dat een .nl en een .tr bestand bevat en deze zijn uitgelijnd op basis van zinnen. Dat betekent dat hetzelfde lijnnummer in de twee bestanden de vertalingen van elkaar zouden moeten zijn.

Weet u of er degelijke sentimentanalyse-algoritmes/-methodes bestaan voor het Nederlands?

We hebben nu een pagina over sentimentanalyse toegevoegd aan deze wiki.

Zijn er gesproken corpora van spontane spraak met time-stamped transcripties, die gratis beschikbaar zijn?

Op Gesproken_corpora hebben we verzameld wat beschikbaar is voor het Nederlands.

Het Corpus Gesproken Nederlands (CGN) heeft een sectie van spontane spraak met time-stamped transcripties, gratis beschikbaar.

Hoe kan ik het zoeken naar de 'groene' en 'rode' woordvolgorde in OpenSonar combineren?

In principe is het mogelijk om beide opdrachten tegelijkertijd aan te vragen, zie het voorbeeld voor meer informatie.

Kunt u advies geven over het opzetten van een transcriptieproces voor een gesprokentaalcorpus?

We hebben een overleg gehad waarin we het gebruik van spraakherkenning, segmentatie, sprekersdiarisatie en post-editing van spraakherkenning hebben besproken. We hebben het advies gegeven om K-Dutch te betrekken in het projectvoorstel zodat K-Dutch de ASR-output kan converteren naar ELAN-niveaus, ELAN-niveaus kan samenvoegen etc.

Wat zijn de letterteken n-gram-frequenties voor het Nederlands?

We hebben de n-gram-frequenties geteld tot aan trigrams en ze beschikbaar gemaakt op Letterteken_N-grams.

Is er een gebruiksvriendelijke interface voor het werken met het EMEA-onderdeel van de Lassy Groot-treebank?

Lassy Groot is extreem groot en daarom niet geheel beschikbaar met behulp van online zoekhulpmiddelen zoals GrETEL en PaQu, alhoewel deze laatste toegang biedt tot het krantenonderdeel. Een suggestie is om de data te downloaden en dan te importeren naar een xml-databasemachine, zoals Basex die het toestaat om erin te zoeken met Xpath en Xquery.

Wat zijn goede POS-taggers voor non-standaard Nederlands?

Zie de Eenvoudige Taalverwerking pagina.

Zijn er lexicale profileringshulpmiddelen voor het Nederlands?

Het verzoek is of er enige gebruiksvriendelijke en gratis beschikbare hulpmiddelen zijn waarmee docenten het lexicale profiel van een tekst kunnen vaststellen (tot welke frequentieniveaus de woorden behoren, hoeveel van de meest frequente woorden de lezer zou moeten kennen om 95% te begrijpen etc.)

Hoewel we ons niet bewust zijn van enige hulpmiddelen die zoiets expliciet doen, zijn er een aantal hulpmiddelen die gedeeltelijk die kant op gaan. We stellen voor dat u een kijkje neemt op

  • LINT dat de leesbaarheid van de tekst inschat
  • T-scan waarop LINT is gebaseerd en dat iets minder gebruiksvriendelijk is.

Er zijn ook een aantal hulpmiddelen die kunnen worden gevonden op Instituut voor Levende Talen

Is er een woordenlijst van moeilijke woorden voor het Nederlands?

Terwijl deze vraag over 'moeilijke' woorden gaat, hebben wij alleen woordenlijsten van eenvoudige woorden tot onze beschikking:

  • Er is het BasiLex-lexicon dat woorden bevat gericht op kinderen tot 12 jaar oud
  • Er is het BasiScript-lexicon dat woorden bevat die zijn geproduceerd door kinderen tot 12 jaar oud
  • Er zijn frequentielijsten beschikbaar voor een aantal verschillende corpora, elke een lijst van de 5000 meest frequente woorden: http://hdl.handle.net/10032/tm-a2-f8
  • Het NT2Lex biedt een lexicon met woorden en hoe ze voorkomen in teksten die zijn gericht op specifieke CEFR-niveaus.

Als een woord niet voorkomt in een lijst van eenvoudige woorden, dan kan dat worden gebruikt als een maatstaf voor de moeilijkheidsgraad van woorden. Maar, moeilijkheid wordt bepaald door meer dan alleen woorden, d.w.z. er is ook syntactische complexiteit.

U zou bijvoorbeeld het T-scan hulpmiddel kunnen gebruiken dat de complexiteit van teksten meet.

Is er een versie van het Corpus Gesproken Nederlands met alleen maar tekst?

De downloadbestanden van het Corpus Gesproken Nederlands (CGN) bevatten geen versies met alleen maar tekst. De ort bestanden bevatten orthografische transcripties en tijdsaanduidingen en de plk bestanden bevatten POS- en lemma-informatie. Het volgende perl-script neemt een lijst van plk-bestanden als input en print de tekst. Als u dit script runt vanaf de command-lijn in uw terminal, dan kunt u tekstbestanden creëren.


binmode(STDOUT, ":utf8");

while ($in=shift(@ARGV)) {

   print STDERR "Processing $in\n";

   open(F,$in);

   while (<F>) {

       if (/^<au/) {

           if (@words>0) {

               print join(" ",@words)."\n";

           }

           @words=();

       }

       else {

           ($word,$tag,$lem)=split(/\t/);

           push(@words,$word);

       }

   }

}