Natural Language Processing: verschil tussen versies

Uit Wina Examenwiki
Naar navigatie springen Naar zoeken springen
Jeroentrappers (overleg | bijdragen)
kGeen bewerkingssamenvatting
Wouter.mertens (overleg | bijdragen)
 
(121 tussenliggende versies door 43 gebruikers niet weergegeven)
Regel 1: Regel 1:
[[Afbeelding:GeertAdriaens.jpg|right|200px|]]
==Samenvattingen==
=Natural Language Processing=
[[Natural Language Processing/Samenvattingen| Klik hier om de samenvattingen te bekijken]]
==Table of Contents, Some structure==
[http://trappie.be/share/nlp/NLP-toc.pdf toc-structure, PDF]


==Opgeloste Examenvragen==
==Informatie over het vak==
[http://s74.photobucket.com/albums/i270/jeroentrappers/NLP/ Examenvragen en oplossingen (grote download)] (Ik heb de afbeeldingen niet verkleind, om de leesbaarheid zo hoog mogelijk te houden. (Een camera biedt natuurlijk niet dezelfde kwaliteit als een scanner)) Dank aan Mathijs!
Sinds 2009 wordt dit vak gegeven door Marie-Francine Moens en Vincent Vandeghinste.
De inhoud is dan ook compleet veranderd.


==Meer info over ATN's==
Update 2015:
http://www.cs.msstate.edu/~lboggess/courses/atninstr.txt
* Lessen worden afwisselend gegeven door Marie-Francine Moens en Vincent Vandeghinste
* Lessen duren 1,5 uur
* Er worden 4 oefenzittingen gegeven


==Systems & Approaches==
== Algemeen ==
* Schriftelijk 4u
* Open boek, gebruik van handboek Jurafsky & Martin, slides, oplossingen oefenzittingen en notities.


Ik stel voor dat we hier de gevonden informatie of links posten over. De vragen die we over het systeem zullen krijgen zijn waarschijnlijk:
==Examenvragen==
*Bespreek 1 van de 3 systemen die je gelezen hebt:
[https://docs.google.com/document/d/1W8Wt2wVeoaHo5DulKSATFhQqBwevDN3YdtIcg5afOzs/edit?usp=sharing 2021 google doc]
** What kind of nlp system is it?
===January 2015===
** What is the approach. What are the principles?
** Give Pro’s and Contra’s
** How is this an improvement over older systems; how would newer systems tackle this problem?


=== ATLAST ===
1. Given three phrases.
=== BASEBALL ===
=== BOEING SEC ===
=== BORIS ===
=== CA ===
=== CO-OP ===
=== DEACON ===
=== DIAMOND ===
=== DOCTOR ===
=== ELI ===
=== ELIZA ===
[http://www-ai.ijs.si/eliza-cgi-bin/eliza_script http://www-ai.ijs.si/eliza-cgi-bin/eliza_script]


=== EPISTLE ===
  a) Tag all the phrases using the Penn treebank POS tags.
=== EUROTRA ===
  b) Compute the HMM transition probability matrix (do not apply smoothing).
=== FLEXP ===
  c) Compute the HMM emission probability matrix (no smoothin).
[http://www.gnu.org/software/flex/ http://www.gnu.org/software/flex/]
  d) Given a new phrase: compute the bigram probabilities for this phrase.
  e) Discuss the results of d). What would happen if we apllied smoothing?


=== FRUMP ===
2. Given two phrases:
=== GRUNDY ===
=== GUS ===
=== GSP ===
=== HAM-ANS ===
=== HAM-RPM ===
=== HARPY ===
=== HEARSAY-II ===
=== INTELLECT ===
=== JETS ===
=== KAMP ===
=== KLAUS ===
=== LADDER/LIFER ===
=== LEXICAT ===
=== LINGOL ===
=== LNR ===
=== LOGOS ===
=== LUNAR ===
=== MARGIE ===
=== MCHART ===
=== METAL ===
=== MIND ===
=== NLP ===
=== PAM ===
=== PARRY ===
=== PARSIFAL ===


[http://www.spinfo.uni-koeln.de/lehre/clg/docs/referate/MarcusParser.pdf http://www.spinfo.uni-koeln.de/lehre/clg/docs/referate/MarcusParser.pdf] - presentatie in 't Duits
Fruit flies like a ripe banana.
Time flies like an arrow.


=== PHLIQA1 ===
  a) Write down the PCFG for this corpus.
=== PLANES ===
  b) Convert it to CNF.
=== POLITICS ===
  c) Apply CKY parsing.
=== PROMT ===
  d) Show the resulting parse trees and their probabilities.
=== PROTOSYNTEX ===
  e) Discuss the results.
=== REL ===
=== RENDEZVOUS ===
=== REQUEST ===
=== ROBOT ===
[http://s74.photobucket.com/albums/i270/jeroentrappers/NLP/ROBOT/ Paper over ROBOT (grote download)] (Ik heb de afbeeldingen niet verkleind, om de leesbaarheid zo hoog mogelijk te houden. (Een camera biedt natuurlijk niet dezelfde kwaliteit als een scanner)) Dank aan Mathijs!


=== RUS ===
3. Given a hidden Markov model and a series of observations, compute the most likely joint state of the HMM.
=== SAD-SAM ===
=== SHRDLU ===
[http://sloefke.studentenweb.org/nlp/ Wiki-samenvatting en een technische uitleg (met voordelen en nadelen ten opzichte van Eliza en Parry)]


=== SIR ===
4. Given three text snippets, compute the association of two pairs of words using pointwise mutual information association measure and the Lin association measure.
=== SOPHIE ===
=== SPEECHLIS ===
=== STUDENT ===
=== SYNTHEX ===
=== SYSTRAN ===


[http://en.wikipedia.org/wiki/SYSTRAN SYSTRAN op wikipedia]
5. Question 5, January 2015.


=== TALE-SPIN ===
6. You want to build a system which finds companies, brands, names, etc. which are mentioned on web pages. How would you do this? Go step by step, in enough detail, using the techniques mentioned in the course. Mention the bottlenecks involved in the process.
=== TAUM-METEO ===
=== TEXT ===
=== TORUS ===
=== TOVNA ===
http://lists.village.virginia.edu/lists_archive/Humanist/v02/0023.html


=== TQA ===
=== UNDERSTAND ===
=== USL ===
=== VERBMOBIL ===
[http://verbmobil.dfki.de/cgi-bin/verbmobil/htbin/doc-access.cgi Verbmobil-documentatie]


=== WEP/PEP ===
===Januari 2015===
=== EIGEN VONDSTEN ===
1) Gegeven een FSA, geef de bijhorende regex en geef 10 strings die door deze FSA gegenereerd kunnen worden. De FSA was net dezelfde als die van op het examen in 2009.


2) Je krijgt 2 parse-trees (2 heel eenvoudige zinnen "time flies like an arrow" en "time flies like a banana")
  a) stel een PCFG hiervan op
  b) zet deze PCFG om naar CNF
  c) pas CKY toe op de zin "time flies like a banana"
  d) teken de mogelijke parse-trees en schrijf bij elk hun probabiliteit


van de nieuwsgroep:
3) Gegeven 5 zinnen (zin 1 is dezelfde als zin 3 en zin 2 is dezelfde als zin 4). Het woord "anybody" kwam geen enkele keer voor in de 5 zinnen, het woord "nobody" 3 keer.
a) Met het gebruik van bigrams, bereken de probabiliteit van het woord "nobody" en het woord '"anybody" met behulp van MLE, Laplace smoothing en Good Turing Smoothing.
b) Vergelijk de drie methodes en geef voor- en nadelen voor elke methode.


==Koenraad Heijlen, 2005-06-18==
4) Theorievraag: de vraag ging over pairwise coreference classifier (discourse analysis) en had twee deelvragen:
Examenvragen NLP 2005; zeker geen verrassing t.o.v. de vorige jaren.
a) hoe worden coreference chains gevormd op basis van het resultaat van de classifier?
b) geef vijf features (gezien tijdens de les) die voor deze classifier gebruikt kan worden


* 1. Gegeven 3 teksten (1 correct, 1 ingetypt en 1 door een spellings-checker gehaald met de gevonden fouten gemarkeerd).  
5) Theorievraag: gegeven de slides van de laatste les over semantic parsing. Op de slides staat een uitgewerkt voorbeeld van stochastic gradient descent, een optimaliserend algoritme. Gevraagd: leg de verschillende iteraties van het voorbeeld uit en leg uit hoe de parameters in het algoritme aan hun waarde komen.


Gevraagd:  
===Juni 2009===
(a) bereken precision en recall
1) Gegeven een FSA, geef de bijhorende regex. De FSA zag er ongeveer zo uit:
(b) bespreek en wat vind je van het resultaat?
q_0 -> q_1 <-> f <- q_2
        |            ^
        |            |
          - - - - - -
met q_0 -> q_1 = a
    q_1 -> f = b
    q_1 -> q_2 = b
    q_2 -> f = a
    f -> q_1 = a


*2. Parsing
2) Je krijgt 2 parse-trees (2 heel eenvoudige zinnen "time flies like an arrow" en "time flies
    like a banana")
  a) stel een PCFG hiervan op
  b) zet deze PCFG om naar CNF
  c) pas CKY toe op een zin (juiste zin weet ik niet meer, alleszinds ook iets met "time flies")
  d) teken de mogelijke parse-trees en schrijf bij elk hun probabiliteit


Grammar:
  3) Wat is rhetorical structure theory? Geef relevante voorbeelden, uitleg en toepassingen.
  S ← NP VP                        NP ← DET N
VP ← V NP                        NP ← DET N PP
VP ← V NP PP                      PP ← P NP


Lexicon:
  4) Gegeven 3 engelstalige zinnen.
  the: DET
  a) bereken de similatiteit tussen 'flight' & 'debris' en 'flight' & 'Airbus' via de lin assoc
boy, girl, mouth: N
      methode
on: P
  b) waarvoor kan je deze similariteit zoals gebruiken
kisses: V, N


Gevraagd:
5) theorie...cant quite remember
:Shift reduce parser: maak hiervoor een parser state diagram en oracle;
:Pas het toe op de gegeven zin: “The boy kisses the girl on the mouth”. (of vice versa)


*3. Bespreek 1 van de 3 systemen die je gelezen hebt:
6) Stel je moet een e-mail management programma maken dat bestaat uit 2 delen.
** What kind of nlp system is it?
  - Task manager : haalt uit de binnenkomende e-mails alle tasken
** What is the approach. What are the principles?
  - Time manager : bewaart het overzicht over je afspraken en herinnert je aan deadline en tasks
** Give Pro’s and Contra’s
  Hoe zou je dit aanpakken?
** How is this an improvement over older systems; how would newer systems tackle this problem?


==Willem Poorten, 2003-06-21==
[[Categorie:mi]]
* 1. In class we dealt with ATN’s for NP-structures. Write the network(s) that you need to recognice and analyse (i.e. build the structure of) a PP (Prepositional Phrase); start from the states of the simple RTN for PPs From figure (TD3’)
REMARK: the NP-ATN is not asked for; you may assume that it is available
 
* 2. ab*a*c:  transitiediagram maken
 
* 3. geg:
S <- NP VP
VP <- V NP
VP <- V NP PP
NP <- DET N
NP <- DET N PP
PP <- P NP
shift reduce parser: maak hiervoor een parser state diagram en oracle
parse trace NOT asked
 
*4. reading assignment
** kind of nlp system
** approach/principles
** pro en contra
** how is this an improvement over older systems/how would newer systems tackle this problem
 
==Robby Goetschalckx, 2002-02-02==
 
* 1) error grammar approach en similarity: bespreek voor en nadelen, wat gebruiken in een echt systeem
 
* 2) a(ba)*b*c: deterministisch transitiediagram maken
 
* 3) geg:
S <- NP
NP <- DET NO
NP <- NP PP
NO <-N
NO <- ADJ NO
PP <- PREP NP
shift reduce parser: maak hiervoor een parser state diagram en oracle + pas toe op een gegeven zin
 
* 4) reading assignment
** kind of nlp system
** approach/principles
** pro en contra
** how is this an improvement over older systems/how would newer systemstackle this problem
 
[[Categorie:1li]] [[Categorie:2li]]

Huidige versie van 22 jan 2021 16:39

Samenvattingen

Klik hier om de samenvattingen te bekijken

Informatie over het vak

Sinds 2009 wordt dit vak gegeven door Marie-Francine Moens en Vincent Vandeghinste. De inhoud is dan ook compleet veranderd.

Update 2015:

  • Lessen worden afwisselend gegeven door Marie-Francine Moens en Vincent Vandeghinste
  • Lessen duren 1,5 uur
  • Er worden 4 oefenzittingen gegeven

Algemeen

  • Schriftelijk 4u
  • Open boek, gebruik van handboek Jurafsky & Martin, slides, oplossingen oefenzittingen en notities.

Examenvragen

2021 google doc

January 2015

1. Given three phrases.

 a) Tag all the phrases using the Penn treebank POS tags.
 b) Compute the HMM transition probability matrix (do not apply smoothing).
 c) Compute the HMM emission probability matrix (no smoothin).
 d) Given a new phrase: compute the bigram probabilities for this phrase.
 e) Discuss the results of d). What would happen if we apllied smoothing?

2. Given two phrases:

Fruit flies like a ripe banana. Time flies like an arrow.

 a) Write down the PCFG for this corpus.
 b) Convert it to CNF.
 c) Apply CKY parsing. 
 d) Show the resulting parse trees and their probabilities.
 e) Discuss the results.

3. Given a hidden Markov model and a series of observations, compute the most likely joint state of the HMM.

4. Given three text snippets, compute the association of two pairs of words using pointwise mutual information association measure and the Lin association measure.

5. Question 5, January 2015.

6. You want to build a system which finds companies, brands, names, etc. which are mentioned on web pages. How would you do this? Go step by step, in enough detail, using the techniques mentioned in the course. Mention the bottlenecks involved in the process.


Januari 2015

1) Gegeven een FSA, geef de bijhorende regex en geef 10 strings die door deze FSA gegenereerd kunnen worden. De FSA was net dezelfde als die van op het examen in 2009.

2) Je krijgt 2 parse-trees (2 heel eenvoudige zinnen "time flies like an arrow" en "time flies like a banana")

 a) stel een PCFG hiervan op
 b) zet deze PCFG om naar CNF
 c) pas CKY toe op de zin "time flies like a banana"
 d) teken de mogelijke parse-trees en schrijf bij elk hun probabiliteit

3) Gegeven 5 zinnen (zin 1 is dezelfde als zin 3 en zin 2 is dezelfde als zin 4). Het woord "anybody" kwam geen enkele keer voor in de 5 zinnen, het woord "nobody" 3 keer.

a) Met het gebruik van bigrams, bereken de probabiliteit van het woord "nobody" en het woord '"anybody" met behulp van MLE, Laplace smoothing en Good Turing Smoothing. 
b) Vergelijk de drie methodes en geef voor- en nadelen voor elke methode.

4) Theorievraag: de vraag ging over pairwise coreference classifier (discourse analysis) en had twee deelvragen:

a) hoe worden coreference chains gevormd op basis van het resultaat van de classifier?
b) geef vijf features (gezien tijdens de les) die voor deze classifier gebruikt kan worden

5) Theorievraag: gegeven de slides van de laatste les over semantic parsing. Op de slides staat een uitgewerkt voorbeeld van stochastic gradient descent, een optimaliserend algoritme. Gevraagd: leg de verschillende iteraties van het voorbeeld uit en leg uit hoe de parameters in het algoritme aan hun waarde komen.

Juni 2009

1) Gegeven een FSA, geef de bijhorende regex. De FSA zag er ongeveer zo uit:

q_0 -> q_1 <-> f <- q_2
        |            ^
        |            |
         - - - - - - 
met q_0 -> q_1 = a
    q_1 -> f = b
    q_1 -> q_2 = b
    q_2 -> f = a
    f -> q_1 = a
2) Je krijgt 2 parse-trees (2 heel eenvoudige zinnen "time flies like an arrow" en "time flies 
   like a banana")
 a) stel een PCFG hiervan op
 b) zet deze PCFG om naar CNF
 c) pas CKY toe op een zin (juiste zin weet ik niet meer, alleszinds ook iets met "time flies")
 d) teken de mogelijke parse-trees en schrijf bij elk hun probabiliteit
3) Wat is rhetorical structure theory? Geef relevante voorbeelden, uitleg en toepassingen.
4) Gegeven 3 engelstalige zinnen.
  a) bereken de similatiteit tussen 'flight' & 'debris' en 'flight' & 'Airbus' via de lin assoc 
     methode
  b) waarvoor kan je deze similariteit zoals gebruiken
5) theorie...cant quite remember
6) Stel je moet een e-mail management programma maken dat bestaat uit 2 delen.
  - Task manager : haalt uit de binnenkomende e-mails alle tasken
  - Time manager : bewaart het overzicht over je afspraken en herinnert je aan deadline en tasks
 Hoe zou je dit aanpakken?