Machine Learning and Inductive Inference: verschil tussen versies

Uit Wina Examenwiki
Naar navigatie springen Naar zoeken springen
Geen bewerkingssamenvatting
 
Geen bewerkingssamenvatting
Regel 2: Regel 2:


1. Eploration-exploitation trade-of bij reinforcement learning
1. Eploration-exploitation trade-of bij reinforcement learning
2. Hoe kan overfitting vermeden worden bij decision trees, rule learning en instance based learning.
2. Hoe kan overfitting vermeden worden bij decision trees, rule learning en instance based learning.
3. Bij lineaire SVM is er een maximum margin classifier. Is die er ook bij niet-lineaire SVM?
3. Bij lineaire SVM is er een maximum margin classifier. Is die er ook bij niet-lineaire SVM?
4. Accuracy A groter als accuracy B. Is het mogelijk dat bij ROC analyse B beter is dan A?
4. Accuracy A groter als accuracy B. Is het mogelijk dat bij ROC analyse B beter is dan A?
5. Oef op nearest neighbour.
5. Oef op nearest neighbour.
6. De grootte bepalen van de bezochte hypothese ruimte bij een example-driven en no example-driven rule learning algoritme.
6. De grootte bepalen van de bezochte hypothese ruimte bij een example-driven en no example-driven rule learning algoritme.

Versie van 20 jun 2005 16:52

Vragen ML 20/06/05 VM

1. Eploration-exploitation trade-of bij reinforcement learning

2. Hoe kan overfitting vermeden worden bij decision trees, rule learning en instance based learning.

3. Bij lineaire SVM is er een maximum margin classifier. Is die er ook bij niet-lineaire SVM?

4. Accuracy A groter als accuracy B. Is het mogelijk dat bij ROC analyse B beter is dan A?

5. Oef op nearest neighbour.

6. De grootte bepalen van de bezochte hypothese ruimte bij een example-driven en no example-driven rule learning algoritme.