Deep Learning for Segmentation
9 belangrijke vragen over Deep Learning for Segmentation
Wat is de formule voor de hoeveelheid parameters?
Wat is de formule voor de feature space dimension?
Wat de formule voor de neurons?
- Hogere cijfers + sneller leren
- Niets twee keer studeren
- 100% zeker alles onthouden
Wat is het doel van de loss function?
Wat is het verschil tussen de loss en de evaluation metric?
Hoe werkt de cross entropy loss?
- Voorspellingen van model vergelijken met echte label
- Met loss berekenen hoe goed het model het doet
Zijn hoge of lage waarden voor de loss goed?
- Lage loss = goede schatting
- Zodanig weights aanpassen om lage loss te krijgen
Wat is het probleem bij imbalanced datasets bij cross-entropy?
Waarom is vooral de dice loss handig voor imbalanced problems?
DICE richt zich op overlap ipv tellen van correcte/incorrecte voorspellingen. In ongebalanceerde datasets kan bijv de cross entropy geneigd zijn achter grond te overfitten waardoor je makkelijk een lage loss krijgt
De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:
- Een unieke studie- en oefentool
- Nooit meer iets twee keer studeren
- Haal de cijfers waar je op hoopt
- 100% zeker alles onthouden