Deep Learning for Segmentation

9 belangrijke vragen over Deep Learning for Segmentation

Wat is de formule voor de hoeveelheid parameters?

Parameters = (filtersize * input channels +1) * output channels

Wat is de formule voor de feature space dimension?

Feature space dimension x = input size x +2*padding - filter size x / stride +1

Wat de formule voor de neurons?

Neurons = feature space dimension x * feature space dimension y * output channels
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart

Wat is het doel van de loss function?

Kijken hoe goed je netwerk werkt. Afhankelijk van de taak die je wil doen, zijn er loss functions die er beter voor werken.

Wat is het verschil tussen de loss en de evaluation metric?

Loss moet differentieerbaar zijn omdat je de gradient moet berekenen

Hoe werkt de cross entropy loss?

- Verschil meten tussen 2 probability distributions
- Voorspellingen van model vergelijken met echte label
- Met loss berekenen hoe goed het model het doet

Zijn hoge of lage waarden voor de loss goed?

- Hoge loss = schatting verkeerd
- Lage loss = goede schatting
- Zodanig weights aanpassen om lage loss te krijgen

Wat is het probleem bij imbalanced datasets bij cross-entropy?

Bij imbalanced input set ( heel veel nullen in echte label, gaat zich vaak richten op tweede term in de CE_loss vergelijking)

Waarom is vooral de dice loss handig voor imbalanced problems?

Background >> ROI
DICE richt zich op overlap ipv tellen van correcte/incorrecte voorspellingen. In ongebalanceerde datasets kan bijv de cross entropy geneigd zijn achter grond te overfitten waardoor je makkelijk een lage loss krijgt

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo