How do we represent language?

6 belangrijke vragen over How do we represent language?

Welke factoren moedigen inferences aan?

  • Als je een grotere working memory capaciteit hebt, maak je meer inferences.
  • Als mensen expertise hebben over het onderwerp in de tekst
  • je kan geen inferences maken als een wetenschappelijke tekst leest

Wat moet je onthouden als het gaat om inferences?

In sommige gevallen onthouden we onze gevolgtrekkingen net zo vaak als de uitspraken die daadwerkelijk in de tekst voorkomen. Onze gevolgtrekkingen versmelten met de tekst en vormen een samenhangend verhaal. We behouden vaak de essentie of algemene betekenis van een passage, waarbij we vergeten dat we een aantal elementen hebben geconstrueerd die niet echt in het verhaal voorkwamen.

Welke drie discourse representaties zijn er?

  1. Surface code: precieze bewoording
  2. text base: feiten en thema's
  3. situation model: welke wereld wordt gecreëerd
Dit model is gecreëerd door een combi van de plaatsen, settings, mensen en gebeurtenissen in de discourse en de achtergrondkennis van de lezer.
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart

Wat is het verschil tussen local structure en global stucture?

Local = Expliciet of impliciete connecties tussen individuele zinnen. Het begrijpen van een zin met behulp van de zinnen ervoor.
Global = algemene kennis dat we bijdragen aan wat we lezen. Als er geen context is kunnen we dit niet.
--> samenhang is wat bij beide begrippen een belangrijk principe is.

Wat is de overeenkomst tussen een bridging inference en een backward inference?

Bridging: een relatie geconstrueerd om twee zinnen met elkaar te verbinden die eigenlijk niet met elkaar verbonden zijn.
Vb: Henk was aan het leren om beter te dansen. De leraar was erg geduldig.
Twee levels:
  1. bonding: automatische activatie van woorden door de voorgaande zin. Vb: je leest 'rijden' en dit activeert het woord 'auto'
  2. Resolution: dit zorgt ervoor dat de algemene interpretatie consistent is met de contextuele info. Beïnvloedt door context.

Backward inference is een andere benaming.

Wat kwam er uit het onderzoek naar sarcasme?


Wat hebben ze gedaan? Tweets genomen waar #sarcasm in stond en daarna in de computer zonder # en toen gingen ze kijken hoeveel tweets herkent werden als zijne sarcasme. We kunnen concluderen dat het vrij moeilijk is om sarcastische tweets te onderscheiden van letterlijke tweets in een open setting, hoewel de top van de classificatie van de classifier veel sarcastische tweets identificeert die niet expliciet met een hashtag waren gemarkeerd.

Kritiek: sarcasme kan verschillen in culturen en talen. Markers kunnen dan wat anders betekenen. Verschillende vormen van ironie die niet worden gezien als sarcasme.

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo