Johan lijst 21 Ethiek

11 belangrijke vragen over Johan lijst 21 Ethiek

Het is duidelijk dat gegevens correct moeten zijn, maar dat geldt natuurlijk ook voor de algoritmen die er gebruik van maken om analyses uit te voeren.
Hoe kunt u dit bereiken?

Onder andere door het invoeren van kwaliteitslabels annex certificatiesystemen (zoals dat vaker voorkomt in branches en beroepsgroepen) en door het aanstellen van algoritmisten.

Wat is de verantwoordelijkheid van een bigdata-auditor?

  1. Garant staan voor de correctheid en de correcte beveiliging van de gegevens.
  2. Garanderen dat de gebruikte algoritmen voor analyses volledig correct zijn.
  3. Ervoor zorgen dat de organisatie de vier ethische richtlijnen volgt.

Waarom is de werking van zeer complexe programma’s, zoals die voor het automatisch besturen van een vliegtuig, wel door de mens traceerbaar en die van bigdata-analyses niet? Het zijn toch beide algoritmen die door mensen zijn ontwikkeld?

Programma’s in de smalldatawereld, hoe complex ook, zijn uiteindelijk te ontrafelen. In principe geldt dat voor de wiskundige analysemodellen van big data ook, maar door de haast onbeschrijflijk grote hoeveelheden gegevens en het enorme aantal wiskundige modellen is niet meer te traceren waarom het algoritme op een bepaald moment een bepaalde beslissing heeft genomen.
  • Hogere cijfers + sneller leren
  • Niets twee keer studeren
  • 100% zeker alles onthouden
Ontdek Study Smart

Wat is de taak van een algoritmist?

Een algoritmist controleert bigdata-analyses en -voorspellingen. Hij/zij beoordeelt de keus van de gegevensbronnen, de keus van analytische en voorspellende hulpmiddelen (algoritmen en modellen) en de interpretatie van de resultaten.

Over welke expertise moet een algoritmist beschikken?

Een algoritmist heeft knowhow op de
gebieden informatica,
wiskunde en
statistiek.

Is een algoritmist onpartijdig? Motiveer uw antwoord.

Ja, hij/zij legt een gelofte van onpartijdigheid en vertrouwelijkheid af, net zoals een accountant dat doet.

Welke betekenis kan de beroepsgroep 'algoritmisten' voor de (bigdata)wereld hebben?

Hun functie stelt hen in staat te voorkomen dat multi-interpretabele, suggestieve of zelfs onjuiste informatie wordt verspreid. Als zodanig kan de beroepsgroep uitgroeien tot een vertrouwensfunctie binnen de bigdatawereld en leiden tot een toezichthoudende functie zoals ook de financiële wereld die kent. Algoritmisten hebben een eigen gedragscode en tuchtregels, net zoals medici die hebben, waardoor ingewikkelde en ingrijpende vormen van regelgeving overbodig zijn.

Informatie wordt geschetst als grondstof voor de informatiemaatschappij, zoals ooit olie dat voor de industriële maatschappij was. Welke parallel wordt in de theorie gelegd om de bigdataontwikkelingen aan banden te leggen c.q. onder controle te houden?


Om de bigdatamarkt gezond te houden, te zorgen voor toezicht en de markt te vrijwaren van concurrentievervalsing kan gebruik worden gemaakt van een mededingingsrecht dat vergelijkbaar is met de antitrustwetgeving die in Amerika in de 19de eeuw voor de industriële wereld gold.
Het idee is dat regelgevers overkoepelende principes – zodra die er zijn – kunnen implementeren, om de juiste waarborg en ondersteuning te bieden en zodoende de ontwikkeling van een gezonde bigdatamarkt en -wereld te faciliteren.

Noem drie voorbeelden van het gebruik van big data door de Amerikaanse overheid ter voorkoming van misdaden.

  1. De resultaten van bigdata-analyses laten meewegen bij het beslissen of iemand al dan niet voorwaardelijk in vrijheid wordt gesteld.
  2. Met behulp van bigdata-analyses bepalen waar in verhoogde mate door de politie wordt gesurveilleerd. (Dit is ook in Nederland al aan de orde.)
  3. Het op basis van de lichaamstaal, vitale lichaamsfuncties en fysiologische patronen signaleren van mogelijke potentiële terroristen bij controles op vliegvelden.

Met big data ontsnappen we aan het keurslijf van het groepsdenken (uit de smalldatawereld). Het groepsdenken wordt vervangen door veel gedetailleerdere, op iedereen individueel toegesneden voorspellingen (de niet-causale bigdata-analyses vissen de geschiktste voorspellers uit de zee van informatie).
Wat is het daaraan inherente grote gevaar?

Dat we aan de resultaten zo veel waarde hechten dat we die gebruiken om iemand schuldig te verklaren aan een misdrijf dat hij/zij (nog?) niet heeft begaan. Dit is in tegenspraak met de grondgedachte dat iemand onschuldig is tot diens schuld bewezen is. Juist het feit dat big data op correlaties is gebaseerd, maakt het tot een volkomen ongeschikt instrument voor het beoordelen van causale verbanden op individueel niveau en het op grond daarvan aansprakelijk stellen van personen. Dat zou immers neerkomen op het ontkennen van de vrije wil van de mens.

In het hoofdstuk 'Risico’s' wordt beschreven op welke vreselijke wijze de vorderingen in de Vietnam-oorlog door de USA werden gemeten en publiekelijk gemaakt: door het tellen van het aantal gedode vijanden.
Welke lering kunnen wij uit deze smalldatatijd trekken met betrekking tot de governance van big data?


De bovenmatige belangstelling voor getallen/kwantitatieve resultaten van de Amerikaanse overheid leidde ertoe dat verantwoordelijke generaals in heel veel gevallen onjuiste cijfers opgaven (om maar aan de verwachtingen te voldoen). Dit had grote maatschappelijke gevolgen.
De conclusie die wij hieruit kunnen trekken, is dat wij enerzijds heel voorzichtig moeten omgaan met de kwaliteit van data en anderzijds niet blindelings op de uitkomsten van bigdata-analyses moeten vertrouwen. Wij moeten ons bewust zijn van het risico van de dictatuur van gegevens.
Ook in het bigdatatijdperk geldt nog steeds de aloude regel voor het verwerken van gegevens: Garbage in, garbage out.

De vragen op deze pagina komen uit de samenvatting van het volgende studiemateriaal:

  • Een unieke studie- en oefentool
  • Nooit meer iets twee keer studeren
  • Haal de cijfers waar je op hoopt
  • 100% zeker alles onthouden
Onthoud sneller, leer beter. Wetenschappelijk bewezen.
Trustpilot-logo