Gartner heeft meer dan 60 cases bekeken op ethische conflicten en onderzoeksdirecteur Frank Buytendijk ziet flinke uitdagingen voor bedrijven in het voorkomen van onbedoelde ethische gevolgen van nieuwe digitale businessmodellen, zo blijkt uit een blogpost.
Gartner komt tot 4 dilemma's die bedrijven over de hele wereld en ongeacht de bedrijfstak tegenkomen en moeten confronteren. De manier waarop er met die dilemma's wordt omgegaan is vooral gelegen in culturele verschillen, maar kan ook afhangen van in welke bedrijfstak organisaties zich bewegen.
Maar in het algemeen, zo zegt Gartner, zijn er enkele handige tips waarmee je een start kan maken met het vinden van een oplossing voor de dilemma's. Voordat we specifiek ingaan op die dilemma's hier Gartners tips om in ieder geval als bedrijf een start te maken met het formuleren van ethische waarden in digitaal zakendoen.
- Gebruik als gouden regel: vraag jezelf af zou jij behandeld zou willen worden als mens, burger of consument.
- Er zijn altijd onbedoelde gevolgen: zoek nieuwe positief ingestoken manieren om technologie te gebruiken en blokkeer onwenselijk gebruik.
- Succes komt met discipline en zelfbeperking in het gebruik van technologie in plaats van het opzoeken van de grenzen.
Dan komen hier de 4 ethische dilemma's van Gartners Buytendijk.
Op de volgende pagina: Privacy of profijt?
Dilemma 1: privacy of profijt? Een openbaar vervoersbedrijf kwam met een OV-kaart waarmee je zonder cash op zak van verschillende vormen van openbaar vervoer gebruik kan maken. Deze vorm van betalen wordt steeds meer toegepast omdat het de marges laat toenemen, het helpt de efficiëntie in het vervoersnetwerk en geeft daarnaast een enorme hoeveelheid aan klantdata. Zou een OV-bedrijf die data mogen verkopen aan andere partijen?
Het verkopen van data is tegenwoordig gewoon voor veel bedrijven en de opbrengsten worden gebruikt om de prijzen te verlagen of de dienst te verbeteren. Als dat echter niet vooraf duidelijk wordt gemaakt aan gebruikers kan dat als een boemerang terugkomen naar het bedrijf. Data zou alleen moeten worden gebruikt voor een vastgesteld doel (de reis) en als dat verandert moet dat worden overlegd met de klanten.
Op de volgende pagina: De toekomst bespioneert je
Dilemma 2: Toekomstig gebruik of het juiste gebruik? Smart TV''s slaan continu je kijkgedrag op en verzenden die data naar de tv-maker, die er vervolgens mee kan verdienen door meer gerichte advertenties op de gebruiks-interface van de TV te laten zien. Maar er zijn gevallen bekend waarin ook gevoelige informatie uit privébestanden werd doorgezonden die vanaf een usb-stick kwamen die in de tv was gestoken. Dat zou niet mogen voorkomen.
Volgens Gartner kunnen dat soort datalekken juridische consequenties hebben en een boete opleveren, plus een niet te onderschatten deuk in de reputatie van het betrokken bedrijf en minder vertrouwen in het product. Het onttrekken van de persoonlijke data van een extern opslagmedium was een onbedoeld neveneffect van het software-ontwerp waarin al fouten zijn gemaakt vanaf het begin van de ontwerpfase. Daarin werd rekening gehouden met toekomstige ontwikkelingen zonder te kijken naar privacy-problemen die het oplevert. "Ethische overwegingen moeten in het ontwerp worden geïmplementeerd en niet later aan worden toegevoegd", zegt Buytendijk.
Op de volgende pagina: snelheid in plaats van volmaaktheid.
Dilemma 3: Snelheid in plaats van volmaaktheid. Velen van jullie hebben inmiddels ervaringen opgedaan met digitale assistenten als Siri, Cortana of Google Now. Maar ook deze technologie kan net als alle andere worden gebruikt op een immorele wijze. Je wijst niet met een beschuldigende vinger naar een autofabrikant als er een dronken chauffeur wordt betrapt maar wel naar de maker van een slimme machine als die machine een handje helpt bij een bankoverval.
Volgens Gartner is het moeilijk om een aantal standaard ethische regels op te stellen om mogelijk misbruik te voorkomen, en de toezichthouders kunnen de snelheid van technologische ontwikkelingen niet bijhouden. Het is dus belangrijk voor fabrikanten en leveranciers om hun producten goed te testen voordat ze worden vrijgegeven en het is ook belangrijk om features in te bouwen die continu in de gaten houden of slimme machines niet kunnen worden misbruikt voor onbedoelde zaken.
Op de volgende pagina: Beslissingen op leven en dood.
Dilemma 4: Beslissingen over leven en dood. Digitale assistenten zijn informatie-aangevers, maar de geavanceerdere machines kunnen ingrijpende beslissingen maken. Neem bijvoorbeeld de geautomatiseerde aandelenhandel, die de markt kan laten instorten maar in dat proces de eigenaar rijk kan maken. Of militaire drones die niet zijn toegerust om een ethische beslissing te maken in hoeverre burgerslachtoffers (en hoe veel?) mogen vallen bij een aanval. Of zelfrijdende auto's die moeten beslissen of oma moet sterven bij het ontwijken van het kind. In alle gevallen beslist software over leven en dood, maar wie neemt hiervoor de verantwoordelijkheid? De programmeur? De maker of leverancier? Of degene die de technologie inzet of bestuurt?
Volgens Buytendijk heeft iedereen die ermee te maken heeft een bepaalde verantwoordelijkheid. De morele verplichting ligt erin van te voren uitermate uitputtend te testen en continu te kunnen controleren op ongewenste gevolgen. Nee, met een besturingssysteem maakt het weinig uit of de eerste uitgave niet foutloos is, niemand raakt gewond. Maar op het moment dat software belangrijk wordt in situaties van leven en dood, is er geen ruimte voor dergelijke fouten. Dergelijke fouten kunnen levens - en bedrijven - ten gronde richten.
Reageer
Preview