Rianne Langenberg, Business Strategist van ORTEC, pleit ervoor om algoritmes in sommige opzichten te behandelen als menselijke werknemers, waarbij de controle op hun functioneren veel meer een taak moet worden van de organisatie en het management zelf. Ze geeft vijf elementen die er, als ze goed worden ingericht, samen voor zorgen dat algoritmes kunnen worden gemanaged. Ze beseft ook dat dat zo makkelijk mogelijk moet worden gemaakt voor de menselijke medewerkers: “Voor senior management is algoritmiek vaak nieuw; wij willen het toegankelijker maken door het een menselijk gezicht te geven. Onze opzet is juist niet nieuw: die sluit aan bij de systematiek die de meeste bedrijven kennen.”
Van mensen accepteren we dat ze fouten maken, weet Langenberg. “Maar zodra de taak van een mens wordt overgenomen door een algoritme denken we daar opeens anders over. Algoritmes maken echter ook fouten; ze weten ook alleen maar wat wij ze op een bepaald moment hebben geleerd, en andere dingen niet. Met menselijke fouten hebben we leren omgaan: we halen ze er voor een groot gedeelte uit door de manier waarop we selecteren, managen, peer reviews inzetten, noem maar op. Datzelfde principe moeten we toepassen op algoritmes.”
Rianne Langenberg
We moeten dus parallellen trekken met mensen, aldus Langenberg. “Wie is verantwoordelijk voor de ethische standaarden in een organisatie? Uiteindelijk het bestuur. Maar als manager van een bepaalde afdeling moet je erop toezien dat mensen van die afdeling zich aan de ethische standaarden houden. Je zou er dus ook op moeten toezien dat de algoritmes op die afdeling zich aan de afgesproken standaarden houden. Alleen weet een afdelingsmanager niet per se iets van algoritmiek. Dus hoe kunnen we hem of haar helpen controle te krijgen en te houden?” Daarin onderscheidt ORTEC vijf elementen die je als bedrijf moet inrichten om te zorgen dat je algoritmes goed managet, met een knipoog naar de parallel met het managen van mensen.
We’ve learned to deal with human error. We should apply the same principles to algorithms.
“Dit is feitelijk de paraplu waaronder de overige vier elementen hangen”, legt Langenberg uit. “Het gaat om ethische richtlijnen, een framework dat beschrijft waaraan een algoritme moet voldoen en hoe het zich dient te gedragen. Explainable AI en Fairness in AI zijn belangrijke thema’s hierin. In uitgebreide vorm beschrijft de code of conduct ook hoe de processen en de governance eruit moeten zien.”
“Op het moment dat je een nieuw algoritme in gebruik gaat nemen, moet je goed kijken naar welk type algoritme je gaat toepassen: maak je gebruik van gevoelige data en kun je, met het oog op explainability, bijvoorbeeld wel of niet een black box-algoritme gebruiken? Op basis van het risiconiveau maak je keuzes, zoals voor de tests die er worden gedaan. Je bepaalt ook welke stappen je wilt afdwingen voor iets operationeel mag gaan draaien. Vergelijk het met een situatie waarin iemand aanneemt als bedrijf: die je gooi je ook niet zomaar in het diepe.”
“De gegevens van je personeel bewaar je in een HR-systeem. In het geval van een algoritme is het evenzeer belangrijk om zaken goed vast te leggen, omdat er steeds meer regelgeving komt en mensen steeds meer transparantie en accountability eisen. Wil je het kunnen laten zien, dan moet je het ergens vandaan kunnen halen. Je moet dus een systeem hebben waarin je bijhoudt welke processen je volgt om compliant te zijn, maar bijvoorbeeld ook welke algoritmes je in dienst hebt, wie de managers zijn, wat hun job description is en hoe ze de laatste jaren performen.”
“Elk bedrijf heeft een organisatiestructuur: wie managet wie, wie zijn de afdelingshoofden, welke teams zijn er? Soms valt iemand hiërarchisch onder het ene afdelingshoofd, maar wordt hij of zij functioneel door iemand anders aangestuurd. Dat soort situaties zul je bij algoritmes ook tegenkomen: dan is de eigenaar van een proces vaak iemand uit de business, maar zijn er functioneel mensen van IT of data science nodig voor een goede governance.”
“Als je eenmaal iemand hebt aangenomen, wil je die persoon ook regelmatig blijven monitoren. Ook algoritmes zul je regelmatig moeten blijven checken: werken ze nog zoals ze zouden moeten werken? Mensen hebben soms een training nodig, en hetzelfde geldt voor algoritmes. Ook die moeten soms worden hertraind. Functioneert iemand echt niet, dan zul je ontslag overwegen, en bij een algoritme de aanschaf van een ander model.”
Rianne Langenberg
"Ook algoritmes zul je regelmatig moeten blijven checken: werken ze nog zoals ze zouden moeten werken?"
De potentiële impact van algoritmiek is ook maatschappelijk natuurlijk niet onopgemerkt gebleven, zegt Langenberg: “Zelflerende algoritmes ontwikkelen zich mettertijd. De meeste mensen weten inmiddels wel dat je daarom moet blijven monitoren. Maar bij een niet-zelflerend algoritme moet dat net zo goed. Want al verandert het algoritme zelf niet, de wereld eromheen doet dat wel. Als een algoritme vijf jaar geleden goed werkte in de op dat moment vigerende omgeving, processen en ethische waarden betekent dat niet dat het vandaag nog steeds werkt. Veel organisaties zijn zich daar wel bewust van, alleen weten ze niet precies hoe ze dat het beste kunnen organiseren. Vandaar dat wij zeggen: doe het als equivalent van hoe je het voor mensen organiseert. Je wilt bijvoorbeeld dat de verantwoordelijkheid voor algoritmes in je bedrijf zo breed mogelijk wordt gedragen, zoals je ook wilt dat je mensen anderen aanspreken op onethisch gedrag, of dat op z’n minst melden. Als iedereen let op het ‘gedrag’ van een algoritme, wordt de kans dat het fout gaat kleiner.”
Dit artikel is onderdeel van de 3de editie van ORTEC's magazine Data and AI in the Boardroom. Download jouw magazine!
We hebben changemakers in verschillende industrieën gevraagd hoe hun organisaties stappen maken naar een duurzamere toekomst, welke doelen ze hebben gezet, voor welke uitdagingen ze staan en hoe het gebruik van data hen helpt om verantwoordelijke beslissingen te nemen.
Deze editie bied je een kijkje in de aanpak van toonaangevende organisaties, zoals Schiphol Airport, PostNL en Eosta.
Dit is allemaal niet compleet nieuw, wil Langenberg vooral gezegd hebben. “Veel onderdelen sluiten aan bij MLOps, de nieuwe standaard in het ontwikkelen en beheren van machine learning-modellen. Daarnaast hebben veel bedrijven al een data governance-structuur ingericht. Algorithm governance is nog lang niet altijd meegenomen, maar kan hier wel goed bij aansluiten. Check wat al geborgd is, vul aan wat nog ontbreekt en zorg vooral dat je overzicht creëert in hoe je algoritmes managet.”
Over Rianne Langenberg
Rianne is Managing Consultant en Business Strategist bij ORTEC. Ze is gespecialiseerd in digitale strategie, change management en process design. Rianne heeft een grote variëteit aan organisaties, zoals Achmea, geholpen in het vormgeven en versnellen van hun digitale transformatie. Altijd met verbetering en vernieuwing tot doel.