Artificiële intelligentie vraagt aandacht en technologische geletterdheid in raad van bestuur


05 Nov
05Nov

Artificiële intelligentie (AI) is een transversale technologie, waarvan de adoptie over alle sectoren heen belangrijk zal blijken voor de competitiviteit van ondernemingen. De technologie laat software, machines en apparaten toe om informatie te analyseren en op basis daarvan problemen op te lossen of acties uit te voeren. Je smartphone ontgrendelen via gezichtsherkenning of een vraag stellen aan én antwoord krijgen van Amazon’s Alexa zijn toepassingen die al lang geen nieuwigheden meer zijn. De ontwikkelingen gaan snel, raden van bestuur kunnen dus maar beter mee zijn met de mogelijkheden én de risico’s ervan. 

 Steeds meer bedrijven ontwikkelen AI-systemen of kopen software die door de technologie wordt gedreven. Uit een wereldwijd onderzoek door het Amerikaanse adviesbureau McKinsey in 2019 blijkt dat het gebruik van die AI dan ook aan een snel tempo toeneemt. Maar uit datzelfde onderzoek leren we ook dat slechts 41% van de respondenten zegt dat hun organisaties de risico’s die met AI-implementaties gepaard gegaan “uitgebreid identificeren en prioriteren”.

Nochtans zou AI-toezicht een onderdeel moeten zijn van de takenlijst van een raad van bestuur. Besturen bewaren immers de controle over de missie en het risicomanagement van een bedrijf. De bestuursleden moeten de juiste informatie en vaardigheden hebben om die controlefunctie uit te voeren. De strategische, operationele en juridische risico’s van AI kennen, begrijpen en ermee omgaan, hoort daar dus ook bij. In veel besturen wringt daar echter het schoentje en moet de technologische geletterdheid van de leden ferm verbeterd worden.

Toezicht nodig

Waarom is het zo belangrijk dat bestuursleden hun technologische kennis en vaardigheden bijschaven? Deugdelijk bestuur is één argument. Maar evengoed kan AI-bestuur ook benaderd worden vanuit de idee van ESG (Evironmental, Social & Governance). Factoren als energieverbruik, klimaat, beschikbaarheid van grondstoffen, gezondheid, veiligheid en goed ondernemingsbestuur worden bij investeerders al lang mee afgewogen bij de selectie van bedrijven. Bestuursleden beschikken ondertussen best wel over de nodige kennis om met die zaken om te gaan en er toezicht op te houden in het bedrijf. Maar volgens de ESG-community moet er nu ook een ’T’ toegevoegd worden aan het acroniem: technologie. De impact van technologie op burgerlijke vrijheden, arbeidskrachten en sociale rechtvaardigheidskwesties is zo groot, dat besturen hier vanaf nu ook toezicht moeten op houden.

Raden van bestuur die de impact van AI opnemen als onderdeel van het vereiste toezicht moeten beseffen dat…

  • AI méér is dan enkel een taak voor het IT-team. AI heeft een impact op de hele organisatie, van de juridische dienst tot de marketing-en personeelsafdelingen.
  • AI niet op zichzelf staat. Het systeem bestaat uit de technologie zelf, maar ook uit de menselijke teams die de technologie beheren en gebruiken, en de gegevens waarop het draait.
  • AI-systemen hebben toezicht nodig. Het gaat om zeer complexe technologie die ontworpen is met de bedoeling om zich snel aan te passen. Het vereist dus geïntegreerde, strategische begeleiding en opvolging.

Keuzes maken

De ontwikkelaars die AI-systemen bouwen, kunnen veel invloed hebben. De keuzes die ze maken, zijn doorgaans onschuldig. Maar soms kunnen ze de AI zo maken, dat het wel eens de wenkbrauwen doet fronsen. Met AI kan er bijvoorbeeld voor gezorgd worden dat klanten van een winkel verschillende prijzen te zien krijgen op basis van hun geslacht. Dat is natuurlijk niet correct.

Hoewel het dus de ingenieurs en IT’ers zijn die AI-systemen ontwikkelen, is het niet enkel hun verantwoordelijkheid. Van hen wordt vooral verwacht dat ze een technologie bouwen die werkt, op tijd af is, en liefst binnen het budget. Regels opstellen voor een verantwoord gebruik van die technologie behoort niet tot hun to-dolijst. Het is ook meestal niet aan de technische teams om te bekijken of AI-systemen overeenstemmen met de wetten of bedrijfsstrategieën en -doelstellingen.

Het is in de eerste plaats op het niveau van het management en de raad van bestuur dat moet bepaald worden hoe een bedrijf zal omgaan met AI. Bestuursleden moeten een plan opzetten met regels over wat kan en niet kan. Ze moeten ook de normen noteren waarmee de werking, de veiligheid en de robuustheid van die AI kan beoordeeld worden. Het beleid moet ook ondersteund worden door praktische processen, een sterke cultuur en compliance-structuren.

Omgaan met cyberdreiging

Technologie-afhankelijke ondernemingen zijn kwetsbaarder voor storingen. Raden van bestuur en leidinggevenden zijn zich daar ondertussen al erg bewust van. Maar hoe meer we bereiken met technologie, hoe meer nieuwe risico’s in acht moeten genomen worden door besturen in elk type bedrijf. Ten eerste zijn veel AI-systemen afhankelijk van de technologie van andere partijen. Die kunnen invloed hebben op de betrouwbaarheid van een systeem als door derden voorziene elementen defect zijn of onvoldoende ondersteund worden. Daarnaast moet er steeds meer rekening gehouden worden met nieuwe soorten van cyberdreiging. Daarmee omgaan, vraagt nieuwe niveaus van coördinatie binnen ondernemingen.

Hoe moeten we met cyberdreiging omgaan? Hoe zetten we AI in? Wat is onze plicht? Hoe stemt het gebruik van die technologie overeen met onze andere missies of strategische doelen? Raden van bestuur moeten op veel vragen een antwoord kunnen vormen. Ze moeten beslissen waar het management de lijn trekt. Veel bestuursleden voelen zich niet in hun comfortzone als het gaat over nieuwe technologieën of cybersecurity, maar het is wel aan hen om de verantwoordelijkheid op te nemen en toch actief mee te denken over het AI-gebruik binnen hun bedrijf.

Daarom moeten bestuursleden…


  • leren waar in de organisatie AI en andere opkomende technologieën gebruikt worden of waar men van plan is om die in de toekomst in te zetten - en waarom.
  • het management vragen om regelmatig te rapporteren over het beleid en de processen voor het beheer van deze technologieën.
  • met het management bespreken wat de normen moeten zijn rond het aankopen van AI-software, de implementatie ervan, training erover en de naleving. Het World Economic Forum heeft een handige AI toolkit ontwikkeld voor besturen om hen te helpen die afspraken vast te leggen.
  • de aanstelling van een C-level executive die verantwoordelijk is voor alles rond AI en dergelijke - over bedrijfsfuncties heen - aanmoedigen.
  • voorzien in geschikte middelen voor en opleidingen van bestuursleden

Richtlijnen van bedrijven en overheden   

Een bedrijf heeft er alle baat bij om een beleid op te zetten rond het gebruik van AI om duidelijkheid te scheppen voor management. Maar ook naar de buitenwereld toe is het slim om hierop in te zetten. Naarmate deze en gelijkaardige technologieën steeds meer doordringen in onze werk- en privésfeer zal het ook mee de reputatie van een merk bepalen. Werknemers, klanten, maar ook het algemene publiek hebben al snel een mening over een bepaald bedrijf. Hoe dat bedrijf dan omgaat met AI zal naar de toekomst toe alleen maar een grotere factor zijn in hoe die mening wordt gevormd.

Natuurlijk is het niet enkel de verantwoordelijkheid van de bedrijven om te bepalen hoe ver we AI laten gaan. Het is van groot belang dat er algemene richtlijnen zijn waar bedrijven zich kunnen op baseren. In verschillende landen doen overheden al inspanningen om zulke richtlijnen rond betrouwbare en verantwoordelijke AI vast te leggen. Zo heeft de Europese Unie in april 2019 haar ethische richtlijnen gepubliceerd. In de Verenigde Staten deelde het ministerie van Defensie dit jaar een ethische gids over AI, en de National Security Commission on Artificial Intelligence heeft in juli ook zijn eigen normen daaromtrent nog gepubliceerd.

Het is nooit te vroeg voor raden van bestuur om werk te maken van een sterk AI-plan. Zelfs in bedrijven waar nu nog maar weinig met AI gedaan wordt, zal de technologie in die ondernemingen z’n weg vroeg of laat toch vinden. De juridische, strategische en merkrisico’s van AI zijn zo groot en impactvol dat directies een duidelijk proces moeten hebben zodat ze samen met het management de risico’s kunnen beperken en toch de vruchten ervan kunnen plukken.


Comments
* De e-mail zal niet worden gepubliceerd op de website.