
Het belang van uitleg bij de introductie van Artificial Intelligence
Samenvatting
Denkt u ook weleens: ‘waarom krijg ik deze aanbeveling te zien?’. Helaas krijgt u geen uitleg terwijl iedere online winkel, streamingdienst en sociale media investeert in artificiële intelligentie om schaarse advertentieruimte te vullen met de meest kansrijke aanbieding.
Algoritmes bepalen niet alleen welke producten worden aangeprezen maar ook of je een hypotheek krijgt, een financiële transactie frauduleus is, wat de optimale locatie voor een ambulance is en of een gezwel kwaadaardig is.
Potentie van AI
Het potentieel van AI is groot. Computers kunnen sommige taken verder doorrekenen, meer variabelen overzien en sneller reageren. Nu we veel data en processor capaciteit hebben lijkt het soms alsof computers de wereld overnemen. Sommige mensen worden daar opstandig van, anderen lui of bang maar in de meeste gevallen blijft het vooral iets wat we niet helemaal begrijpen. En dat is jammer want computers die beslissingen niet kunnen uitleggen zijn niet nodig, potentieel gevaarlijk en op termijn niet succesvol.
Bekende valkuilen uit de IT
Dat aan IT-projecten veel risico’s kleven is bekend. Helaas geldt dat evenzeer voor slimme systemen en AI. Zelfs Google heeft een AI-investering in een recruitment oplossing moeten afschrijven doordat het resultaat een voorkeur had voor mannelijke kandidaten. Vertrouwen van medewerkers en klanten is nodig om te zorgen dat een systeem werkelijk gebruikt wordt. Hoe voorkom je dat deze systemen vooroordelen uit het verleden overnemen? En tot slot moet ook een AI-systeem bijgewerkt worden als de omgeving verandert en nieuwe trends niet automatisch zijn opgepikt.
Uitlegbaarheid is vereist
Materiedeskundigen, beleidsmakers, managers en leidinggevenden, moeten verantwoordelijk blijven voor hun kennis. IT moet geïntegreerde systemen creëren die besluitvorming op basis van deze kennis ondersteunt. Het uitleggen van beslissingen speelt een cruciale rol in een dergelijke samenwerking, is van belang voor het behouden van vertrouwen, aantonen van compliance en hoort bij een democratie die stoelt op handelingsvrijheid, toegang tot informatie, debat en transparantie.
Spreker
Al jaren zet Silvie Spreeuwenberg zich in om systemen transparant te maken voor experts en eindgebruikers. Zij vroeg zich af waarom we accepteren dat nieuwe AI-systemen een black box zijn terwijl dat leidt tot problemen en uitlegbaarheid een extra, maar relatief geringe, investering vergt. Zij is afgestudeerd op uitlegbare AI aan de Universiteit Utrecht, is meer dan 20 jaar actief als ondernemer in de ontwikkeling van beslissingsondersteunende oplossingen voor multinationals, en heeft een MBA van de Erasmus universiteit. Deze achtergrond maakt haar de beste auteur voor een boek over dit onderwerp voor een niet technisch publiek: AIX: Artificial Intelligence needs eXplanation.
- Datum: November 2019
- Programma: ontvangst 15:30 – start lezing 16:00 – borrel 17:30
- Locatie: Le Blanc Advies, Apeldoorn