11 feb 2025
Vertrouwen we al op AI?
De Beursbengel bestaat al bijna negentig jaar en brengt jaarlijks 10 edities uit. In editie 937 verscheen de eerste column over AI geschreven door onze co-founder Jack Vos met de titel Vertrouwen we al op AI?
Niet verwonderlijk, vertrouwen is immers één van de belangrijkste kernwaardes in de verzekeringsbranche. De vraag is is niet óf we AI moeten gebruiken, maar hoe we AI inzetten op een manier
die vertrouwen verdient. Lees meer in dit artikel.
Het zal je niet ontgaan zijn dat AI ook in de verzekeringssector een sterke opmars maakt. Innovatieve kantoren zien de technologie als dé manier om efficiënter en slimmer te werken en zo de concurrent een stap voor te zijn. Toch blijft de vraag: hoe zien klanten deze ontwikkelingen? Recent onderzoek van DNB en de AFM schetst een helder, maar ongemakkelijk beeld. Slechts een kwart van de respondenten staat positief tegenover het gebruik van AI door financiële instellingen, terwijl 22 procent er negatief over denkt. De meerderheid is neutraal of heeft nog geen mening, mede omdat maar weinig mensen weten hoe hun bank, verzekeraar of pensioenfonds AI precies inzet.
“Met Responsible AI kunnen we met AI op een duurzame manier echte waarde creëren.”
— Jack Vos, oprichter Onesurance.ai
Deze cijfers tonen niet alleen de kloof tussen technologie en consument, maar ook de uitdaging voor de sector. Vertrouwen is de kern van verzekeren. Klanten moeten erop kunnen rekenen dat beslissingen eerlijk, transparant en uitlegbaar zijn — of die nu door mensen of door technologie worden genomen. Dit vraagt om een zorgvuldige keuze in de toepassing van AI.
Generative AI (gen AI), bekend van ChatGPT, heeft sinds 2022 alle aandacht. De mogelijkheden lijken eindeloos: teksten schrijven, creatieve outputs genereren en nog veel meer. Maar in verzekeringen blijkt gen AI vaak niet geschikt. Deze vorm van AI is zelfs voor experts een black box, niet uitlegbaar en produceert wisselende resultaten, waardoor het onbetrouwbaar is voor kritieke processen, zoals schadeafhandeling of acceptatie. Bovendien brengt het gebruik van de benodigde grote datasets privacyrisico’s met zich mee, die in strijd kunnen zijn met de AVG.
Daarentegen biedt Predictive AI een betrouwbaarder alternatief. Deze technologie is nauwkeurig, consistent en – essentieel – veel beter uitlegbaar. Met een audittrail kun je aantonen welke factoren een beslissing beïnvloeden. Daarmee biedt het transparantie én schaalbaarheid. Predictive AI is bepaald geen nieuwkomer; de technologie heeft zich al bewezen in de financiële sector.
Toch hoeven we Gen AI niet af te schrijven. Het is nu al waardevol bij ondersteunende taken, zoals bij het schrijven van klantcommunicatie. Voor kritieke processen blijft menselijke controle essentieel. Hier geldt: AI kan een voorstel doen, maar de mens houdt het laatste woord, zeker als het gaat om afwijzing van aanvragen of claims. Deze procedure, bekend als human in the loop, draagt eraan bij dat ethische principes zoals eerlijkheid en verantwoordelijkheid gewaarborgd blijven.
Ook toezicht speelt een cruciale rol. Uit het onderzoek van DNB blijkt dat 62 procent van de consumenten positiever tegenover AI staat als er strenge controle op wordt gehouden. De AFM en DNB werken daarom aan nieuwe methoden om AI effectief te beoordelen. Eén ding staat vast: de technologie moet voldoen aan de ethische standaarden van de sector. Daarvoor moeten goede procedures worden ingericht met proactieve monitoring van de oplossing.
De vraag is dus niet óf we AI moeten gebruiken, maar hoe we AI inzetten op een manier die vertrouwen verdient. Met Responsible AI (RAI) — een combinatie van de juiste technologie, menselijke controle en ethiek — kunnen we met AI op een duurzame manier echte waarde creëren. Zoals Warren Buffett ooit zei: “It takes 20 years to build a reputation and five minutes to ruin it.” Hoe slim AI ook wordt, het is aan ons om het zorgvuldig en verantwoord in te zetten.
Bron: AFM