Wat AI kan en wat jij moet blijven doen

,
8 mins

Onlangs zag ik een fragment in een talkshow over een bijzondere knop: een grote rode knop waarmee je in één keer je digitale sporen van het internet zou kunnen wissen. Het idee: jongeren zouden op hun 18e opnieuw moeten kunnen beginnen, zonder last te hebben van alles wat ze daarvoor online gedeeld hebben. Herkenbaar, vond ik – en confronterend tegelijk. Toen ik jong was, voelde social media nog relatief onschuldig. We begonnen op Hyves, het eerste echte Nederlandse sociale netwerk, waar iedereen inmiddels met lichte nostalgie op terugkijkt. Daarna volgde Facebook – en gaandeweg veranderde er iets. Het internet werd persoonlijker, data werd waardevoller en wat je online deed of deelde, kreeg steeds vaker échte gevolgen.

Het deed me denken aan AI. Niet omdat het precies hetzelfde is, maar omdat het net zo makkelijk is om er blind in mee te gaan – zonder altijd te overzien wat je deelt, welke keuzes je aan technologie uit handen geeft, of welke risico’s dat met zich meebrengt. AI komt snel dichterbij, ook in de dierenartsenpraktijk. En net als bij social media toen, is het goed om nu al even stil te staan: wat willen we wél, wat niet en wat alleen onder voorwaarden?

Alleen: hoe bepaal je of iets ‘verantwoord’ is? Wat voor de één als handig hulpmiddel voelt, roept bij de ander direct vragen op. Om die afweging makkelijker te maken, helpt het om onderscheid te maken tussen toepassingen met weinig risico, toepassingen die extra aandacht vragen, en toepassingen die je liever links laat liggen.

Een eenvoudige manier om dat te doen, is met het bekende ‘stoplichtmodel’:

  • Rood: beter niet doen;
  • Oranje: kan, maar met duidelijke afspraken en toezicht;
  • Groen: veilig inzetbaar binnen de praktijk.

Het is geen exacte wetenschap, maar wel een handige kapstok om het gesprek te voeren: wat willen we wél, wat (nog) niet en wat alleen onder bepaalde voorwaarden?

Rood licht: Niet alles wat kan, moet ook

Sommige AI-toepassingen klinken indrukwekkend, maar zijn in de praktijk simpelweg geen goed idee. In het ‘rode licht’ vallen toepassingen waarbij de risico’s groot zijn en nauwelijks te beheersen – of waarbij de impact op privacy, veiligheid of vertrouwen te groot is.

Voorbeelden zijn:

  • Gezichtsherkenning in de wachtkamer;
  • Automatische gedragsanalyse van medewerkers op de werkvloer;
  • Zelfstandig medisch handelen, zoals AI die een diagnose stelt of medicatie voorschrijft zonder menselijk toezicht.

Deze technieken kunnen technisch gezien werken, maar ze tasten de privacy aan, ze verplaatsen de verantwoordelijkheid van mens naar machine. Rood betekent: niet doen. Omdat de risico’s niet opwegen tegen de voordelen, of omdat je de controle uit handen geeft. En dat is in de zorg – ook voor dieren – geen optie.

Oranje licht: Alleen met goede begeleiding

In het ‘oranje licht’ zit de grootste groep toepassingen: AI die potentieel nuttig is en waar je wél bij moet opletten. Het gaat om toepassingen die afhankelijk zijn van goede data, duidelijke grenzen en menselijk toezicht.

Voorbeelden? Denk aan een systeem dat helpt bij triage, of een model dat voorspelt of een behandeling kans van slagen heeft. Nuttig – mits goed ingericht. Want als zo’n systeem is getraind op scheve of beperkte data, kan het verkeerde aannames doen. Misschien omdat een ras in de dataset vaker als ‘lastig’ is gelabeld, of omdat klantgedrag uit andere landen wordt geïnterpreteerd alsof het hier ook geldt.

Voorbeelden zijn:

  • AI die helpt bij triage of risico-inschatting;
  • Systemen die een behandeladvies geven op basis van historische data;
  • Tools die klantgedrag voorspellen en daar acties aan koppelen.

Deze toepassingen kunnen effectief zijn, mits:

  • je weet waarop het systeem is getraind;
  • je het systeem regelmatig test en evalueert;
  • er menselijk toezicht is bij het interpreteren van resultaten;
  • en je kunt ingrijpen als het misgaat.

AI kan je ondersteunen, maar mag nooit de enige stem zijn die telt.

Groen licht: Praktisch, snel, veilig

Tot slot zijn er ook toepassingen waarbij het risico klein is en het gemak juist groot. In het ‘groene licht’ zitten AI-functies, die vooral administratief werk slimmer of sneller maken – en dat zijn er inmiddels best wat.

Bijvoorbeeld:

  • slimme zoekfuncties die sneller relevante patiëntinformatie vinden;
  • tekstsuggesties bij het invullen van consultverslagen;
  • automatische herinneringen op basis van klantgedrag.

Deze tools zijn veilig te gebruiken, zolang:

  • duidelijk is wat ze doen en hoe ze werken;
  • je weet wanneer je erop kunt vertrouwen – en wanneer niet;
  • medewerkers basiskennis hebben van het systeem.

Groen betekent: doen, mits goed ingericht. Het zijn vaak kleine hulpmiddelen die, als ze goed gebruikt worden, echt verschil maken in de werkdruk en klantervaring.

Snelle oplossingen, trage gevolgen

AI gaat de manier waarop we werken veranderen. Niet alleen in de praktijk, maar ook in hoe software tot stand komt. Dankzij de komst van krachtige taalmodellen kunnen toepassingen sneller ontwikkeld worden dan ooit. Dat zie je ook terug in het snel veranderende landschap van softwareoplossingen: nieuwe initiatieven met frisse ideeën en innovatieve toepassingen, die dankzij AI razendsnel tot leven komen. In relatief korte tijd is er veel mogelijk geworden – en dat zorgt voor beweging in de markt.

Die ontwikkeling brengt vernieuwing en vraagt ook om een scherp oog. Want snelheid en innovatie zijn waardevol, alleen niet altijd hetzelfde als betrouwbaarheid of langetermijnondersteuning. Wat vandaag indrukwekkend oogt, is morgen misschien alweer vervangen – of blijkt in de praktijk toch niet bestand tegen de complexiteit van het dagelijks werk in een dierenartsenpraktijk. Zeker als het aankomt op cliënt- en patiëntdossiers (met privacygevoelige informatie), communicatie en medische gegevens wil je kunnen vertrouwen op stabiliteit, transparantie en support die verder gaat dan alleen de eerste indruk.

Daarom is het goed om bij de inzet van AI niet alleen te kijken naar wat een systeem kan, maar ook naar wie erachter zit. Is er aandacht voor privacy, datakwaliteit en controle? Wordt de technologie ondersteund door ervaring in de veterinaire sector? En is het duidelijk hoe het systeem tot bepaalde aanbevelingen komt – of blijft het een ‘black box’?

AI biedt zonder twijfel mooie kansen om werkprocessen te ondersteunen, fouten te verminderen en tijd te besparen. Alleen vraagt verantwoord gebruik ook om eigenaarschap: weten wat je gebruikt, en waarom. Technologie is geen doel op zich – het is een middel dat past bij de manier waarop jij zorg wilt leveren.

En dan nog even dit
Bij IDEXX Veterinary Software, Europe hebben we onszelf een helder doel gesteld: iedere medewerker behaalt één of meerdere AI-certificaten. Hoe dat eruitziet, verschilt per rol. Niet iedereen hoeft te kunnen programmeren of een model te trainen – maar wél begrijpen waar AI een rol speelt in ons werk, waar de risico’s liggen en welke vragen je moet stellen bij nieuwe toepassingen. Denk aan datakwaliteit, transparantie en toezicht – de punten die je hierboven in het artikel dikgedrukt zag terugkomen. Dit zijn thema’s waarvan we vinden dat iedereen binnen onze organisatie ze moet kunnen herkennen en benoemen.

In dit proces merkten we dat er aanvankelijk veel vragen en ook onzekerheid leefde. En dat is logisch. AI is geen simpele knop die je aan of uit zet. Juist door samen met collega’s kennis op te bouwen, werd het onderwerp minder abstract – en veel makkelijker bespreekbaar. Die bewustwording willen we vasthouden, zowel intern als in onze samenwerking met praktijken.

Over de auteur

Vincent Willems is verantwoordelijk voor Marketing, Learning en Partnerships bij IDEXX Veterinary Software, Europe. En heeft gewerkt in verschillende dierenartsenpraktijken in Ierland en Nederland.

Laten we eens kijken wat IDEXX-software voor uw praktijk kan betekenen

Vul het onderstaande formulier in en we nemen contact met u op.