‘28% van de Engelse huisartsen gebruikt AI voor diagnose’

 

AI in de zorg roept  zorgen op. Zelfdiagnose via ChatGPT, verkeerde medicatie-adviezen en mensen die “dokter Google” boven hun huisarts verkiezen. De reflex is vaak: dit gaat mis. Maar wie iets beter kijkt, ziet een genuanceerder beeld. Sterker nog: AI in de zorg is niet nieuw. Wat wél nieuw is, is wie er toegang toe heeft — en op welke schaal. Tijd voor the Good, the Bad en the Reality van AI als hulpmiddel bij zelfdiagnose.

 

 

 

  Van taboe naar tool in de spreekkamer

Uit onderzoek van Nuffield Trust en de Royal College of General Practitioners (december 2025) blijkt dat 28% van de Engelse huisartsen AI-tools gebruikt in de klinische praktijk. Niet experimenteel, maar functioneel: voor het structureren van consulten, het verkennen van differentiële diagnoses en het samenvatten van patiëntinformatie.

De Britse krant The Guardian vatte deze ontwikkeling samen met de kop “From taboo to tool” (3 december 2025). Waar AI enkele jaren geleden nog werd gezien als iets onwenselijks of zelfs gevaarlijks, wordt het nu door een groeiende groep artsen ingezet als hulpmiddel. En belangrijk: deze artsen gebruiken AI niet als eindbeslisser, maar als assistent. De medische verantwoordelijkheid blijft waar die hoort.

The Good: AI als verlengstuk van expertise

In professionele contexten laat AI zien waar het wél waarde toevoegt. Niet door diagnoses over te nemen, maar door artsen te ondersteunen.

AI wordt al jaren gebruikt in de zorg voor onder andere:

  • het herkennen van patronen in medische beelden,
  • het samenvatten van complexe dossiers,
  • administratieve verlichting,
  • en het ondersteunen van klinische besluitvorming.

Dat is geen sciencefiction. Al in de jaren ’70 draaide aan Stanford het medische expertsysteem MYCIN, bedoeld om artsen te helpen bij infectiediagnoses. De technologie is dus niet nieuw — de toepassing wordt nu volwassen. Deze professionele inzet werkt omdat er context, controle en frictie is. Met frictie bedoelen we het bewust inbouwen van remmen verdieping en vertraging zoals doorvragen, nuancering, bronduiding of doorverwijzing—op momenten waarop blind vertrouwen risicovol is.  AI versnelt en verrijkt expertise, maar vervangt haar niet.

Aan de andere kant van het spectrum staat het consumentengebruik. En daar wordt het ingewikkeld.

Onderzoek met 300 deelnemers in 2024 en 2025 laat zien dat mensen AI-gegenereerd medisch advies vaak als even betrouwbaar of zelfs beter beoordelen dan advies van artsen — óók wanneer dat AI-advies inhoudelijk minder correct is.Dat is geen technisch probleem, maar een gedragsprobleem. We verwarren een overtuigende toon met medische juistheid.

Daar komt bij dat recent onderzoek naar Google’s AI Overviews bij gezondheidsvragen laat zien dat YouTube opvallend vaak als bron wordt gebruikt. De samenvatting oogt professioneel, maar de onderliggende kennisbasis is niet altijd medisch robuust (onderzoek besproken in The Guardian, januari 2026).

 

The Reality: diagnostische prestaties van generatieve AI-tools zijn gemiddeld — en dat is niet goed genoeg

Een belangrijke reality check komt uit een grote meta-analyse van 83 internationale studies (gepubliceerd in npj Digital Medicine, 2025). Daaruit blijkt dat generatieve AI gemiddeld 52,1% diagnostische accuratesse behaalt.

Dat niveau is vergelijkbaar met artsen zonder specialisatie, maar significant lager dan expert-artsen. Met andere woorden: AI kan helpen, maar is geen betrouwbare vervanger — zeker niet wanneer gezondheid of medicatie op het spel staat.

Maar dat was altijd al. Dan nu het verschil met vroeger. Volgens OpenAI gebruiken meer dan 40 miljoen mensen per dag ChatGPT voor gezondheidsinformatie (rapport AI as a Healthcare Ally, januari 2026). ChatGPT Health is OpenAI’s erkenning dat zelfdiagnose zonder frictie niet houdbaar is. Zie ook dit Nieuws.Marketing artikel.

MYCIN in de jaren 70 beïnvloedde tientallen artsen. ChatGPT beïnvloedt tientallen miljoenen mensen met een diagnosevraag per dag.

 

Aanbeveling

Wat betekent dit voor (kennis)organisaties in de zorg en AI-platforms? Allereerst gaat de discussie over AI-zelfdiagnose dus niet primair over technologie, maar over positionering, vertrouwen en schaal.

Voor organisaties die met health content en AI of consumentencommunicatie werken, zijn drie aanbevelingen van groot belang:

  1. Positioneer AI als wegwijzer, niet als diagnose.
  2. Maak bronnen expliciet zichtbaar.
  3. Bouw frictie in bij risicovolle gezondheidsvragen.

 

Conclusie

Dat 28% van de Engelse huisartsen AI gebruikt, is geen red flag — het is een signaal van volwassen gebruik. Het probleem zit niet bij professionals die weten wat ze doen, maar bij massaal consumentengebruik zonder context. AI in de zorg is sowieso niets nieuws onder de zon. Wat nieuw is, is dat iedereen, professional en consument het tegelijk gebruikt — en het automatisch vertrouwt. Van taboe naar tool is een logische stap. Maar zonder professionele context voor gebruik wordt elk hulpmiddel een risico.