AI i reglerad tillverkning — Praktisk vägledning för bilaga 22-efterlevnad
EU GMP bilaga 22 introducerar ett strukturerat efterlevnadsramverk för AI- och maskininlärningssystem i reglerad tillverkning. Att förstå vilka AI-system som faller inom dess tillämpningsområde och vad efterlevnad kräver för dessa system är den praktiska utmaningen för reglerade tillverkare — innan obligatorisk tillämpning träder i kraft.
Tröskelfrågan: GxP-relevanta AI-beslut
Inte all AI-användning hos en reglerad tillverkare omfattas av bilaga 22. Tröskeln är om ett AI-system producerar utdata som påverkar GxP-journaler eller GxP-beslut. Ett AI-system som rekommenderar orderkvantiteter för förpackningsmaterial ligger under tröskeln. Ett AI-system som klassificerar produktbilder som godkänt/underkänt för en kvalitetsinspektion — där klassificeringen påverkar en GxP-journal — ligger över den.
Genomföra en scoping-bedömning för bilaga 22
Scoping-bedömningen svarar på tre frågor för varje AI-system i bruk eller planerat: Påverkar detta systems utdata GxP-journaler eller beslut? Vad är risknivån för dessa GxP-beslut? Vilka validerings- och övervakningsåtgärder finns för närvarande?
För en Business Central-miljö inkluderar relevanta AI-system att bedöma: Microsoft Copilot-funktioner aktiverade i BC-klientorganisationen; AI-anslutna integrationer (plattformar för prediktivt underhåll, visuella inspektionssystem); och AI-funktionalitet i anslutna system (QMS, LIMS) som matar data till BC.
Valideringsansats för AI-modeller i reglerade processer
AI-modellvalidering skiljer sig från traditionell CSV i ett avgörande avseende: modellens beteende kan inte fullt ut bestämmas enbart från dess specifikation. Statistiska prestandamätvärden måste komplettera den funktionella valideringsbevisen.
Valideringsansatsen bör inkludera: definition av avsedd användning och prestandakriterier; bedömning av träningsdatakvalitet och dokumentation; IQ-bevis för modelldriftsättningsmiljön; OQ-bevis som visar att modellen uppfyller sina prestandakriterier; PQ-bevis från faktiska driftsförhållanden; och en dokumenterad driftövervakaningsprocedure.
Utforma mänskliga övervakningsarbetsflöden
Bilaga 22 kräver uttryckligen mänsklig övervakning av AI-utdata i GxP-relevanta processer. Övervakningen måste vara meningsfull: den granskande personen måste ha tillgång till den information som behövs för att utvärdera AI-utdata, måste förstå AI-systemets begränsningar, och måste ha befogenhet att åsidosätta AI-utdata utan hinder.
I en Business Central-miljö innebär mänsklig övervakning typiskt: AI-utdata presenteras för granskaren tillsammans med källdata; granskaren kan acceptera, modifiera eller avvisa AI-utdata; granskningsåtgärden registreras i ändringsloggen eller godkännandearbetsflödet.
Övervaka AI-modellprestanda i produktion
Bilaga 22 kräver löpande övervakning av AI-modellprestanda. Modell-drift — gradvis försämring av modellprestanda när produktionsmiljön förändras — måste planeras för. En övervakningsprocedur som detekterar och reagerar på drift är en del av det validerade tillståndet för ett AI-system som omfattas av bilaga 22.
Ladda ned vägledningen om AI i reglerad tillverkning och bilaga 22-efterlevnad som PDF via länken nedan.