Uppföljning av AI-system som är i drifttagna så förtroende för systemet bibehålls.

Denna del är till för att uppmärksamma er som utvecklat AI-system om att följa upp systemet och uppdatera relevant dokumentation.  

I dagsläget är denna del utformad som goda råd. På sikt är avsikten att utveckla denna del för att bli mer stöttande.

It-system som innehåller ai-funktionalitet skiljer sig åt jämfört med traditionellt programmerade funktioner i och med att 
ai-funktionalitet har ett starkt beroenden till bland annat det data det tränades på. Detta gör att man behöver ha en systematisk uppföljning av ai-system på plats då man introducerar ett it-system med ai-funktionalitet. Man behöver även kunna samla in och bibehålla information om systemet under drift. I och med att utfallen kommer att ha en inbyggd variation över tid behöver man använda analysverktyg som kan identifiera om bakomliggande nivåer förändras, till exempel statistiska styrdiagram.

  • Det är lämpligt att med regelbundna intervaller systematiskt följa upp ai-funktionalitet och utvärdera it-systemets prestanda gentemot kravbild och feedback från olika intressenter som berörs av systemet.
    • Historik från monitorering ( trender, variation)
    • Hur har systemets “business case”  utvecklats
    • Samlad bild från feedback, synpunkter( positiva och negativa)
    • Finns indikation på att systemet behöver åtgärdas så att förtroendet för systemet upprätthålls.
    • Uppdatera dokumentationen om förändring införs
       
  • Det är även lämpligt att ha ett signalsystem inbyggt i ai-systemets monitorering som larmar då något inte fungerar som det ska, om prediktionssäkerheten(model skew) driftar eller skevar(bias risk) eller om egenskaper i indata förändras(data skew) jämfört träningsdata. Vid larm behöver man kunna utreda orsak till larm samt förstå om det är tillfällighet eller om avvikelsen är bestående. Sedan behöver man ta beslut om hur man går vidare, kan det vänta eller måste man initiera akuta åtgärder.
     
  • Man behöver kunna hantera de situationer då ett ai-system uppenbarligen har gjort fel. Detta är viktigt om förtroendet för ai-systemen ska kunna upprätthållas.
     
  • Det är lämpligt att ha en logg för varje AI-system. Där man kan dokumentera prestanda, det som händer( ex larm), vad man utreder, slutsatser och de insatser man gör under systemets livscykel.