Data Integrity Pharma (part 2)
Comprendere le complesse normative e disegnare in breve tempo un'efficace strategia di realizzazione (parte 2)

Data Integrity Pharma

Comprendere le complesse normative e disegnare in breve tempo un'efficace strategia di realizzazione (parte 2)

Nella seconda parte del articolo approfondiremo concetti chiave visti nella prima parte, introdurremo il tema di Data Governance, analizzeremo le principali tipologie dei dati e le relative sorgenti, e vedremo come è opportuno trattare ognuno di essi nell'ottica di Data Integrity.
Infine, cercheremo di definire i principi su quali basare il disegno di una buona strategia per il raggiungimento del Data Integrity in un'azienda farmaceutica, individuando le principali fasi, sfide, opportunità, e rischi.

    punto di partenza

    La domanda a cui ogni produttore di farmaci deve dare una risposta concreta è: ok, ora che ho capito i requisiti definiti dalle normative, come faccio a raggiungere l'obiettivo e garantirne l’integrità dei dati nella mia azienda? 

    La numerosità e la complessità delle normative e le varie guide come GLP (Good Laboratory Practice), GMP (Good Manufacturing Practice) e ultimamente anche GAMP (Good Automated Manufacturing Practice) suggeriscono che non c’è una risposta semplice ed immediata. La strada per verso Data Integrity è lunga e tortuosa, e deve essere percorsa da tutti i reparti aziendali ad impatto GxP. Progetti di queste dimensioni richiedono un piano, spesso pluriennale, una vera e propria strategia. 

    Sfide quotidiane di Data Integrity

    L’analista di laboratorio e l’operatore di produzione nelle loro attività quotidiane seguono le procedure operative standard (SOP), metodi di analisi o Batch Record. Lo fanno documentando l’intero processo e registrando i risultati. Per agevolare questi processi molte aziende hanno adottato sistemi digitali come LIMS ed ELN (Laboratory Information Management Systems ed Electronic Laboratory Notebooks) nei laboratori e EBR (Electronic batch record) nei reparti di produzione. Questi sistemi sono sicuramente di enorme aiuto per automatizzare le operazioni. Ma spesso questa conversione è parziale, per due motivi:

    • Queste soluzioni sono state progettate per coprire principalmente la parte di visualizzazione dei fogli di istruzioni o dei metodi di analisi e per aggregare i risultati dei test analitici e delle operazioni di reparto, inseriti nel sistema manualmente dall'operatore.

    • Queste soluzioni non sono predisposte nativamente per l’interfacciamento con i dispositivi elettronici a scopo di raccogliere i dati di processo e delle analisi.

    Inoltre i dati gestiti in produzione e nel laboratorio non possono essere trattati solo come un semplice set di parametri, poiché hanno una struttura complessa e per nulla standardizzata:

    • risultati raccolti dagli strumenti analitici (bilance, titolatori, pH-metri)

    • rilevazioni dei sensori delle linee di produzione,

    • dati anagrafici

    • lo stato dei dispositivi

    • gli utenti e le rispettive autorizzazioni

    • i metodi applicati e i metadati

    • ...

    La sola acquisizione elettronica di una quantità limitata di dati di misura senza i relativi metadati (ID dispositivo, utente, tara, dati qualitativi dei campioni, cronologia di taratura/pulizia/utilizzo, SOP adottata, versione del metodo, ecc.) lascia la misura priva del contesto.

    Ben presto si scopre che il processo non può essere gestito in modo efficace se anche ogni singola interazione con il dispositivo stesso non è descritta nel workflow durante la progettazione di questo e, successivamente, non è tracciata durante la sua esecuzione. Questi tipi di interazione sono al quanto difficili da descrivere in una SOP o Batch Record cartacei. Lo è già per i sistemi elettronici semplici, possiamo immaginare come la sfida diventa insostenibile con l'aumentare della complessità dei sistemi digitali. 

    I problemi causati dai workflow manuali/cartacei sono:

    • La trascrizione di dati è soggetta a errori

    • Mancanza di audit trail dei dati

    • Minor accuratezza/completezza delle registrazioni.

    • Una non completa conformità ai requisiti ER-ES (Electronic Record – Electronic Signature), nonostante i sistemi siano convalidati.

    • Documenti, e dati in generale, non risiedono in un luogo unico ma sono distribuiti nei vari reparti aziendali e salvati su diverse tipologie di supporto (elettronici e cartacei)

    • Responsabili dei processi non hanno una necessaria conoscenza e padronanza dei propri processi:

      • le procedure cartacee sono soggette ad interpretazioni

      • è facile sottovalutare la priorità dei requisiti (quali dati conservare, per quanto tempo, audit trail, …)

      • i rischi non sono sempre gestiti adeguatamente (impatto dei guasti, durata dei supporti magnetici, …)

    In sitntesi: un mancato rispetto dei requisiti normativi GLP, GMP e GAMP

    Un comune approccio al Data Integrity 

    Durante l'avvio di un progetto di Data Integrity è necessario tenere conto di alcuni rischi organizzativi. Uno di questi può essere rappresentato dalla domanda "Chi deve assumersi la responsabilità, la leadersheep del progetto?". Non è facile rispondere a questa domanda: dato che la normativa DI appartiene all'ambito di assicurazione qualità, si potrebbe dire che il responsabile è del direttore del QA. 10-15 anni fa questa poteva essere una risposta giusta, visto che in quell'epoca una grossa fetta di procedure e dei dati GxP erano gestite sulla carta. Oggi, se il responsabile QA dell'azienda ha una solida esperienza nella digitalizzazione e ha già seguito un progetto di Data Integrity, può assumersi questa responsabilità. Altrimenti è meglio affidare la guida al responsabile dei sistemi IT o ad una figura appositamente selezionata. Più avanti capiremo il perché.

    Dal 2015, quando il tema è diventato prioritario, molte aziende si sono già mosse con dei progetti di Data Integrity, ed è possibile quindi raccogliere testimonianze e fare un bilancio.

    Gli approcci seguiti prevedono, in linea con le indicazioni di MHRA, l’identificazione dei vari sistemi ed una loro valutazione in funzione della complessità e rilevanza per definire le necessarie attività di adeguamento, convalida e procedure operative.

    La linea più comune seguita dalle aziende è, naturalmente, garantire la copertura dei principi ALCOA per i dati generati durante la produzione, l'analisi e la movimentazione dei farmaci. 


    Ma in contesto di elevata complessità dei dati e di numerosità e varietà dei sistemi, questo approccio può rivelarsi tutt'altro che facile.

    I produttori dei sistemi e dispositivi digitali, a loro volta, cavalcando l'onda e fiutando le nuove opportunità di business, propongono di interfacciare i loro dispositivi ad un PC o, nei casi peggiori, di dotare i dispositivi della possibilità di esportare i dati manualmente. Anche se venisse adottato il primo metodo (interfacciamento con PC) questo potrebbe essere una soluzione non definitiva ne ottimale del problema.

    Cosa fanno le aziende nella pratica?

    Con o senza una strategia ben definita ecco dunque un ventaglio di azioni adottate normalmente dalle aziende?

    • Se possibile, adeguamento (configurazione) dei sistemi esistenti

    • Acquisto di nuovi sistemi completi (hardware-software) per sostituire i sistemi esistenti

    • Acquisto di nuovi software per potenziare i sistemi esistenti

    • Revisione delle procedure esistenti che definiscono la gestione di:

      • accessi / privilegi

      • audit trail

      • data back-up

      • data restore

    • Formazione e sensibilizzazione del personale ai concetti del D.I.

    strategia

    Principio di Pareto


    Tornanto alle indicazioni di MHRA soffermiamoci sulla parola rilevanza. È forte, infatti, la tentazione di ordinare l’elenco dei sistemi individuati per complessità crescente e pianificare i lavori in base a questo ordine, credendo che quello che conta è il numero di dispositivi "regolarizzati".

    Ma ricordandoci che il soggetto è il dato e non il sistema, possiamo dire che con il 20% dei sistemi accuratamente selezionati è possibile raggiungere un grado di copertura di Data Integrity al 80%.

    Il disegno della strategia deve iniziare con la mappatura dettagliata di tutti i dati esistenti in azienda e ed una loro classificazione sulla base di criticità che hanno rispetto alla qualità dei prodotti. Per intenderci, i classici dati sono il lotto e la sua scadenza, ma intorno a questi gravitano una miriade di dati critici, e sono diversi per ogni azienda.

    Solo dopo aver stilato questa TOP 10 (o TOP 20, o TOP50, dipende dalla dimensione e complessità dell’azienda) si procede all’individuazione dei sistemi coinvolti nella loro gestione. Per attribuire una priorità ai sistemi individuati sarà necessario ordinarli, questa volta in base alla linea temporale della vita del dato (generazione, trasferimento, trasformazione e conservazione del tato). Ma questo non è altro che mappare, ad alto livello, i processi attraversati dai dati critici. Per cui, volendo dare un ordine di importanza, la sequenza della nostra indagine avrà questo ordine: Dati - Processi - Sistemi. Questi ultimi, a loro volta, si trascinano dietro l'analisi dell'infrastruttura sulla quale dovranno funzionare.

    Tutto questo servirà per comprendere il reale flusso dei dati, la sua complessità ed eventuali incongruenze e ridondanze. Già, perché una delle azioni potrebbe essere anche l’eliminazione di un sistema, se questo introduce ridondanze e complessità ingiustificate.

    Solo alla fine sarà opportuno valutare i sistemi dal punto di vista di difficoltà di adeguamento, allo scopo di studiare la fattibilità e calcolare l'effort, in modo da preparare ed eventualmente razionalizzare/frazionare il piano d’azione.

    Tuttavia, Pareto ci dà solo il principio, ma non il metodo di valutazione.

    Esiste un modo consistente e valido per arrivare in breve tempo ad un piano operativo (detto anche "rimediation plan")? Sì.

    L'obiettivo di questo articolo è proprio la definizione di questo metodo. Ma essendo, appunto, un metodo, e non una soluzione pronta all'uso, è necessario comprendere i suoi principi di base.

    Top-Down, Bottom-Up... Inside-Out!


    Spesso si sente parlare di "un approccio top-down e bottom-up per ... raggiungere il data integrity" e di "Data Integrity by design”. Ma cosa significa esattamente?

    Un modo di raggiungere DI potrebbe essere quello di individuare tutti i gap nella gestione dei dati, monitorare tutti gli errori, sporadici o sistematici, per poi pianificare le azioni correttive. Ma questo significherebbe rincorrere i problemi, una strada dove tutte le azioni sono di pari importanza e che non porta mai ad una conclusione, semplicemente perché questa non è stata definita a priori.

    Inoltre, a causa della costante "paura" delle ispezioni e di ricevere notifiche, si è istaurata nelle aziende una abitudine a nascondere gli errori e le incongruenze. Questo azzera definitivamente qualsiasi speranza di successo, nel caso venisse adottato il metodo descritto sopra.

    Non possiamo di certo pretendere che FDA non rilevi le mancanze durante le ispezioni. È il loro mestiere. Ci vuole quindi tanto coraggio e determinazione ai piani alti delle aziende farmaceutiche per adottare un approccio diametralmente opposto.


    Monitoraggio


    Innanzitutto, è importante comprendere che il Data Integrity non è un problema di un solo reparto, come Assicurazione Qualità o IT. La qualità e la disponibilità del farmaco, che sono gli obiettivi primari di qualsiasi azienda farmaceutica nel suo complesso, dipendono sempre di più dai dati, e non solo quelli GxP critici. Di conseguenza è importante avviare, a livello aziendale, un ben definito programma culturale di data governance.

    Tutti in azienda devono essere consapevoli e sentire come proprio il problema di DI. Ma soprattutto i dipendendi dovrebbero essere incentivati a segnalare le problematiche, invece di "insabbiarle", mentre il management deve assumersi la responsabilità di raccoglierle, analizzarle ed implementare un piano strutturato di risoluzioni di queste.

    Tra le prime soluzioni, quindi, è necessario implementare (o ottimizzare se esistono già) strumenti e processi che facilitano la sorveglianza dei sistemi. E se il monitoraggio non è automatico, com'è tuttora nella stragrande maggioranza delle aziende, una volta fornito lo strumento bisogna predisporre le procedure di segnalazione manuale, con meccanismi di stimoli per le loro adozioni.


    Roadmap


    E’ importante avere una visione chiara del flusso completo del dato, su come esso stesso viene scambiato tra i vari attori, e sui sistemi che costituiscono l'ecosistema aziendale.

    Le principali fasi per il disegno della strategia si possono riassumere in:

    • I lavori di assestment

    • Comprensione dei processi e dei dati coinvolti in essi

    • Identificazione dei rischi e dei gap di integrità

    • Analisi e progettazione del piano di rimedio

    Ma prima di iniziare bisogna stabilire qual'è il vero obiettivo. Allineamento con i principi ALCOA? cioè “faccio quanto basta”. Oppure traggo da questa opportunità tutti i vantaggi possibili?

    Per i CIO e gli IT Manager il data integrity può essere l’occasione di costruire un ambiente digitale dei loro sogni. Approfittando del periodo storico, caratterizzato da pressioni delle agenzie regolatorie, potrebbero finalmente giustificare ed ottenere il budget che aspettavano da tempo. A beneficiare, naturalmente, è l’intera azienda. Solo che per i non addetti ai lavori è più difficile immaginare questi benefici prima che l’intera strategia si realizzi appieno.

    Data is king

    Data Integrity o Data Governance?

    Abbiamo già accennato a Data Governance precedentemente ed è arrivato il momento di strutturare le idee. I due concetti non sono uno l’alternativa dell’altro. Data Integrity è una componente chiave della Data Governance. Inoltre, come potete immaginare, non appartengono esclusivamente al mondo Pharma, e dato che ormai da anni i dati sono cruciali per qualsiasi azienda moderna, la Data Governance assume importanza vitale e di livello corporate. 

    DATA GOVERNANCE

    Il complesso delle misure messe in atto per assicurare che il dato, indipendentemente dal formato in cui viene generato, venga registrato, elaborato, conservato ed utilizzato in modo da assicurarne l’integrità (ovvero la completezza, consistenza e accuratezza) per tutto il suo ciclo di vita.


    Le tematiche principali di Data Governance includono disponibilità, usabilità, consistenza, integrità e sicurezza. Data Governance prevede l'istituzione dei processi che assicurano un'efficace gestione dei dati attraverso l'intera azienda e l'attribuzione delle responsabilità precise sulla gestione delle emergenze, qualità e disponibilità dei dati all'interno dell'organizzazione.


    Dal momento che questo articolo è dedicato alle aziende farmaceutiche noi faremo focus sugli aspetti di Data Governance più critici per il mondo Pharma.

    Data Governance

    Il modello di Data Governance nell'ambito pharma deve essere necessariamente determinato dalla criticità del dato, piuttosto che dalla complessità del sistema che lo tratta.

    Fare una completa mappatura di tutti dati gestiti in un’azienda partendo dal nulla potrebbe essere oneroso.

    La bella notizia è che, per i classici sistemi gestionali in uso nelle aziende farmaceutiche, questa analisi dovrebbe essere già stata fatta. È sufficiente rivolgersi ai colleghi del reparto Quality Assurance chiedendo l’esito del risk assestment per ERP e LIMS fatti all’epoca della loro convalida. È probabile che questo contenga una classifica di criticità anche per i principali dati, oltre che per i processi implementati. Con un po’ di fortuna è possibile ottenere informazioni preziose persino sui dati gestiti in laboratorio.


    La "brutta" notizia è che, grazie al progresso tecnologico e ai nuovi sistemi digitali, il dato è sempre più dettagliato, complesso e pervasivo. La miniaturizzazione dei sensori e la loro diffusione hanno permesso di raccogliere una molteplicità dei dati che prima erano rilevati manualmente e solo se strettamente indispensabile.

    Ma non solo. Le applicazioni per la gestione dei flussi operativi (workflow) non sono più un’esclusiva dei soli processi contabili o di Master Data (es. approvazioni multiruolo delle anagrafiche). Grazie alla diffusione dei HMI è stato possibile definire i workflow digitali anche per quei reparti che fino a non molto tempo fa erano gestiti solo tramite SOP e Batch Record cartacei. E una volta che l’esecuzione dei processi diventa digitale nascono numerose opportunità per la raccolta dati, non solo ambientali (dai sensori) ma anche operativi, come ad esempio l’esecuzione dei metodi e istruzioni di processo.


    l'importanza del risk assestment e la sfida diella corretta classificazione dei dati


    Per classificare i dati sulla base della loro criticità e rischio il procedimento prevede la valutazione delle caratteristiche delle materie prime, dei semilavorati, dei prodotti finiti e di tutti i processi di trasformazioni di questi, dal primo all'ultimo.

    Parlando in un linguaggio tecnico, bisogna considerare parametri critici di processo (CPP) e degli attributi critici di qualità (CQA) dei prodotti. 



    Mettendo quindi in correlazione le caratteristiche così individuate con le istruzioni di lavoro (processo di fabbricazione) e individuando le modalità con le quali i dati effettuano il passaggio da una fase all'altra si ottiene uno schema che rappresenta il viaggio de dati critici attraverso i processi aziendali. Non è necessario analizzare i processi troppo nel dettaglio, il che comporterebbe un dispendio di tempo ingiustificato. Il vero focus è sempre il dato, quindi è sufficiente, partendo dagli attributi e parametri di input individuati, tracciare tutti i loro passaggi, arricchimenti e trasformazioni.


    Facendo così otteniamo il legame "dati - processi". Il prossimo passo incrociare i risultati ottenuti con i sistemi (applicazioni), dispositivi e infrastrutture.

    ISA-95

    Un altro modo per accelerare la fase di assestment è di disegno della strategia è seguire dei pattern noti e provare a calarne uno sull’azienda sfruttando la documentazione già disponibile insieme alla conoscenza ed l'esperienza del personale.

    Possiamo prendere come riferimento lo standard più conosciuto nell'ambito di automazione. ISA-95 è uno standard internazionale dall'International Society of Automation per l'interfacciamento automatizzato tra sistemi aziendali e sistemi di controllo. In pratica si è rivelato uno strumento molto utile per la comprensione e la strutturazione del panorama dei sistemi aziendali.

    Lo standard non dà priorità a nessun tipo di dato in particolare ma piuttosto si focalizza sullo scambio di dati tra diversi livelli dell'architettura. Per fare un esempio pratico analizziamo il flusso dei dati anagrafici. Il flusso dei master data potrebbe essere sincronizzato tra sistemi in modo monodirezionale. Il significato che ci propone lo standard è che potrebbe essere vantaggioso gestire ogni tipo di anagrafica (codici prodotto, ricette, metodi, MBR, etc) in un repository unico, un DB per ogni anagrafica o per più di una (anche se alcune aziende optano per un unico sistema dedicato alla gestione di tutte le anagrafiche aziendali).

    Questo facilita l'applicazione dei principi ALCOA e Data Governance poiché permette di intercettare la nascita del dato da un'unica fonte e la sua distribuzione lungo tutti i percorsi definiti. Un ragionamento analogo può essere applicato anche ai dati transazionali come lotto, ordine di processo, schedulazione di reparto, quantità pianificate e quelle confermate, etc.

    Seguendo questo approccio, in un'unica sessione di analisi è possibile:

    • classificare tutti i sistemi esistenti (in base ai livelli ISA-95 e alla tipologia digitale/cartaceo)

    • stratificare il dato stesso sulla base di questi livelli

    • infine, tracciare le "rotte" che ogni dato critico percorre dalla sua nascita fino all'archiviazione.


    Qui non bisogna farsi ingannare dalle frecce. Teoricamente ogni livello, ogni sistema può coprire almeno le prime 2 fasi del ciclo di vita del dato. 

    1. generazione

    2. processamento e reporting

    3. conservazione e recupero

    4. distruzione

    Naturalmente più è alto il livello di appartenenza del sistema più il dato gestito è strutturato, aggregato e comprende i dati provenienti dai livelli inferiori.

    Tipologie di dispositivi

    Nelle aziende chimiche, solitamente, il reparto produttivo è meno automatizzato rispetto alle aziende puramente farmaceutiche. Di conseguenza i processi produttivi sono meno complessi e gli sforzi relativi al Data Integrity sono maggiormente focalizzati nei laboratori, essendo questi il baluardo della qualità delle materie prime. I sistemi più complessi nel laboratorio sono, naturalmente, gli HPLC.

    Le aziende il cui core business è la fabbricazione dei farmaci, hanno una situazione ibrida. Sia la produzione che il laboratorio producono e trattano molti dati critici.

    Un caso a parte sono le aziende CMO (terzisti) che coprono solo i processi di packaging per le aziende che hanno deciso di esternalizzare il confezionamento. Nel loro caso la complessità maggiore è concentrata nell’automazione delle linee di packaging, non dovendo eseguire le analisi di laboratorio approfondite, già effettuate dai loro clienti.


    È facile sottovalutare la complessità dei sistemi



    Nella prima versione della "GMP Data Integrity Definitions and Guidance for Industry" la MHRA ha proposto una classificazione dei sistemi in base alla complessità della loro configurazione, specificando che più il sistema è complesso maggiore è lo sforzo necessario per la sua convalida. La logica è semplice: dove è richiesta una maggiore configurazione, maggiore è il rischio di manipolazione dei dati (è quindi di Data Integrity).

    Purtroppo questa figura viene spesso mal interpretata e alcune aziende confondono la semplicità di convalida con la facilità di raggiungere la conformità di Data Integrity, sottovalutando così il rischio. 

    Paradossalmente la tipologia di sistemi più difficili da mettere in conformità sono gli strumenti semplici, come bilance, pH-metri, conduttivimetri, ecc..

    Stessa MHRA mette in guardia su questo rischio:


    However, it is common for companies to overlook systems of apparent lower complexity. Within these systems it may be possible to manipulate data or repeat testing to achieve a desired outcome with limited opportunity of detection (e.g. stand-alone systems with a user configurable output such as FT-IR, UV spectrophotometers). 

    Inoltre, la complessità è data dallanumerosità di questi strumenti, dalla loro varietà e dalla diversità di formati di dati che ciascun dispositivo fornisce.

    Possiamo aggiungere che con l'aumentare della complessità del sistema tipicamente aumenta anche il grado del "paperless", senza quindi esigenze di generare report cartacei. Anche questa, però, è una regola che tende ormai a rimanere nel passato, vista la diffusione dei sistemi digitali, integrati e paperless anche nella parte sinistra dello schema.




    Questo diagramma è particolarmente utile perché rappresenta una sovrapposizione dello standard ISA-95 con le tipologie dei sistemi/dispositivi tipicamente pharma, il tutto in ottica del Data Integrity. Viene fatto focus, quindi, sulla rilevanza del dato cartaceo/elettronico per le attività di adeguamento del sistema e conseguente convalida.

    Abbiamo la STRATEGIA. Ed ora?

    Quello che abbiamo visto finora è già sufficiente per poter fare un assestment e disegnare una strategia di Data Integrity. L'obiettivo primario è individuare i dati critici e assegnare loro una priorità. Fatto questo abbiamo visto metodi che ci permettono di elencare e classificare velocemente i sistemi e dispositivi aziendali. Incrociando i risultati delle due analisi possiamo preparare un piano strategico di alto livello che ci porterà verso il nostro obiettivo di operare in regime di Data Integrity. 

    C'è molto da fare ancora. Infatti il piano ottenuto deve essere declinato in un piano operativo, detto anche Rimediation Plan. Dato che ogni sistema, ogni dispositivo, è speciale, l'azione di rimedio da adottare per ciascuno può anche essere differente. Per un sistema sarà sufficiente definire i ruoli e le autorizzazioni, per un altro bisognerà acquistare un SW aggiuntivo. Altri sistemi che trattano dati critici, possono essere così obsoleti da non offrire alcuna possibilità di rimedio, e pertanto saranno destinati alla sostituzione.

    La trasformazione della strategia in un piano di rimedio, dunque, è un altro passo importante e impegnativo. Nei prossimi capitoli non parleremo più dei dati. Partendo dal presupposto che, grazie a quanto visto nei capitoli precedenti, sappiamo già quali sono i nostri dati da proteggere. Presenteremo invece elementi di valutazione dei sistemi e delle infrastrutture, utili a scegliere l'azione di rimedio adeguata. 

    l'ambiente data integrity ideale

        Prima di immaginarci una soluzione di Data Integrity Ideale rinfreschiamo le principali osservazioni provenienti dalle ispezioni FDA. Nella seguente tabella vengono proposti dei suggerimenti utili alla gestione delle osservazioni sopra riportate.

        OsservazioneSuggerimentoAzione Correttiva
        - Mancato controllo degli accessiAssegnazione delle autorizzazioni per:

        - utilizzo dei sistemi di automazione/produzione/laboratorio
        - accesso alle aree di stabilimento
        - configurazione profili con privilegi diversi (segregazione dei ruoli)

        - badge, rilevatore impronte digitali etc. per l'accesso ai sistemi
        - input non contemporanei all'attività e retrodatazione
        - utilizzo fogli non ufficiali e appunti
        - inserimento dati uguali nei batch record diversi
        - registrazione dati contestualmente con le attività
        - revisione periodica degli audit trail
        - sensibilizzazione su DI e training del personale 
        - supporto alle attività da parte dei consulenti qualificati
        Mancata corrispondenza tra dato riportato e dato registrato- acquisizione dei dati tramite sistemi elettronici e tracciatura digitale del flusso dei dati
        -revisione periodica di audit trail
        - interfacciamento dei sistemi digitali e convalida di questi 
        - training al personale 


        “Your quality system does not adequately ensure the accuracy and integrity of data to support the safety, effectiveness, and quality of the drugs you manufacture. We strongly recommend that you retain a qualified consultant to assist in your remediation.”

        FDA

        Elettronico o Cartaceo?

        Tra le prime azioni durante la definizione di un piano di rimedio è necessario operare una scelta: continuare a gestire sulla carta il dato identificato, oppure implementare un sistema digitale? Per i sistemi digitali già installati è possibile eventualmente valutare di sostituirli o meno. Mentre è altamente improbabile la scelta di passare da un sistema digitale a quello cartaceo.

        Dal punto di vista delle normative, entrambi i tipi di supporto sono accettabili, purché rispettino criteri definiti da ALCOA:

        un raw data generato elettronicamente può essere conservato in un formato cartaceo accettabile o in pdf, dove sia giustificabile che un record "statico" mantenga l'integrità del dato originale.

        in questi casi, tuttavia, occorre dimostrare che il processo di conservazione dei dati includa copie verificate di raw data, metadata, audit trail e file di verifica, configurazione di sistema, settaggi specifici di ogni esecuzione di processo produttivo o analitico, compresi i processi di elaborazione di dati necessari alla ricostruzione di uno specifico set di raw data.

        è anche necessario un documento che certifichi che le stampe sono una copia accurata dei dati originali.

        La scelta tra Elettronico e Cartaceo dipende dalla criticità del dato e dalla complessità/costo del sistema per gestire il dato in questione in formato elettronico. Riepiloghiamo le principali raccomandazioni ALCOA cercando di declinarli per entrambe le tipologie.


        Per gli strumenti "semplici", come bilance e pH-metri, le linee guida [WHO] considerano accettabile che i dati vengano stampati su uno "scontrino". Purtroppo, queste stampe sono carenti e spesso è necessario arricchirli con metadati, come la data e l'ora dell'evento e firma dell'operatore che ha eseguito l'azione, l'ID del campione. Lo scontrino deve poi essere fissato sul quaderno analitico. Tutti questi passaggi richiedono delle procedure chiare e robuste e un'attenzione da parte degli analisti. Attenzione sottratta alle attività principali, e cioè l'esecuzione delle analisi.

        Limiti dei sistemi digitali

        Per soperire alle mancanze degli strumenti l'alternativa è la loro sostituzione con i modelli dotati di orologio interno (sincronizzato con quello aziendale) e di strumenti di autenticazione utente. Purtroppo, una soluzione così costosa, anche se auspicabile per rinnovare il parco strumenti, non sempre risulta sostenibile.

        È ovvio che se sono previsti i nuovi acquisti per il laboratorio è possibile scegliere lo strumento già conforme al Data Integrity. E cosa fare, invece, con il parco esistente degli strumenti?

        Ma anche se si riesce ad adeguare gli strumenti esistenti o ad acquistare dei nuovi già conformi alle esigenze, fino a quando questi strumenti resteranno "stand-alone" non possono essere considerati pienamente conformi poiché possono comunque comportare una perdita di dati o conseguenze peggiori. Basta considerare i rischi dovuti al back-up manuale tramite chiavetta USB. Questo tipo di archiviazione manuale non può essere sufficiente poiché non garantisce la completezza di ogni serie di risultati.

        Esiste un altro aspetto da valutare. I Sistemi di Gestione delle Informazioni di Laboratorio (LIMS, ELN, LIS) possono essere facilmente integrati tra loro per operare in sinergia, coprendo così i requisiti di Data Integrity. Mentre l'integrazione degli strumenti analitici può essere un'impresa ardua poiché spesso si opera in un'ambiente con tante marche di strumenti diverse e tanti SW disaggregati. Integrarli tutti direttamente nel LIMS significa incaricarlo di responsabilità e funzionalità per cui non era pensato. Una soluzione a questo potrebbe essere l'adozione di un middleware.

        Come accennato nella prima parte, le agenzie regolatorie hanno riconosciuto sia i vantaggi che i limiti dei sistemi di dati elettronici, incrementando di conseguenza i controlli per il loro uso. Anche se non spingono esplicitamente verso l'adozione dei sistemi digitali, li preferiscono di gran lunga a quelli cartacei a causa delle opportunità che offrono per il rispetto delle normative.

        Ma le normative ufficiali non vanno oltre alla copertura dei requisiti, e non dicono niente sull'ottimizzazione dei processi che si possa ottenere con l'introduzione di questi sistemi, come se questo non fosse rilevante per Data Integrity. Vediamo come l'introduzione dei workflow digitali, oltre al miglioramento dei processi, possa aiutare a raggiungere l'eccellenza nel Data Integrity.

        Digitale. Automatico. Centralizzato.

        Libera le mani. Ma anche la mente!

        Quali sono le attività principali dei analisti di laboratorio o degli operatori di produzione? Fabbricare i medicinali, eseguire le analisi, o fare ricerca. Attività ad alto valore aggiunto che richiedono concentrazione, approfondimenti, oltre alle competenze ed una forte specializzazione. Invece, una buona parte del loro tempo è dedicato al controllo di processo ed alla produzione della carta.

        Purtroppo, il tempo che resta loro per l'esecuzione dei task principali non è una differenza algebrica tra il tempo totale a disposizione ed il tempo di gestione e controllo del processo. Essendo due tipologie di attività molto diverse tra loro, qualsiasi persona, indipendentemente dall’esperienza, ha bisogno del tempo per rifocalizzarsi passando da uno all’altro e viceversa.

        Le ricerche stimano che per raggiungere una giusta concentrazione su un’attività complessa sono necessari dai 20 ai 30 minuti. Questo fattore è una vera piaga per qualsiasi azienda, anche se strutturata, e viene spesso sottovalutato dai manager.

        Ecco perché il vero vantaggio del paperless non è l’eliminazione della carta e l’automatizzazione della raccolta dati. È scontato che l'eliminazione di queste incombenze routinarie agevola le operazioni core. Questi fattori consentono di liberare le mani degli operatori, mentre il vero boost dei processi si ottiene con la liberazione delle loro menti, quando possono non pensare al “cosa” e “quando” devono fare, ma solo al “come”.

        Esistono varie possibilità e opzioni per automatizzare i workflow:

        • Identificazione automatica dei campioni, e dei materiali in generale, tramite etichette bar-code.

        • Pianificazione delle attività tramite un SW dedicato ed invio della schedulazione alle postazioni di lavoro/operatori.

        • Gestione digitale dei metodi di analisi e di istruzioni di processo, sia la preparazione che l’esecuzione.

        • Decisioni automatiche prese dai sistemi in base alle regole prestabilite ed i dati raccolti.

        • Generazione automatica dei report accurati.

        • Invio automatico dei dati agli interessati (persone, reparti, enti, o sistemi digitali).

        In generale, in ottica futura, le skill richiesti al personale cambieranno, andando verso una forte specializzazione, da una parte, e verso la capacità di portare continuo miglioramento e automazione dei processi dall’altra. 

        Centralizzazione. standartizzazione.

        Esiste un modo per cogliere i benefici dei sistemi digitali ed evitare gli svantaggi descritti sopra?

        C’è un’altra dimensione dell’automazione su cui vale la pena soffermarsi. Oggi molti produttori degli strumenti da laboratorio e linee di produzione dichiarano che i loro strumenti sono conformi alle norme CFR21 e Data Integrity. Solitamente questo vale per ogni singolo dispositivo singolarmente, che per l’azienda significa gestire separatamente sia le anagrafiche che i dati generati da questo dispositivo. Ognuno con proprio formato.

        Essendo questa gestione disaggregata estremamente onerosa essa diventa oggetto di continue discussioni interne tra i reparti su chi dovrebbe esserne il responsabile. Nel migliore dei casi ogni reparto si accolla questo onere. Nel peggiore il tutto ricade sul reparto IT, per una semplice logica “digitale vuol dire IT”, senza comprendere che il digitale è ormai un problema per tutti. Ed è necessaria una visione strategica e forte leadership di chi guida l’azienda per trasformare il problema in opportunità e prendere l’unica decisione giusta: adottare un sistema centralizzato ed automatizzato sul quale “scaricare” le responsabilità descritta sopra.

        La centralizzazione è un sinonimo di standardizzazione che, a sua volta, è sinonimo di semplificazione e riduzione dei costi. Uno strumento unico, digitale e centralizzato aiuta, ma possiamo dire anche costringe, a adottare dei template uniformi per le anagrafiche, i metodi e i batch record. 

        La centralizzazione presuppone anche una gestione unica degli utenti. Un unico database che contiene tutti gli account significa automaticamente un unico modello digitale, cosiddetto “digital twin”, dell’intero organigramma aziendale (invece di tanti modelli incompleti quanti sistemi e dispositivi) con tutti i ruoli e autorizzazioni definite. Potete immaginare come viene semplificato il modello di gestione e le attività amministrative. Ma soprattutto come questo approccio, essendo l’organigramma uno dei pilastri dell'azienda, chiarisce e semplifica tutti i processi aiutando a rilevare eventuali conflitti e ridondanze (un’altra importante fonte delle inefficienze) nei flussi dei dati.

        La creazione di una banca dati centralizzata permette di introdurre il confine netto tra i processi operativi e processi di verifica e interpretazione dei risultati. Chi si occupa di verifica dei dati raccolti e dell'approvazione dei lotti non ha la scrivania ingombrata da faldoni con i documenti provenienti da diversi fonti. Non deve nemmeno trovarsi nelle vicinanze della fonte dei dati. Questo offre l’opportunità, per esempio, di avere un unico reparto distaccato per il monitoraggio e verifica dei risultati, che serve più laboratori sparsi nel mondo.

        Infine, la centralizzazione e la conseguente standardizzazione permettono di ottimizzare il ciclo di convalida dei sistemi. Il software centralizzato deve essere convalidato solo una volta e ogni nuovo strumento analitico collegato richiederà semplicemente una configurazione e la creazione della rispettiva anagrafica, in quanto il sistema di per sé, la gestione dei dati, l'audit trail, la gestione utenti, il flusso di risultati, etc. sono già validati.

        Il software centralizzato, dunque, può giocare un ruolo chiave in una soluzione per l'integrità dei dati offrendo:

        • Riduzione del costo dell'analisi per campione

        • Miglior uso delle competenze degli analisti, che possono così dedicarsi allo sviluppo di nuove metodologie, all’analisi dei dati e ai propri clienti

        • Miglior qualità e omogeneità dei risultati, per un confronto coerente con i risultati di altri laboratori

        • Miglioramenti in precisione e accuratezza

        • Maggior velocità di analisi

        • Conseguente aumento della richiesta di servizi al laboratorio

         Tutto questo, in sintesi, ha come conseguenza la riduzione dei costi di gestione e della manodopera annuale, che nel laboratorio rappresentano una quota significativa dei costi totali, a differenza della produzione i cui costi sono distribuiti tra macchinari e movimentazione dei materiali.

        Naturalmente questo aumento dell’efficienza, e quindi del valore delle proprie operazioni, sono benefici di lungo periodo. E come per ogni ritorno a lungo termine le aziende, che ne comprendono l’importanza strategica, devono essere pronte a fare gli investimenti importanti sia nella tecnologia che nella cultura e skill dei propri dipendenti.

        infrastrutture per data integrity

        Supponiamo che abbiamo deciso di implementare il sistema digitale per la gestione del Data Integrity in laboratorio e produzione. Come dobbiamo preparare la nostra infrastruttura IT affinché possa supportare un tale carico?

        I PC, i server con i database, i software di servizio, i server hardware, i sistemi operativi sono i componenti dell’infrastruttura che stanno alla base degli applicativi GMP. A questi vanno aggiunte le varie funzioni dell’IT come la gestione utenti, dei server, dei sistemi, dei backup, delle licenze ecc. Da ricordare che la quallifica dell'infrastruttura è obbligatoria.

        Come accennato nei capitoli precedenti, visto che l'obiettivo è l'integrazione di tutto con tutto, il ruolo cruciale assume il componente che mette in comunicazione diversi sistemi che parlano linguaggi differenti. Un middleware non è legato quindi a nessun sistema in particolare ma nasce proprio per adattarsi a qualsiasi protocollo e metodo di comunicazione. L'introduzione del middleware agevola:

        • rilevamento della misura direttamente dallo strumento

        • identificazione del campione tramite l'integrazione con un lettore dei codici a barre / datamatrix

        • data e ora vengono presi dalla rete

        • Eventualmente integra SW di firma elettronica, o altri tool di identificazione utenti: impronta digitale, battito cardiaco, riconoscimento facciale (in ambienti che non richiedono la mascherina), etc.


        Cloud


        Quando parliamo di esigenza di un DB centralizzato automaticamente ci viene in mente il Cloud. Preferibilmente un Data Lake. Al giorno d'oggi tutti ne parlano, anche nell'ambito farmaceutico, ma poi le stesse aziende sono ancora diffidenti a delegare la gestione dei propri dati a dei attori esterni.

        Non possiamo sapere, effettivamente, se la riservatezza dei dati è garantita, una volta che vanno nella nuvola. L'unico modo per tutelarsi qui è un contratto con il fornitore e un'assicurazione solidi tanto da garantire dei compensi adeguati ai danni subiti in caso di un data breach. Non possiamo però negare che, dal punto di vista di back-up e reperibilità dei dati, nessuna azienda farmaceutica può competere con un buon fornitore di servizi cloud. Tuttavia, le linee guida per la qualifica di questi tipi di infrastruttura sono ancora in fase di definizione da parte delle agenzie regolatorie.


        Una volta "sdoganato" il cloud si sbloccano tutte le opportunità che questo concede. Accesso ai dati e servizi esterni, costruzione applicazioni complesse e integrate, Big Data con i suoi advanced analytics, machine learning e predictive algorithms. Tutto questo, o almeno i servizi critici come l'esecuzione della produzione, non possono migrare in cloud fino a quando non c'è una disponibilità di internet veloce, sicuro e sempre disponibile. Ma questo è argomento per un altro articolo.

        Conclusioni

        Qual è dunque la caratteristica cha accomuna le aziende che stanno riuscendo nel Data Integrity?

        Dal momento che il rischio più grande è che il DI possa essere visto come una problematica e non un'opportunità, possiamo dire che le aziende vincenti sono quelle che sfruttano Data Integrity come un modo per salire ad un livello avanzato della propria crescita e della presenza sul mercato. 

        Quelle aziende poi, che vedono nel Data Integrity un fattore abilitante per la digitalizzazione, hanno sicuramente una visione lungimirante.

         A che serve investire tanti soldi nel rendere conformi al DI i processi e i dati cartacei se molto presto questi dovranno comunque essere digitalizzati?


        Il budget per DI e per la digitalizzazione, dunque, può essere visto come un'unica voce del budget globale, egli investimenti non devono solo coprire la compliance ma soppratutto mirano al miglioramento dei processi. Perché la compliance è un beneficio secondario rispetto ai vantaggi che si ottengono dal raggiungimento del Data Integrity.

        Da qui si evince un altro requisito importante. Per far si che l'azienda riesca a raggiungere l'assetto descritto sopra, il reparto IT ha bisogno di poter esercitare delle scelte che "invadono" i territori di altri reparti aziendali. L'IT non può più, quindi, essere visto come un reparto di servizio. Da una veste di "meccanico di pit stop" che era prima, ora deve necessariamente sedersi al fianco del pilota e suggerire la strada. Ed il pilota è l'unico che glielo può permettere, oltre al padrone della scuderia, naturalmente. 

        Se desideri approfindire l'argomento ecco un'articolo utile:

        How To Prevent Data Integrity Issues In Pharma QC Lab?

        Ympronta e Data Integrity

        Consulenza e prodotti di Ympronta.

        Noi di Ympronta lavoriamo nell'ambito farmaceutico dai primi anni del 2000. Abbiamo visto nascere ed evolvere CFR21 e GMP. Abbiamo assistito alla definizione del Data Integriti e dei suoi principi ALCOA+. 

        Ma non siamo stati solo degli spettatori passivi. Operando principalmente nell'ambito farmaceutico, ogni nostro progetto doveva essere necessariamente conforme alle normative e l'esperienza accumulata ci ha portato ad una decisione importante: fondare un'azienda per offrire le nostre competenze direttamente ai nostri clienti!

        Il risultato è stato la creazione di un reparto dedicato alla compliance e Data Integrity e lo sviluppo dei sistemi digitali dedicati agli ambiti tra i più complessi:

        • Data integrity digitale nel il laboratorio di analisi (Y-Lab)

        • Serializzazione / aggregazione farmaceutica (SERYAL)

        • Automazione del reparto di produzione (Y-Mes)

        Contattaci per saperne di più e per fissare un incontro in cui potremo valutare le vostre sfide e obiettivi.

        Contattaci

        Condividi

        ISCRIVITI

        Sii il primo ad essere avvisato degli eventi, novità su Ympronta e la pubblicazione dei materiali di elevata qualità e utilità.

        Covid Online Test 
        Odoo • Un'immagine con didascalia
        Soluzione IoT per Data Integrity in laboratorio di analisi 
        Odoo • Un'immagine con didascalia
        Piattaforma Smart Serializzazione Farmaceutica
        Data Integrity 
        Questions and Answers

        Ultimi articoli

        Data Integrity Pharma (part 2)
        Ympronta srl, Ympronta
        28 febbraio, 2020
        Share this post
        Archivia
        Accedi to leave a comment
        Dimmi cosa pensi del Data Integrity e ti dirò chi sei.
        5 livelli di maturità nel Data Integrity