18 DOMANDE E RISPOSTE PER CONOSCERE MEGLIO LA ISO/IEC 42001:2023

Quello che dobbiamo sapere sulla nuova norma ISO 42001 sull'Intelligenza Artificialee

iso 42001 domande risposte

"L'intelligenza artificiale non sostituirà gli uomini, ma gli uomini che usano l'intelligenza artificiale sostituiranno quelli che non la usano"
(Ginni Rometty)

"L'intelligenza artificiale non è solo un'altra grande ondata di macchine. Costituisce le fondamenta per una nuova civiltà"
(Kevin Kelly)

Visto che la ISO/IEC 42001:2023 è stata pubblicata da poco ed è ancora nuova per molti professionisti, cerchiamo di comprenderne i fondamenti attraverso una serie di domande e risposte.

Cos'è la ISO/IEC 42001:2023 e qual è il suo scopo principale?

La ISO/IEC 42001:2023 è uno standard che fornisce un modello di sistema di gestione per le organizzazioni che sviluppano, forniscono o utilizzano prodotti o servizi che impiegano sistemi di intelligenza artificiale (AI).

Il suo scopo principale è di garantire che l'uso dell'AI sia responsabile e conforme ai principi etici e alle normative vigenti.

Lo standard è applicabile a un'ampia varietà di prodotti e servizi in diversi settori, soggetti a obblighi, buone pratiche, aspettative o impegni contrattuali verso le parti interessate. Esempi di settori che possono beneficiare dell'applicazione di questo standard includono la sanità, la difesa, i trasporti, il settore finanziario, quello dell'energia e quello del lavoro.

Quali sono le principali sfide che affronta la ISO/IEC 42001?

Ecco alcune delle principali sfide che la ISO/IEC 42001 cerca di affrontare:

  • Responsabilità: la responsabilità nell'uso dell'AI può cambiare i modelli già esistenti all'interno delle organizzazioni e richiedere un nuovo approccio per comprendere e gestire chi sarà responsabile delle azioni basate sull'uso dei sistemi di intelligenza artificiale
  • Esperti in AI: per valutare, sviluppare e implementare sistemi di intelligenza artificiale sarà necessaria una selezione di specialisti dedicati con competenze interdisciplinari
  • Disponibilità e qualità dei dati per la formazione e i test: i sistemi AI basati sul machine learning richiedono dati per la formazione, la validazione e i test necessari ad addestrare e verificare i sistemi per ottenere il comportamento previsto
  • Impatto ambientale: l'uso dell'intelligenza artificiale può avere impatti positivi ma anche negativi sull'ambiente che vanno considerati
  • Equità: l'applicazione inappropriata dei sistemi di intelligenza artificiale per prendere decisioni in maniera automatizzata potrebbe risultare ingiusta nei confronti di specifiche persone o gruppi di persone
  • Manutenibilità: la manutenibilità è legata alla capacità dell'organizzazione di gestire le modifiche del sistema di intelligenza artificiale per correggere difetti o adattarsi a nuovi requisiti
  • Privacy: l'uso improprio o la divulgazione di dati personali e sensibili possono avere effetti dannosi sui dati delle persone
  • Affidabilità: nel campo dell'intelligenza artificiale, l'affidabilità dimostra la capacità del sistema di avere prestazioni sui nuovi dati perfettamente confrontabili con quelle dei dati su cui è stata addestrata
  • Sicurezza: nel contesto dell'AI, vanno considerate nuove questioni relative alla sicurezza delle informazioni e dei sistemi

La ISO/IEC 42001 come si integra con altri standard di gestione già esistenti?

La ISO/IEC 42001 si integra molto facilmente con gli altri standard di gestione già esistenti come, ad esempio, la ISO 9001, la ISO 14001 o la ISO 45001 perché ha una struttura di base simile e perché si limita a fornire i requisiti e le linee guida specifici per la gestione della nuova tecnologia dell'intelligenza artificiale.

La norma è applicabile a un'ampia varietà di prodotti e servizi in diversi settori che utilizzano sistemi AI ma, mentre gli standard di sistema di gestione generici o specifici per un dato settore considerano gli obiettivi da un punto di vista tecnologicamente neutro, la ISO/IEC 42001 fornisce considerazioni specifiche per la tecnologia AI.

Lo sviluppo e l'utilizzo responsabile di un sistema AI richiede di prendere in considerazione non solo gli aspetti specifici dell'intelligenza artificiale ma anche il sistema nel suo insieme, comprese tutte le tecnologie e i componenti utilizzati.

Anche se l'AI è una tecnologia di elaborazione delle informazioni, aspetti come la sicurezza, la privacy e l'impatto ambientale dovrebbero essere gestiti con un approccio olistico e non separatamente per l'intelligenza artificiale e gli altri componenti del sistema.

In sintesi, la ISO/IEC 42001:2023 si adatta e si integra alla perfezione con altri standard relativi ai sistemi di gestione ma offre una prospettiva specifica per la tecnologia dell'intelligenza artificiale, garantendo che le considerazioni relative all'AI siano gestite insieme a a tutti gli altri aspetti importanti dei sistema di gestione applicati all'interno di un'organizzazione.

In che modo la ISO/IEC 42001 affronta la questione della trasparenza e dell'etica?

La norma ISO/IEC 42001 affronta la questione della trasparenza e dell'etica nell'uso dell'intelligenza artificiale enfatizzando l'integrazione del sistema di gestione AI nei processi e nella struttura del sistema di gestione complessivo dell'organizzazione. Questo modo di procedere include la considerazione di problemi specifici legati all'AI nella progettazione dei processi, dei sistemi informativi e dei controlli.
Esempi possono essere: la determinazione degli obiettivi organizzativi, il coinvolgimento delle parti interessate, la politica dell'organizzazione, la gestione dei rischi e delle opportunità. A questo si aggiungono considerazioni relative alla sicurezza, all'equità, alla trasparenza, alla qualità dei dati e alla qualità del sistema di intelligenza artificiale​​. In questo modo, la norma mira a garantire che l'uso dell'AI sia responsabile e in linea con i principi etici e di trasparenza.

Un'organizzazione come determina se è pronta per la ISO/IEC 42001?

Per determinare se un'organizzazione debba implementare la ISO/IEC 42001 e sia pronta per farlo, bisognerebbe prendere in considerazione diversi fattori come viene spiegato nello standard:

  • Comprensione del contesto: l'organizzazione deve identificare le questioni esterne ed interne rilevanti per il suo scopo e capaci di influenzare la sua capacità di raggiungere i risultati previsti dal suo sistema di gestione AI. Questo include la considerazione del ruolo dell'organizzazione in relazione ai sistemi di intelligenza artificiale che sviluppa, fornisce o utilizza. Questi ruoli possono variare tra i fornitori di AI, i produttori, i clienti, i partner, i soggetti interessati fino ad arrivare alle autorità pertinenti
  • Aspetti legali e normativi: l'organizzazione deve considerare le implicazioni legali, incluse le normative applicabili e i divieti d'uso dell'intelligenza artificiale, oltre alle linee guida, alle politiche e alle decisioni degli enti regolatori che influenzano lo sviluppo e l'uso dei sistemi AI
  • Considerazioni culturali ed etiche: è importante valutare la cultura, le tradizioni, i valori, le norme e l'etica riguardo allo sviluppo e all'uso dell'intelligenza artificiale, così come il panorama della concorrenza e i trend relativi ai nuovi prodotti e ai servizi che utilizzano i sistemi AI
  • Obiettivi, politiche e procedure: per i sistemi AI da sviluppare o utilizzare, l'organizzazione dovrebbe esaminare il proprio contesto organizzativo, compresi gli obiettivi, le politiche e le procedure, così come gli obblighi contrattuali e lo scopo del suo lavoro
  • Requisiti specifici per la gestione dei dati: includono la considerazione degli obblighi legati a categorie specifiche di dati trattati dall'organizzazione, come le informazioni personali e le responsabilità legali specifiche per i sistemi AI

Un'organizzazione dovrebbe valutare attentamente il proprio contesto interno ed esterno, i ruoli e le responsabilità rispetto all'AI, le considerazioni legali e normative, così come gli aspetti culturali e etici, prima di decidere di procedere con l'implementazione della ISO/IEC 42001.

Quali sono i passaggi per l'implementazione della ISO/IEC 42001?

Per implementare la ISO/IEC 42001 in un'organizzazione, è importante seguire una serie di passaggi chiave volti a garantire che l'organizzazione integri efficacemente i principi e le pratiche dello standard nel suo sistema di gestione dell'intelligenza artificiale.

Prima di iniziare, l'organizzazione deve definire il campo di applicazione, cioè l'ambito specifico dello standard all'interno dell'organizzazione, identificando quali parti dell'organizzazione e quali processi saranno coinvolti. Subito dopo andranno definite le politiche per la gestione dell'AI che dovranno permettere di allineare gli obiettivi del sistema di gestione con la strategia aziendale.

Andranno poi identificati i rischi associati all'uso dell'intelligenza artificiale e sviluppati piani per la loro gestione e mitigazione.

Un altro punto molto importante da implementare è la definizione dei ruoli e delle relative responsabilità, al fine di garantire una gestione e un'implementazione efficaci del sistema di gestione.

Bisognerà anche assicurare che il personale abbia le competenze e la formazione necessarie per implementare e gestire il sistema di gestione e sviluppare la documentazione necessaria.

Infine, occorrerà implementare i processi per monitorare, misurare e valutare l'efficacia del sistema di gestione e stabilire dei processi per il miglioramento continuo del sistema di gestione anche in base ai cambiamenti tecnologici e del mercato.

In che modo la ISO/IEC 42001 può aiutare le organizzazioni a gestire i rischi dell'AI?

La ISO/IEC 42001:2023 aiuta le organizzazioni a gestire i rischi associati all'uso dell'intelligenza artificiale attraverso una serie di azioni e criteri ben definiti. Ecco come lo standard aiuta in questo processo:

  • Valutazione di rischi e opportunità: nella fase di pianificazione, le organizzazioni devono considerare le questioni e i requisiti identificati nelle sezioni 4.1 e 4.2 dello standard e determinare i rischi e le opportunità che devono essere affrontati. Questo processo ha l'obiettivo di assicurare che il sistema di gestione AI raggiunga i risultati previsti, riesca a prevenire o a ridurre gli effetti indesiderati e ottenga un miglioramento continuo
  • Individuazione e mantenimento dei criteri di rischio: le organizzazioni devono stabilire e mantenere criteri di rischio relativamente all'intelligenza artificiale che supportino la distinzione tra rischi accettabili e rischi non accettabili. Bisognerà poi eseguire valutazioni del rischio AI, trattare i singoli rischi e valutare gli impatti del rischio nel campo dell'intelligenza artificiale utilizzata dall'organizzazione
  • Valutazioni di rischio periodiche e basate su criteri: le valutazioni dei rischi nel campo AI dovrebbero essere condotte regolarmente e basate sui criteri stabiliti, tenendo conto delle considerazioni specifiche fornite in standard correlati come la ISO/IEC 38507:2022 "Information technology - Governance of IT - Governance implications of the use of artificial intelligence by organizations" e la ISO/IEC 23894:2023 "Information technology - Artificial intelligence - Guidance on risk management"

Questi passaggi aiutano le organizzazioni a identificare, valutare e gestire efficacemente i rischi legati all'uso dell'intelligenza artificiale, garantendo un approccio sistematico e strutturato per minimizzare i rischi e massimizzare le opportunità offerte dalla tecnologia AI.

Quali sono i problemi principali nell'implementare la ISO/IEC 42001:2023?

Le sfide principali che potremmo incontrare nell'implementare la ISO/IEC 42001:2023 possono variare a seconda delle organizzazioni ma alcune problematiche comuni includono:

  • Comprensione e adattamento ai requisiti specifici dell'AI: la ISO/IEC 42001:2023 include requisiti specifici per la gestione dell'intelligenza artificiale che potrebbero essere nuovi per molte organizzazioni. Superare questo ostacolo richiede una formazione adeguata e la consulenza di esperti in questo campo
  • Integrazione con sistemi di gestione esistenti: integrare i nuovi processi e procedure della ISO/IEC 42001:2023 con i sistemi di gestione già esistenti può essere complicato ma questo può essere superato attraverso un'attenta pianificazione e l'adozione di un approccio step-by-step
  • Gestione del cambiamento: l'adozione di un nuovo standard può richiedere cambiamenti significativi nei processi organizzativi. Gestire il cambiamento efficacemente è fondamentale per una transizione fluida e ciò può essere fatto attraverso una comunicazione chiara, erogando la formazione necessaria e coinvolgendo il personale
  • Risorse e competenze: le organizzazioni potrebbero non avere immediatamente le risorse o le competenze necessarie per implementare lo standard. Investire nella formazione del personale e, se necessario, assumere o consultare esperti esterni può aiutare a colmare questa lacuna
  • Valutazione dei rischi e della conformità: identificare e valutare efficacemente i rischi specifici legati all'AI e garantire la conformità con lo standard può essere impegnativo. L'uso di strumenti di valutazione dei rischi e il coinvolgimento di esperti in questo campo possono, anche in questo caso, facilitare questo processo
  • Mantenimento e miglioramento continuo: dopo l'implementazione, il mantenimento e il miglioramento continuo del sistema di gestione AI secondo lo standard richiedono impegno e risorse costanti. Implementare un processo di riesame e miglioramento regolare può aiutare a mantenere l'allineamento con lo standard

Come dovrebbero essere gestiti i dati e la privacy secondo la ISO/IEC 42001:2023?

La ISO/IEC 42001:2023 affronta la gestione dei dati e della privacy in modo dettagliato, fornendo linee guida per assicurare che i dati siano trattati in modo responsabile e sicuro. Ecco alcuni punti chiave su come lo standard affronta questi aspetti:

  • Documentazione tecnica dei sistemi AI: le organizzazioni devono determinare quale documentazione tecnica sia necessaria per ogni categoria rilevante di parti interessate, come utenti, partner e autorità di supervisione e fornire la documentazione nella forma appropriata. Questo assicura che ci sia trasparenza nell'uso dei sistemi di intelligenza artificiale
  • Gestione dei dati per lo sviluppo e il miglioramento dei sistemi AI: le organizzazioni devono definire, documentare e implementare processi di gestione dei dati relativi allo sviluppo dei sistemi AI, inclusi la qualità dei dati, la provenienza dei dati e i dettagli relativi all'acquisizione e alla selezione dei dati utilizzati nei sistemi di intelligenza artificiale
  • Privacy e protezione dei dati: le organizzazioni devono essere consapevoli del rischio di abuso o divulgazione dei dati personali e sensibili e devono implementare misure per proteggere i soggetti di questi dati. Tutto questo, ovviamente, include la conformità alle leggi sulla privacy e la gestione responsabile delle informazioni personali
  • Valutazione e controllo dei rischi associati ai dati: è fondamentale che le organizzazioni valutino e gestiscano i rischi associati alla privacy e alla protezione dei dati nel contesto dell'uso dei sistemi AI, considerando gli impatti potenziali sulle persone e sulla società

Qual è il ruolo della leadership nell'implementazione della ISO/IEC 42001:2023?

Il ruolo della leadership nell'implementazione della ISO/IEC 42001:2023 è fondamentale e richiede un impegno attivo da parte del top management. Secondo la norma, la direzione deve dimostrare leadership e impegno nel sistema di gestione dell'intelligenza artificiale in diversi modi:

  • assicurando che la politica e gli obiettivi dell'AI siano stabiliti e siano compatibili con la direzione strategica dell'organizzazione
  • garantendo l'integrazione dei requisiti del sistema di gestione dell'intelligenza artificiale nei processi aziendali dell'organizzazione
  • assicurando che le risorse necessarie per il sistema di gestione dell'AI siano disponibili
  • comunicando l'importanza di una gestione efficace dell'AI e del rispetto dei requisiti del sistema di gestione dell'intelligenza artificiale
  • garantendo che il sistema di gestione dell'AI raggiunga i risultati previsti
  • dirigendo e sostenendo le persone a contribuire all'efficacia del sistema di gestione dell'intelligenza artificiale
  • promuovendo il miglioramento continuo

Le organizzazioni come possono garantire di usare l'AI eticamente?

Per garantire che l'uso dell'intelligenza artificiale sia etico e conforme alla ISO/IEC 42001:2023, le organizzazioni dovrebbero adottare i seguenti approcci:

  • Definire e documentare i processi per l'uso responsabile dell'AI: le organizzazioni dovrebbero definire e documentare chiaramente i processi per l'uso responsabile dei sistemi di intelligenza artificiale. Questo include considerazioni come le approvazioni richieste, i costi (incluso il monitoraggio e la manutenzione continui), i requisiti di approvvigionamento approvati e i requisiti legali applicabili
  • Identificare e documentare obiettivi per l'uso responsabile dell'AI: dovrebbero essere identificati e documentati obiettivi specifici per guidare l'uso responsabile dei sistemi di intelligenza artificiale. Questi obiettivi possono includere l'equità, la responsabilità, la trasparenza, la capacità di essere chiari, l'affidabilità, la sicurezza, la privacy, la sicurezza, l'accessibilità, ecc. Le organizzazioni dovrebbero implementare dei meccanismi specifici per raggiungere questi obiettivi come, ad esempio, il coinvolgimento di una supervisione umana, il monitoraggio delle prestazioni dei sistemi AI, la segnalazione di eventuali preoccupazioni da parte dei dipendenti, ecc.
  • Valutare e gestire i rischi: è importante valutare i sistemi di intelligenza artificiale all'inizio, in seguito con regolarità e ogni volta che sarà necessario, per fornire prove che un sistema sia valutato rispetto agli obiettivi organizzativi. Alcuni obiettivi e rischi potenziali da considerare includono la responsabilità, la disponibilità e la qualità dei dati per l'addestramento e i test, l'impatto ambientale, la manutenibilità, la gestione della privacy, la sicurezza e la trasparenza

Adottando questi approcci, le organizzazioni possono garantire che il loro utilizzo dell'intelligenza artificiale sia etico, responsabile e in linea con le linee guida stabilite dalla ISO/IEC 42001:2023.

Quali sono le implicazioni della ISO/IEC 42001:2023 per la formazione e le competenze?

Le implicazioni della ISO/IEC 42001:2023 per la formazione e lo sviluppo delle competenze all'interno delle organizzazioni sono significative. La norma stabilisce che le organizzazioni devono:

  • Determinare la competenza necessaria: le organizzazioni devono identificare le competenze necessarie per le persone che lavorano sotto il loro controllo e che influenzano la performance dell'intelligenza artificiale
  • Garantire competenza tramite formazione scolastica, formazione post-scolastica o esperienza: è importante che queste persone siano competenti sulla base di un'educazione adeguata, formazione o esperienze maturate
  • Azioni per acquisire le competenze necessarie: dove applicabile, le organizzazioni devono intraprendere azioni per acquisire le competenze necessarie e per valutare l'efficacia di queste azioni

Inoltre, è richiesto che siano disponibili le informazioni documentate adeguate come prova della competenza. Questo implica un impegno attivo nell'identificare e colmare le lacune nelle competenze relative all'AI, garantendo che il personale sia adeguatamente preparato e qualificato per lavorare con sistemi di intelligenza artificiale in modo conforme alle normative e agli standard etici.

La ISO/IEC 42001:2023 come può influenzare l'innovazione?

La ISO/IEC 42001:2023 può influenzare significativamente l'innovazione e lo sviluppo di nuovi prodotti o servizi basati sull'intelligenza artificiale nelle organizzazioni in diversi modi:

  • Documentazione della progettazione e sviluppo del sistema AI: le organizzazioni devono documentare la progettazione e lo sviluppo dei sistemi di intelligenza artificiale, tenendo conto di vari fattori come l'approccio all'apprendimento automatico, gli algoritmi utilizzati, la qualità dei dati, la valutazione e il perfezionamento dei modelli e le considerazioni sull'interoperabilità
  • Misure di verifica e validazione: è necessario definire e documentare le misure di verifica e validazione per i sistemi AI: metodologie di test, selezione dei dati di test, criteri di rilascio, ecc. Procedere in questo modo è essenziale per valutare l'impatto dei sistemi di intelligenza artificiale sugli individui e sulla società e per garantire la conformità agli obiettivi di sviluppo responsabile dell'AI
  • Piano di implementazione: le organizzazioni devono documentare un piano di implementazione, assicurandosi che siano soddisfatti i requisiti appropriati prima del rilascio del prodotto. Questo può includere misure di verifica e validazione, indicatori di performance, test utente, approvazioni, ecc.
  • Operabilità e monitoraggio del sistema AI: le organizzazioni devono definire e documentare gli elementi necessari per l'operabilità continua del sistema AI, incluso il monitoraggio delle prestazioni, eventuali riparazioni, gli aggiornamenti e il supporto tecnico
  • Registrazione dei log degli eventi: è importante determinare in quali fasi del ciclo di vita del sistema AI si deve abilitare la registrazione dei log degli eventi. Questi log possono fornire la tracciabilità delle funzionalità del sistema e aiutare a rilevare prestazioni al di fuori delle condizioni operative previste
  • Gestione dei dati: le organizzazioni devono definire e documentare i processi di gestione dei dati legati allo sviluppo dei sistemi di intelligenza artificiale, inclusi aspetti come quello della privacy, della sicurezza, della trasparenza e dell'integrità dei dati
  • Acquisizione e selezione dei dati: è necessario determinare e documentare i dettagli riguardanti l'acquisizione e la selezione dei dati utilizzati nei sistemi AI. Ciò include le categorie di dati necessarie, le fonti dei dati, le considerazioni relative ai diritti sui dati, ecc.
  • Qualità dei dati: le organizzazioni devono definire e documentare i requisiti per la qualità dei dati e assicurarsi che i dati utilizzati per sviluppare e operare con il sistema AI soddisfino tali requisiti. È importante considerare l'impatto dei bias sulla performance del sistema e sulla sua equità

Quali sono le considerazioni per il monitoraggio e la valutazione dell'efficacia?

Le considerazioni chiave per il monitoraggio e la valutazione dell'efficacia di un sistema di gestione AI conforme alla ISO/IEC 42001:2023 includono:

  • Monitoraggio del sistema e delle prestazioni: monitorare gli errori e i fallimenti nella risposta del sistema di gestione dell'AI e verificare se il sistema sta operando come previsto
  • Evoluzione delle prestazioni del sistema AI: per i sistemi di intelligenza artificiale che si evolvono nelle loro prestazioni a seguito dell'apprendimento automatico, l'organizzazione dovrebbe monitorare la performance del sistema per assicurarsi che continui a soddisfare i suoi obiettivi di progettazione e che opericome previsto. In caso di deriva dei dati, sarà necessario identificare la necessità di una nuova formazione
  • Risposte agli errori: dovrebbero essere in atto processi per la risposta e la correzione degli errori e dei fallimenti del sistema. Possono essere necessari aggiornamenti man mano che il sistema si evolve, quando vengono identificati problemi critici o per rispondere a problemi rilevati all'esterno dell'organizzazione
  • Aggiornamenti del sistema: è importante avere delle procedure per gestire i cambiamenti operativi nel sistema, inclusle modifiche nelle operazioni del sistema, nuovi usi previsti che modifichino i precedenti o altri cambiamenti nella funzionalità del sistema. Ad esempio, dovrebbe essere chiaro come comunicare tutto questo agli utenti
  • Supporto del sistema: il supporto può essere interno, esterno o di entrambi i tipi, a seconda delle esigenze dell'organizzazione e del modo in cui il sistema è stato acquisito. I processi di supporto dovrebbero considerare come gli utenti possono contattare l'assistenza, come vengono segnalati eventuali problemi e incidenti, gli accordi sui livelli di servizio, gli indicatori, ecc.
  • Sicurezza delle informazioni specifiche per l'AI: identificare le minacce alla sicurezza delle informazioni specifiche per i sistemi di intelligenza artificiale applicati e sviluppati dall'organizzazione

In che modo la ISO/IEC 42001:2023 e il GDPR si integrano?

La ISO/IEC 42001:2023 si relaziona e si integra in vari modi con le normative sulla protezione dei dati, come il GDPR. La norma, ad esempio, richiede che le organizzazioni definiscano, documentino e implementino processi di gestione dei dati relativi allo sviluppo di sistemi AI. Questo include le considerazioni sulla privacy e la sicurezza dei dati, le minacce alla sicurezza che possono sorgere dallo sviluppo di sistemi AI dipendenti dai dati, gli aspetti di trasparenza relativi ai dati utilizzati per l'addestramento, ecc​​.

Le organizzazioni devono anche determinare e documentare i dettagli riguardanti l'acquisizione e la selezione dei dati utilizzati nei sistemi AI, includendo le categorie dei dati necessari, le fonti, le caratteristiche dei soggetti dei dati e la conformità con i requisiti di privacy e sicurezza​​​​.

La norma enfatizza l'importanza di metodi adeguati per la preparazione dei dati per ridurre il rischio di errori nei sistemi di intelligenza artificiale e questo include un controllo statistico, una pulizia dei dati grezzi, la corretta imputazione, ecc..

Le organizzazioni devono assicurare che le responsabilità nel ciclo di vita del sistema AI siano allocate tra l'organizzazione, i suoi partner, i fornitori, i clienti ed eventuali terze parti. Questo include la fornitura agli interessati della documentazione necessaria e la considerazione delle responsabilità relative alla privacy dei dati personali, quando vengono trattati mediante l'intelligenza artificiale, come delineato nella ISO/IEC 29100:2020 "Tecnologie Informatiche - Tecniche di sicurezza - Quadro di riferimento per la privacy" e nella ISO/IEC 27701:2021 "Tecniche di sicurezza - Estensione a ISO/IEC 27001 e ISO/IEC 27002 per la gestione delle informazioni in ambito privacy - Requisiti e linee guida"​​.

Come si migliora continuamente un sistema di gestione AI?

Le migliori pratiche per mantenere e migliorare continuamente un sistema di gestione AI secondo la ISO/IEC 42001:2023 includono:

  • Monitoraggio del sistema e delle prestazioni: monitorare regolarmente il sistema per rilevare errori generali, valutando se il sistema stia funzionando come previsto. I criteri di prestazione tecnica possono includere i tassi di successo nel risolvere problemi, nel completare i compiti, il tasso di fiducia nel sistema, ecc. Altre considerazioni possono riguardare l'adempimento degli impegni, le aspettative e le esigenze delle parti interessate, inclusi il monitoraggio continuo per garantire la conformità con i requisiti dei clienti o i requisiti legali applicabili
  • Aggiornamenti e correzioni: occorre aver implementato processi atti a rispondere e a riparare errori del sistema, nonché ad aggiornare il sistema man mano che si evolve o quando vengono identificati problemi critici. Gli aggiornamenti possono includere modifiche alle attività del sistema, nuovi usi previsti o altri cambiamenti nella funzionalità del sistema
  • Supporto del sistema: fornire al sistema di gestione un supporto interno, esterno o entrambi, a seconda delle esigenze dell'organizzazione e del modo in cui il sistema è stato acquisito. I processi di supporto dovrebbero considerare come gli utenti possono contattare l'assistenza appropriata, come vengono segnalati problemi e incidenti, accordi sul livello di servizio, ecc.
  • Uso del sistema AI: assicurare che il sistema di intelligenza artificiale sia utilizzato secondo gli usi previsti e la documentazione associata
  • Assegnazione delle responsabilità nel ciclo di vita del sistema: assicurare che le responsabilità nel ciclo di vita del sistema AI siano allocate tra l'organizzazione, i suoi partner, i fornitori, i clienti e terze parti. Documentare tutte le parti intervenute nel ciclo di vita del sistema AI e i loro ruoli, determinando le loro responsabilità

Quali sono gli aspetti da considerare per un riesame efficace?

Per un riesame efficace della gestione dell'Intelligenza Artificiale secondo la norma ISO/IEC 42001:2023, è fondamentale considerare i seguenti aspetti: la direzione aziendale dovrebbe riesaminare il sistema di gestione dell'AI a intervalli pianificati per garantire che sia continuamente adeguato, appropriato ed efficace​​. Tra gli elementi da includere nel riesame abbiamo:

  • lo stato delle azioni derivanti dai precedenti riesami
  • eventuali cambiamenti nei fattori interni ed esterni ritenuti rilevanti per il sistema di gestione dell'intelligenza artificiale
  • modifiche nelle esigenze e nelle aspettative delle parti interessate che sono rilevanti per il sistema di gestione dell'AI
  • informazioni sulle prestazioni del sistema, incluso il monitoraggio dei trend in termini di non conformità, azioni correttive, risultati del monitoraggio e delle misurazioni e risultati degli audit
  • identificazione di opportunità per il miglioramento continuo

I risultati del riesame dovrebbero includere le decisioni relative alle opportunità di miglioramento continuo e qualsiasi necessità di modifiche al sistema di gestione dell'AI. È importante che ci siano informazioni documentate disponibili come prova dei risultati dei riesami​​.

(L'articolo continua sotto al box in cui ti segnaliamo che alla collana di libri QualitiAmo si è aggiunto un nuovo titolo).

LA COLLANA DEI LIBRI DI QUALITIAMO

"La nuova ISO 9001:2015 per riorganizzare, finalmente, l'azienda per processi" - Si aggiunge alla collana dei libri di QualitiAmo il primo testo che svela i segreti della futura norma.
Dalla teoria alla pratica: il secondo lavoro di Stefania Cordiani e Paolo Ruffatti spiega come migliorare la vostra organizzazione applicando la nuova norma attraverso i suggerimenti del loro primo libro
(Vai all'articolo che descrive il nuovo libro)

"Organizzazione per processi e pensiero snello - Le PMI alla conquista del mercato" - Da una collaborazione nata sulle nostre pagine, un libro per far uscire le PMI dalla crisi.
L’ideatrice di QualitiAmo e una delle sue firme storiche spiegano come usare con efficacia la Qualità.
(Vai all'articolo che descrive il primo libro)

(Vuoi restare aggiornato gratuitamente sulla ISO 9001:2015? Visita ogni giorno la pagina che ti abbiamo linkato. Riporteremo quotidianamente tutti i nostri articoli sulla norma)

Come dovrebbe essere gestita la comunicazione interna ed esterna?

In conformità con la norma ISO/IEC 42001:2023, la gestione della comunicazione interna ed esterna riguardo all'implementazione e all'uso dell'intelligenza artificiale dovrebbe essere attentamente pianificata e strutturata.

Le organizzazioni devono determinare:

  • cosa comunicare: identificare le informazioni rilevanti da comunicare in relazione al sistema di gestione AI
  • Quando comunicare: stabilire il momento più appropriato per la comunicazione di queste informazioni
  • con chi comunicare: definire i destinatari della comunicazione, sia interni che esterni
  • Come comunicare: decidere le modalità e quali canali di comunicazione utilizzare
PER SAPERNE DI PIU':
Tutti gli articoli sulla ISO/IEC 42001
Tutti gli articoli sulla quality 4.0
Tutti gli articoli sulla ISO 9001
ISO 9001
La ISO 9001:2015