La I^ parte è qui: poliverso.org/display/0477a01e…

Immagine/foto

L’AI Toolkit offre una prospettiva equilibrata sull’innovazione responsabile dell’AI fondata sui diritti umani, sull’etica e su solidi principi di polizia consolidati, il tutto contestualizzato attraverso esempi pratici di casi d’uso specifici delle forze dell’ordine.
All’interno del toolkit AI
L’AI Toolkit contiene sette risorse progettate per fornire al personale delle forze dell’ordine le conoscenze e gli strumenti necessari per affrontare le complessità dell’AI e garantirne un utilizzo responsabile nelle attività di polizia. Queste risorse sono integrate con un FILE README, che funge da introduzione all’AI Toolkit, spiegando come esplorarlo e ottenere il massimo dai suoi contenuti.
Il Toolkit AI comprende le seguenti risorse:
• Documenti di orientamento primari
• Strumenti pratici
• Documento giustificativo
• Introduzione all’innovazione responsabile dell’AI
• Principi per l’innovazione responsabile dell’AI
• Roadmap organizzativa
• Questionario di valutazione della preparazione organizzativa
• Questionario sulla valutazione del rischio
• Quaderno di esercizi sull’innovazione responsabile dell’intelligenza artificiale in azione
• Libro di riferimento tecnico
A chi è rivolto il toolkit AI?
L’AI Toolkit è stato creato principalmente per il personale delle forze dell’ordine locali, regionali e nazionali. È adatto sia agli ufficiali che ai civili in diversi dipartimenti e unità, tra cui:
• utenti finali dei sistemi di IA nelle unità operative
• personale nei team di innovazione
• responsabili legali e degli appalti
• il capo della polizia e la loro leadership esecutiva.
Tuttavia, molti altri soggetti interessati non appartenenti alle forze dell’ordine potrebbero trovare utile l’AI Toolkit. Ad esempio, gli sviluppatori di tecnologia nel settore privato o nel mondo accademico, la società civile, il pubblico in generale e altri attori della giustizia penale come magistratura, pubblici ministeri e avvocati possono utilizzare l’AI Toolkit per migliorare la loro conoscenza e consapevolezza sui temi dell’AI responsabile innovazione nelle forze dell’ordine.
Il toolkit AI crea nuovi obblighi?
L’AI Toolkit non è destinato a creare obblighi vincolanti o a limitare o indebolire gli obblighi vincolanti di qualsiasi agenzia ai sensi del diritto nazionale o internazionale. Piuttosto, l’AI Toolkit fornisce indicazioni, considerazioni e raccomandazioni da seguire volontariamente.
L’AI Toolkit non mira a sostituire o integrare alcuna delle strategie, politiche o procedure di gestione già in atto nelle forze dell’ordine. Al contrario, integra i processi e le procedure istituzionali e organizzativi esistenti. È particolarmente utile se utilizzato insieme ad altri strumenti di gestione pertinenti come la gestione dei progetti, l’analisi dei rischi e dei bisogni, la protezione e valutazione dei dati o l’analisi rischi-benefici.
A quali sistemi di intelligenza artificiale si applica l’AI Toolkit?
Le forze dell’ordine utilizzano i sistemi di intelligenza artificiale in molti modi diversi, alcuni più propensi a sollevare problemi rispetto ad altri. Ad esempio, le agenzie potrebbero adottare software con componenti di intelligenza artificiale come filtri antispam per e-mail o app di navigazione. Questi sistemi generalmente non sono stati prodotti o utilizzati esclusivamente in un contesto di applicazione della legge e talvolta sono ampiamente adottati nella società. L’AI Toolkit si applica in questi casi?
Data la loro natura, i principi fondamentali per l’innovazione responsabile dell’AI si applicano a tutti gli usi dei sistemi di AI e in tutte le fasi del ciclo di vita. Si tratta di principi generali progettati per essere adattabili a diversi contesti, indipendentemente dalla natura del caso d’uso stesso o dal fatto che sia stato sviluppato appositamente per il contesto delle forze dell’ordine. Rispettarli contribuirà a promuovere buone pratiche poiché le agenzie sfruttano il potenziale positivo dell’utilizzo dei sistemi di intelligenza artificiale.
Per determinare se si applicano le linee guida, le raccomandazioni e le considerazioni contenute nel resto dell’AI Toolkit, le agenzie dovrebbero considerare le seguenti tre domande:
• l’uso del sistema di intelligenza artificiale riguarda l’esecuzione delle funzioni principali delle forze dell’ordine, vale a dire proteggere la comunità, prevenire e indagare sulla criminalità e garantire la giustizia?
• sono stati identificati rischi medi, alti o estremamente elevati relativi al sistema di AI dopo aver completato il questionario di valutazione dei rischi?
• ci sono altri potenziali effetti sui diritti umani che richiedono di prendere in considerazione l’applicazione completa dell’AI Toolkit?
Se la risposta a una qualsiasi di queste tre domande è sì, le agenzie sono incoraggiate a prendere in considerazione le linee guida, le raccomandazioni e le considerazioni dell’AI Toolkit nella misura più ampia possibile.

#AITOOLKIT #INTERPOL #UNICRI #artificialintelligence #AI
@aitech

I link per approfondire e scaricare i manuali:
ai-lawenforcement.org/node/118
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…
interpol.int/content/download/…