L’uso dell’intelligenza artificiale nell’art. 30 del d.lgs. 36/2023 alla prova dell’AI Act dell’Unione europea
DOI:
https://doi.org/10.32091/RIID0117Parole chiave:
Intelligenza artificiale, Appalti pubblici, Controllo umano, Governance e sperimentazione normativaAbstract
Il presente lavoro, in prossimità della pubblicazione dell’AI Act dell’Unione europea, mette in relazione l’innovativa (per il sistema giuridico italiano) applicazione dell’intelligenza artificiale al campo dei pubblici appalti – così come dispone l’art. 30 del d.lgs. 36/2023 – con gli istituti di matrice eurounitaria che stanno per vedere la luce. Effettuata una breve introduzione sui sistemi di intelligenza artificiale utilizzabili nel settore in esame, lo scritto si sofferma, in primis, sulla problematica qualificazione dell’ambito dei pubblici appalti come attività ad alto rischio, ai sensi e per gli effetti dell’Allegato III dell’AI Act. Viene, altresì, messo in evidenza su chi debba gravare, e da chi debba provenire, quel “contributo umano” che l’art. 30 del d.lgs. 36/2023 stabilisce come inderogabile ai fini della legittimità dei provvedimenti automatizzati nel settore dei pubblici appalti e le ripercussioni che determina, in tal senso, l’individuazione dell’“operatore”, pubblico e privato, quale figura chiave e giuridicamente responsabile della sorveglianza umana. Il lavoro si chiude soffermandosi sui sistemi di governance e di prevenzione dei rischi, così come impostati dal legislatore europeo, con particolare riferimento agli istituti di cui alla valutazione d’impatto e alla sperimentazione normativa.