Menu

Etica e Regolamentazione dell’AI: Le Intuizioni del Head of Legal and Data Protection Officer di DiliTrust

L’intelligenza artificiale sta rapidamente emergendo come un catalizzatore per l’innovazione, trasformando le industrie e ridefinendo il modo in cui lavoriamo e interagiamo con la tecnologia. Tuttavia, con l’innovazione arriva anche la responsabilità, e l’integrazione dell’AI nelle nostre vite solleva domande su etica, privacy e impatto sociale.

In questa intervista esploriamo le prospettive di Marie-Claire Jacob, Head of Legal and Data Protection Officer di DiliTrust. Con una vasta esperienza nella navigazione nei complessi ambiti legali e della protezione dei dati, Marie-Claire offre una prospettiva unica alla conversazione. Unisciti a noi in questo viaggio di riflessione attraverso un dialogo che esplora l’intersezione tra tecnologia, etica e società. 

An illustration of the scales of justice on a background of lines and dots representing technology vectors. This image represents the question of ai ethics and regulation.

1. Quali sono i tuoi pensieri attuali sul ruolo dell’intelligenza artificiale? 

L’intelligenza artificiale è attualmente al centro di molti dibattiti, sia a favore che contro, in particolare nel contesto legale. Personalmente, utilizzo spesso l’intelligenza artificiale nel mio lavoro quotidiano e recentemente ho scoperto nuovi strumenti di AI generativa che influenzano positivamente il mio modo di lavorare. Sono impressionata dal livello a cui questi strumenti possono migliorare la mia scrittura; nonostante sia bilingue, ho imparato nuove parole grazie a questi strumenti.  

Credo che ci sia un reale valore aggiunto nell’utilizzo di tali strumenti e questo testimonia il potere trasformativo che avranno sulla nostra società e sulle nostre abitudini lavorative in numerosi campi. Tuttavia, è evidente che ci sono certi limiti e rischi, specialmente con gli strumenti di AI generativa. 

👉Potrebbe interessarti anche: Garantire una governance sostenibile nell’era dell’AI

Parlando di rischi, quali sono esattamente le tue preoccupazioni?

Ci sono alcuni rischi legali ed etici che devono essere studiati e devono essere stabilite delle linee guida per l’uso. Sebbene apprezzi l’entusiasmo attorno all’intelligenza artificiale, credo che implementare regolamentazioni sia cruciale per mitigare i suoi potenziali effetti negativi sulle nostre società. Vorrei fare un paragone con il cloud quando è emerso per la prima volta, ha sollevato preoccupazioni iniziali ma è ora diventato indispensabile.

Credo che dobbiamo affrontare la questione in modo da comprendere come funziona. L’IA funziona simulando l’intelligenza umana, agendo come un cervello computazionale che apprende e analizza enormi quantità di dati. Ma la raccolta, la quantità e l’origine di questi dati sollevano questioni di privacy, consenso e responsabilità. L’uso dei dati personali solleva preoccupazioni ai sensi di regolamentazioni come il GDPR, poiché i modelli addestrati su dati web possono involontariamente includere informazioni sensibili. È per questo che è necessaria un’attenta considerazione dei quadri legali attorno a queste innovazioni, poiché possono scontrarsi con i principi fondamentali della privacy.

Potresti darci una panoramica su come è attualmente regolamentata l’intelligenza artificiale o come lo sarà in futuro?

La regolamentazione dell’AI è un tema in corso con varie iniziative che mirano a affrontare le sue implicazioni etiche e legali. C’è una divisione all’interno della comunità tecnologica riguardo agli approcci regolatori, con l’accademia che sottolinea le considerazioni etiche e i giocatori dell’industria che delineano i principi dell’AI responsabile.

Gli sforzi internazionali, come la Dichiarazione di Montreal del 2018 e le iniziative di organizzazioni come l’UNESCO, riflettono un consenso globale su queste necessità. L’AI Act dell’UE, la cui applicazione è prevista per il 2025, rappresenta un passo pionieristico nella regolamentazione dell’AI, poiché classificherà le applicazioni di AI in base ai loro livelli di rischio e garantirà la conformità ai valori fondamentali.

Sebbene alcuni critichino queste regolamentazioni, esse aiutano a stabilire un precedente e ad elevare gli standard, come è già avvenuto con il GDPR. La trasparenza e la responsabilità nei modelli di AI pongono alcune sfide riguardo ai segreti commerciali e al vantaggio competitivo. Tuttavia, considerare la compliance e come un vantaggio aziendale può favorire la fiducia tra i clienti e stabilire nuovi standard globali.


AI Act

L’AI Act dell’UE, recentemente approvato dal Parlamento Europeo il 14 marzo, mira a vietare specifiche applicazioni di AI che minacciano i diritti fondamentali e stabilisce regole per i sistemi di AI ad alto rischio. Questo può includere il riconoscimento e la categorizzazione biometrica. Impone limitazioni specifiche sull’uso dell’AI nelle forze dell’ordine e sottolinea la necessità di trasparenza, richiedendo agli sviluppatori di spiegare il funzionamento dell’AI e i dati utilizzati. Complessivamente, l’Atto segna un passo significativo nella governance responsabile e trasparente dell’AI in Europa, sostenendo al contempo l’innovazione.


Quali sono, secondo te, le considerazioni chiave quando si lavora con l’AI?

Quando si lavora con l’AI, è fondamentale dare priorità alla fiducia e alla compliance. Questo comporta la definizione di casi d’uso chiari, garantendo la privacy sin dalla progettazione e conducendo valutazioni approfondite della protezione dei dati. Inoltre, affrontare i pregiudizi attraverso una messa a punto accurata e mantenere la capacità di evolversi in contesti normativi in cambiamento sono aspetti cruciali.  

Collaborare con esperti legali e di protezione dei dati sin dall’inizio del progetto aggiunge valore, garantendo la compliance e minimizzando i rischi. In definitiva, considerare la compliance legale come una partnership aziendale migliora il successo del progetto e favorisce un vantaggio competitivo nel panorama dell’AI in evoluzione.

Leggi anche: Comprendere la Digital Operational Resilience Act


In DiliTrust comprendiamo che la regolamentazione e le considerazioni etiche riguardanti l’intelligenza artificiale sono cruciali. Le intuizioni di Marie-Claire evidenziano l’importanza della fiducia, della compliance e della collaborazione in questo panorama in rapida evoluzione. Continuando a progredire, DiliTrust rimane impegnata a promuovere una governance responsabile dell’IA attraverso la nostra suite di soluzioni innovative. Abbracciando iniziative come l’AI Act dell’UE, tracciamo il percorso verso un futuro in cui l’IA operi in modo trasparente, etico e responsabile, permettendoci di sfruttare il suo potenziale trasformativo nel rispetto dei principi e dei valori fondamentali.

Ottimizza le attività legali e aziendali con i moduli integrati della DiliTrust Governance Suite. Contattaci per una dimostrazione gratuita e scopri come aumentare la produttività!

Disclaimer: Le opinioni espresse in questa intervista sono quelle dell’intervistata, Marie-Claire Jacob, e non riflettono necessariamente la posizione ufficiale o i punti di vista di DiliTrust. Sebbene Marie-Claire Jacob ricopra il ruolo di Responsabile Legale e Responsabile della Protezione dei Dati all’interno della nostra organizzazione, le prospettive condivise in questa intervista rappresentano i suoi punti di vista personali e la sua esperienza professionale. DiliTrust non avalla né convalida le opinioni espresse in questo contesto, e i lettori sono incoraggiati a interpretare il contenuto nel contesto delle prospettive individuali.