L’AI Act è la prima regolamentazione del suo genere al mondo. La prima a trattare in modo completo l’intelligenza artificiale da un approccio incentrato sull’uomo. Mira a garantire che i sistemi di intelligenza artificiale utilizzati in Europa siano sicuri e stimolino l’innovazione, rispettando i diritti fondamentali, con un focus particolare su:
Per le PMI, l’AI Act porterà principalmente maggiore certezza legale poiché definisce chiaramente il quadro per l’innovazione: i principi di progettazione, sviluppo e applicazione dei sistemi di intelligenza artificiale. Renderà più facile per le aziende investire in soluzioni basate sull’IA, riducendo i rischi legali. Inoltre, le normative applicabili in tutta l’Unione impediranno la frammentazione del mercato.
Le normative europee sull’intelligenza artificiale sono state adottate dal Parlamento Europeo e dal Consiglio d’Europa il 9 dicembre 2023. Ora devono essere formalmente accettate da entrambe le istituzioni per entrare in vigore.
L’AI Act dell’UE introduce un insieme di requisiti per i sistemi di intelligenza artificiale, a seconda del livello di rischio. Questi requisiti includono, tra l’altro:
I produttori e le aziende che utilizzano sistemi di intelligenza artificiale saranno anche obbligati a monitorare i rischi dopo averli introdotti nel mercato. Questo avrà un impatto diretto sulle aziende che progettano e implementano sistemi di intelligenza artificiale.
L’AI Act classifica i sistemi di intelligenza artificiale in quattro categorie in base al loro livello di rischio:
Esaminiamo più da vicino come sarà definito ciascun gruppo, insieme a esempi di sistemi e delle loro classificazioni.
L’Unione Europea impone un divieto completo sull’uso delle tecnologie elencate nell’AI Act come sistemi di rischio inaccettabile. Questi sono principalmente sistemi progettati per sfruttare la suscettibilità degli individui alla suggestione per manipolazione o inganno, sistemi che conferiscono all’intelligenza artificiale la capacità di prendere decisioni in questioni cruciali e quelli che potrebbero portare a un abuso di potere. Esempi di intelligenza artificiale di rischio inaccettabile includono:
Per le aziende, l’ultima categoria è particolarmente importante. Ecco perché la trasparenza nel funzionamento dei sistemi che forniscono suggerimenti agli utenti e ai clienti sarà cruciale per la conformità alla nuova legislazione dell’Unione Europea.
L’intelligenza artificiale classificata come soluzione AI ad alto rischio dovrà soddisfare requisiti rigorosi prima di entrare nel mercato. Ciò comporta valutazioni di conformità e test rigorosi prima di essere approvata per l’uso. Questa categoria di rischio include otto aree, come:
Ai sistemi a rischio limitato, comunemente utilizzati nelle imprese, i legislatori hanno fortunatamente prestato molta meno attenzione. Questa categoria include:
Le soluzioni AI a basso rischio non sono soggette a regolamentazioni legali. L’AI Act menzionerà solo che i creatori e gli utenti di tali soluzioni dovrebbero stabilire volontariamente politiche di utilizzo. Questo riguarda soluzioni come:
Per verificare se l’intelligenza artificiale utilizzata da un’azienda è conforme all’AI Act, è necessario:
Esaminiamo esempi di soluzioni AI frequentemente utilizzate dalle aziende. Quali requisiti dovranno soddisfare?
Un chatbot per il servizio clienti che fornisce informazioni di base sui prodotti o risponde a domande tipiche dei clienti sarà probabilmente classificato come un sistema a rischio minimo. Dovrà:
Un sistema di raccomandazione di prodotti nell’e-commerce sarà probabilmente considerato un sistema a basso rischio. Sarà necessario informare i clienti che stanno ricevendo raccomandazioni personalizzate e fornire l’opzione di disattivarle.
D’altra parte, un sistema per diagnosi mediche automatiche sarà classificato come un sistema ad alto rischio. Dovrà sottoporsi a una rigorosa valutazione prima dell’ingresso nel mercato e sarà supervisionato da un umano. Inoltre, sarà necessario monitorare il suo funzionamento e segnalare incidenti.
Il sistema di prevenzione della criminalità urbana sarà considerato anch’esso ad alto rischio. Dovrà conformarsi alle normative sulla protezione della privacy e di altri diritti fondamentali. Il suo funzionamento dovrà essere sotto costante supervisione umana.
Non è chiaro in quale categoria ricadranno i sistemi di decisione basati sull’IA. È probabile che un sistema di reclutamento basato sull’IA che prende decisioni di assunzione autonomamente sarà considerato una soluzione AI di rischio inaccettabile. D’altra parte, un sistema di supporto al reclutamento che aiuta le persone a svolgere il proprio lavoro sarebbe considerato una soluzione ad alto rischio.
Per il bene del benessere degli utenti, così come per possibili cambiamenti nelle classificazioni, è molto importante affrontare la costruzione e l’uso dei sistemi di intelligenza artificiale in modo etico e responsabile fin dall’inizio.
Non seguire l’AI Act potrebbe comportare sanzioni significative per le aziende, che vanno da 35 milioni di euro o 7% del fatturato globale per le grandi imprese a 7,5 milioni di euro o 1,5% per le PMI. I sistemi di intelligenza artificiale illeciti potrebbero essere ritirati dal mercato e il loro utilizzo potrebbe essere limitato.
Quindi, come preparare un’azienda che utilizza intelligenza artificiale per l’entrata in vigore dell’AI Act nel 2025? Ecco alcuni suggerimenti su come le PMI e le startup possono prepararsi a questo momento:
L’introduzione dell’AI Act rappresenta un grande cambiamento per l’ecosistema dell’IA in Europa. Tuttavia, con regole chiare e coerenti, promette di garantire lo sviluppo sicuro ed etico di questa tecnologia, che dovrebbe beneficiare in particolare le PMI e le startup.
L’AI Act, che entrerà in vigore nel 2025, porterà cambiamenti significativi nel modo in cui le piccole e medie imprese (PMI) possono sfruttare l’intelligenza artificiale. Per le PMI, questo significa principalmente la necessità di una considerazione e analisi attenta delle soluzioni AI che utilizzano, sia in termini di conformità alle normative che di impatto potenziale su clienti e comunità.
Per i piccoli imprenditori e manager, è essenziale comprendere come i loro sistemi di intelligenza artificiale siano classificati in termini di rischio e quali azioni siano necessarie per allinearli alle normative in arrivo. Prendiamo, ad esempio, i sistemi di intelligenza artificiale utilizzati nella gestione dei clienti o nel marketing, che in precedenza erano utilizzati piuttosto liberamente. Ora, richiederanno un’analisi approfondita per la conformità all’AI Act. Questo potrebbe creare nuove opportunità per le aziende specializzate in consulenza legale tecnologica, fornendo supporto alle PMI nell’adattarsi a questi nuovi requisiti.
Se ti piace il nostro contenuto, unisciti alla nostra comunità di api operose su Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.
Esperto di JavaScript e istruttore che forma i dipartimenti IT. Il suo obiettivo principale è aumentare la produttività del team insegnando agli altri come cooperare efficacemente durante la programmazione.
Le aziende si confrontano con la gestione di una vasta quantità di contenuti pubblicati online,…
nell'era della trasformazione digitale, le aziende hanno accesso a un'ammontare senza precedenti di dati sui…
Sapevi che puoi ottenere l'essenza di una registrazione di diverse ore da un incontro o…
Immagina un mondo in cui la tua azienda può creare video coinvolgenti e personalizzati per…
Per sfruttare appieno il potenziale dei Modelli di Linguaggio di Grandi Dimensioni (LLM), le aziende…
Nel 2018, Unilever aveva già intrapreso un percorso consapevole per bilanciare le capacità di automazione…