Categories: AI nel businessBlog

6 maggiori errori aziendali causati dall’IA | IA nel business #58

Come evitare disguidi aziendali quando si implementa l’IA?

I disguidi aziendali nell’IA possono avere conseguenze gravi per le aziende, quindi è necessario testare i sistemi di apprendimento automatico con molta attenzione prima di portarli sul mercato. Altrimenti, ingenti investimenti in nuove tecnologie possono finire in un disastro finanziario e reputazionale di grande portata.

Quindi, come si evitano i disguidi aziendali quando si implementa l’intelligenza artificiale? Sebbene il primo consiglio possa sembrare troppo semplice per funzionare, è: “Fai attenzione alla qualità dei dati!”

Il secondo consiglio riguarda test approfonditi in un ambiente chiuso prima di rilasciare lo strumento al pubblico. Non dovresti solo testare le prestazioni tecniche dello strumento, ma anche verificare il suo:

  • rispetto etico — l’obiettivo dei test è ridurre i pregiudizi e gli stereotipi riprodotti dall’IA,
  • rispetto legale — verificare che i dati utilizzati dagli strumenti di IA, così come i contenuti che generano, siano conformi alle leggi del paese.

Anche i giganti nel campo dell’intelligenza artificiale non seguono oggi questo consiglio, rilasciando chatbot nel mondo etichettati come “esperimenti preliminari” o “progetti di ricerca”. Tuttavia, man mano che la tecnologia matura e le leggi che regolano l’uso dell’intelligenza artificiale entrano in vigore, queste questioni diventeranno più pressanti.

Google Foto

La lista dei disguidi aziendali legati all’uso dell’intelligenza artificiale inizia con un caso del 2015. È allora che l’app Google Foto, che utilizzava una versione iniziale dell’intelligenza artificiale per il riconoscimento delle immagini (visione artificiale), ha etichettato erroneamente le foto di persone di colore come foto di gorilla. Questo disguido aziendale è avvenuto perché il set di dati di addestramento utilizzato per insegnare all’algoritmo conteneva troppe poche foto di persone di colore.

Inoltre, Google ha avuto un problema simile con una telecamera smart home Nest, che ha identificato erroneamente alcune persone di pelle scura come animali. Questi incidenti dimostrano che i sistemi di visione artificiale hanno ancora difficoltà a riconoscere le caratteristiche delle diverse razze.

Disguidi aziendali: Discriminazione per età

Nel 2023, iTutor Group ha accettato di pagare 365.000 dollari per risolvere una causa legale riguardante l’uso di software di reclutamento discriminatorio. È stato scoperto che il software aveva automaticamente rifiutato candidate di sesso femminile di età superiore ai 55 anni e candidati di età superiore ai 60 anni, senza considerare la loro esperienza o qualifiche.

Amazon ha subito disguidi aziendali simili. Nel 2014, l’azienda stava lavorando su un’IA per aiutare nel processo di assunzione. Il sistema ha faticato a valutare i curriculum delle candidate femminili perché stava apprendendo da dati che includevano principalmente documenti presentati da uomini. Di conseguenza, Amazon ha abbandonato il progetto per implementare l’intelligenza artificiale nel processo.

Questi casi dimostrano che automatizzare il processo di reclutamento comporta il rischio di perpetuare pregiudizi e trattare i candidati in modo ingiusto.

Fonte: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

ChatGPT inventa falsi precedenti legali

Un altro caso è molto contemporaneo. Nel 2023, l’avvocato Steven A. Schwartz ha utilizzato ChatGPT per trovare casi legali passati per una causa contro la compagnia aerea Avianca. Tuttavia, si è scoperto che almeno sei dei casi forniti dall’IA erano falsi – contenevano nomi, numeri di caso e citazioni errati.

Questo è accaduto perché i Modelli di Linguaggio di Grandi Dimensioni (LLM) allucinano, cioè creano risposte probabili quando non riescono a trovare i fatti giusti. Pertanto, è necessario controllare le loro risposte ogni volta. E Schwartz ha saltato questo passaggio. Ecco perché il giudice lo ha multato di 5.000 dollari per “negligenza grave”.

Disguidi aziendali: Apple Watch che non funziona correttamente su persone con pelle più scura

Secondo una causa collettiva del 2021, l’app per la misurazione dell’ossigeno nel sangue sull’Apple Watch non funziona correttamente per le persone con tonalità di pelle più scura. Apple afferma di aver testato l’app su una “ampia gamma di tipi e tonalità di pelle”, ma i critici sostengono che i dispositivi tecnologici non sono ancora progettati tenendo conto delle persone di pelle scura.

Fonte: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zillow nel settore immobiliare

Zillow, un’azienda immobiliare, ha lanciato Zillow Offers, un programma per acquistare case e rivenderle rapidamente, nel 2018. CNN ha riportato che Zillow aveva acquistato 27.000 case dalla sua apertura nell’aprile 2018, ma ne aveva vendute solo 17.000 entro la fine di settembre 2021. Zillow ha dichiarato che il disguido aziendale è stato causato dal suo utilizzo dell’intelligenza artificiale. L’algoritmo ha previsto in modo errato i prezzi delle case, causando a Zillow di pagare troppo per gli acquisti. Sebbene l’azienda abbia immediatamente chiuso il programma, ha dovuto licenziare il 25% del suo personale. Acquistando involontariamente case a prezzi superiori alle attuali stime dei futuri prezzi di vendita, l’azienda ha registrato una perdita di 304 milioni di dollari.

Il chatbot razzista di Microsoft

Nel 2016, Microsoft ha rilasciato un chatbot sperimentale chiamato Tay. Doveva imparare interagendo con gli utenti di Twitter (ora X). Nel giro di 16 ore, Tay ha “imparato” a pubblicare tweet offensivi, razzisti e sessisti. Gli utenti di Twitter hanno provocato deliberatamente il bot, che non aveva i giusti meccanismi di sicurezza utilizzati nei chatbot di oggi, come ChatGPT, Microsoft Copilot e Google Bard. Microsoft ha rapidamente disabilitato il bot e si è scusata per l’incidente, ma Tay è uno dei maggiori disguidi aziendali di Microsoft.

Un disguido con un chatbot è accaduto anche a Google, che ha rilasciato un bot chiamato Meena nel 2020. Meta (ex Facebook) non è riuscita a evitare un errore simile. Nell’agosto 2022, ha lanciato un nuovo chatbot IA chiamato BlenderBot 3, progettato per chattare con le persone e apprendere da quelle interazioni.

Nel giro di pochi giorni dal suo rilascio, ci sono state segnalazioni di chatbot che facevano affermazioni offensive, razziste e fattualmente errate nelle conversazioni. Ad esempio, ha affermato che Donald Trump ha vinto le elezioni statunitensi del 2020, ha diffuso teorie del complotto antisemite e ha criticato Facebook.

Se ti piace il nostro contenuto, unisciti alla nostra comunità di api operose su Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest, TikTok.

Robert Whitney

Esperto di JavaScript e istruttore che forma i dipartimenti IT. Il suo obiettivo principale è aumentare la produttività del team insegnando agli altri come cooperare efficacemente durante la programmazione.

View all posts →

Robert Whitney

Esperto di JavaScript e istruttore che forma i dipartimenti IT. Il suo obiettivo principale è aumentare la produttività del team insegnando agli altri come cooperare efficacemente durante la programmazione.

Share
Published by
Robert Whitney

Recent Posts

Il ruolo dell’IA nella moderazione dei contenuti | IA nel business #129

Le aziende si confrontano con la gestione di una vasta quantità di contenuti pubblicati online,…

7 hours ago

Analisi del sentiment con l’IA. In che modo aiuta a guidare il cambiamento nel business? | IA nel business #128

nell'era della trasformazione digitale, le aziende hanno accesso a un'ammontare senza precedenti di dati sui…

9 hours ago

Migliori strumenti di trascrizione AI. Come trasformare lunghe registrazioni in riassunti concisi? | AI nel business #127

Sapevi che puoi ottenere l'essenza di una registrazione di diverse ore da un incontro o…

11 hours ago

Generazione video con intelligenza artificiale. Nuovi orizzonti nella produzione di contenuti video per le aziende | AI nel business #126

Immagina un mondo in cui la tua azienda può creare video coinvolgenti e personalizzati per…

13 hours ago

LLMOps, o come gestire efficacemente i modelli di linguaggio in un’organizzazione | AI nel business #125

Per sfruttare appieno il potenziale dei Modelli di Linguaggio di Grandi Dimensioni (LLM), le aziende…

15 hours ago

Automazione o aumento? Due approcci all’IA in un’azienda | IA nel business #124

Nel 2018, Unilever aveva già intrapreso un percorso consapevole per bilanciare le capacità di automazione…

17 hours ago