Cume Aduprà un Approcciu Cusciente à l'AI Taglia i Set di Dati Biased

Set di Dati Biased è AI Eticu

E soluzioni alimentate da AI necessitanu inseme di dati per esse efficaci. È a creazione di questi inseme di dati hè piena di un prublema di pregiudiziu implicitu à un livellu sistematicu. Tutte e persone soffrenu di pregiudizii (sia cuscienti sia inconsci). I pregiudizi ponu piglià parechje forme: geografiche, linguistiche, socioeconomiche, sessiste è razziste. E questi preghjudizii sistematichi sò cotti in dati, chì ponu resultà in prudutti AI chì perpetuanu è aumentanu a pregiudiziu. L'organizazioni necessitanu un approcciu attentu per mitigà contra i pregiudizi striscianti in insiemi di dati.

Esempii chì illustranu u prublema di pregiudiziu

Un esempiu rimarchevuli di stu preghjudiziu di u settore di dati chì hà coltu assai pressa negativa à l'epica era una suluzione di lettura di ripresa chì favuriva i candidati maschili nantu à e femine. Hè perchè i set di dati di l'utensile di recrutamentu sò stati sviluppati aduprendu curriculum di l'ultima decada quandu a maggioranza di i candidati eranu masci. I dati eranu pregiudiziali è i risultati riflettevanu quellu preghjudiziu. 

Un altru esempiu largamente riportatu: À a cunferenza annuale di sviluppatori di Google I / O, Google hà spartutu un'anteprima di un strumentu d'aiutu di dermatologia alimentatu da AI chì aiuta à e persone à capisce ciò chì accade cù prublemi relativi à a so pelle, capelli è unghie. L'assistente di dermatulugia sottolinea cume l'IA evolve per aiutà cù l'assistenza sanitaria - ma hà ancu messu in risaltu u putenziale di pregiudiziu per infiltrassi in AI dopu à e critiche chì l'utensile ùn hè micca adattu per e persone di culore.

Quandu Google hà annunziatu u strumentu, a cumpagnia hà dettu:

Per assicurà chì simu custruiti per tutti, u nostru mudellu conta fattori cum'è età, sessu, razza è tippi di pelle - da a pelle pallida chì ùn si bronzeghja à a pelle bruna chì brusgia raramente.

Google, Usendu l'AI per aiutà à truvà risposte à e cundizione cumune di a pelle

Ma un articulu in Vice dice chì Google ùn hà micca pussutu utilizà un set di dati inclusivi:

Per rializà u compitu, i circadori anu usatu un set di dati di furmazione di 64,837 immagini di 12,399 pazienti situati in dui stati. Ma di e migliaia di cundizioni di a pelle ritrattate, solu 3.5 per centu venenu da pazienti cun tippi di pelle V è VI di Fitzpatrick-quelli chì rappresentanu a pelle marrone è a pelle marrone scura o nera, rispettivamente. U 90 per centu di a basa di dati era cumpostu di persone cun pelle chjara, pelle bianca più scura, o pelle marrone chjaru, secondu u studiu. In u risultatu di u campionamentu pregiudiziale, i dermatologi dicenu chì l'applicazione puderia finisce troppu o sottodiagnosticà e persone chì ùn sò micca bianchi.

Vice, a nova App di Dermatologia di Google ùn hè stata cuncipita per e Persone cù a Pelle più Scura

Google hà rispostu dicendu chì affinaria l'uttellu prima di liberallu formalmente:

U nostru strumentu di assistenza per a dermatologia alimentata da AI hè a culminazione di più di trè anni di ricerca. Siccomu u nostru travagliu hè statu prisentatu in Medicina Natura, avemu continuatu à sviluppà è affinà a nostra tecnulugia cù l'incorporazione di insemi di dati addiziunali chì includenu dati donati da migliaia di persone, è milioni di immagini più curate riguardanu a pelle.

Google, Usendu l'AI per aiutà à truvà risposte à e cundizione cumune di a pelle

Per quantu pudemu sperà chì l'AI è i prugrammi di apprendimentu automaticu pudessinu corregge per questi pregiudizii, a realtà resta: sò solu cusì inteligente cum'è i so inseme di dati sò puliti. In un aghjurnamentu di u vechju adagiu di prugrammazione garbage in / garbage out, E soluzioni AI sò forti quant'è a qualità di i so inseme di dati da u principiu. Senza una currezzione da i prugrammatori, sti gruppi di dati ùn anu micca l'esperienza di fondu per risolve se stessi - cume ùn anu solu un altru quadru di riferimentu.

A creazione di gruppi di dati in modu responsabile hè u core di tutti intelligenza artificiale etica. È e persone sò à u core di a suluzione. 

Mindful AI hè AI Etica

U preghjudiziu ùn accade micca in un vacuum. Insemi di dati non etici o pregiudiziali venenu da piglià un approcciu sbagliatu durante a fase di sviluppu. U modu per luttà contr'à l'errori di pregiudiziu hè di aduttà un approcciu rispunsevule, centratu nantu à l'omu, chì parechji di l'industria chjamanu AI Mindful. Mindful AI hà trè cumpunenti critichi:

1. L'Attenzione AI hè Centrata in l'Umanu

Dapoi u principiu di u prugettu AI, in e fasi di pianificazione, i bisogni di e persone devenu esse à u centru di ogni decisione. E questu significa tutte e persone - micca solu un sottogruppu. Hè per quessa chì i sviluppatori necessitanu di contà nantu à una squadra diversa di persone basate in u mondu per furmà l'applicazioni AI per esse inclusive è senza pregiudiziu.

U crowdsourcing di i gruppi di dati da una squadra glubale è diversa assicura chì i pregiudizii sò identificati è filtrati prima. Quelli di etnie variabili, gruppi di età, sessi, livelli di educazione, sfondi socio-ecunomichi è lochi ponu individuà più facilmente insiemi di dati chì favurizanu un inseme di valori sopra l'altru, eliminendu cusì un pregiudiziu imprevistu.

Fighjate l'applicazioni vocali. Quandu si applica un approcciu intelligente di AI, è sfrutta a putenza di un gruppu glubale di talenti, i sviluppatori ponu tene in contu elementi linguistici cum'è diversi dialetti è accenti in i gruppi di dati.

Stabilisce un quadru di cuncepimentu centru in l'omu da u principiu hè criticu. Avanza assai per assicurà chì i dati generati, curati è etichettati rispondenu à l'aspettativa di l'utenti finali. Ma hè ancu impurtante di mantene l'omi in u ciclu per tuttu u ciclu di vita di u sviluppu di u pruduttu. 

L'umani in u ciclu ponu ancu aiutà e macchine à creà una sperienza AI megliu per ogni publicu specificu. In Pactera EDGE, e nostre squadre di prughjetti di dati AI, situate à u globu, capiscenu cumu diverse culture è contesti ponu influenzà a raccolta è a curazione di dati affidabili di furmazione AI. Anu l'utili necessarii chì necessitanu per signalà i prublemi, monitoralli, è riparalli prima chì una soluzione basata in AI sia in diretta.

L'AI umanu in u ciclu hè un "rete di sicurezza" di u prugettu chì unisce i punti di forza di e persone - è i so sfondi diversi cù a putenza informatica rapida di e macchine. Questa collaborazione umana è AI deve esse stabilita da u principiu di i prugrammi in modo chì i dati pregiudiziali ùn formanu micca un fundamentu in u prugettu. 

2. AI Cuscente Hè Responsabile

Esse rispunsevuli hè di assicurà chì i sistemi AI liberi di pregiudizii è chì sò basati in etica. Si tratta di esse attenti à cume, perchè, è induve i dati sò creati, cumu sò sintetizzati da i sistemi AI, è cumu sò aduprati per piglià una decisione, decisioni chì ponu avè implicazioni etiche. Un modu per una impresa di fà cusì hè di travaglià cù e cumunità sottorepresentate per esse più inclusivi è menu pregiudiziali. In u campu di l'annotazioni di dati, una nova ricerca mette in evidenza cume un mudellu multi-annotatore multi-compitu chì tratta l'etichette di ogni annotatore cum'è sottutask separatu pò aiutà à mitigà e prublemi potenziali inerenti à i metudi tipichi di verità di u terrenu induve i disaccordi annotatori ponu esse dovuti à sottorepresentazioni è pò esse ignoratu in l'aggregazione di annotazioni à una sola verità di terra. 

3. Fiduciale

L'affidabilità vene da una impresa chì hè trasparente è spiegabile in quantu u mudellu AI hè furmatu, cumu funziona, è perchè raccomandanu i risultati. Un impresa hà bisognu di cumpetenza cù a localizazione AI per rende pussibule per i so clienti di fà e so applicazioni AI più inclusive è persunalizate, rispettendu sfumature critiche in lingua lucale è sperienze d'utilizatori chì ponu fà o rompe a credibilità di una soluzione AI da un paese à l'altru . Per esempiu, una impresa deve cuncepisce e so applicazioni per contesti persunalizati è lucalizati, cumpresi lingue, dialetti è accenti in applicazioni basate nantu à a voce. In questu modu, una app porta u listessu livellu di sofisticazione di l'esperienza vocale in ogni lingua, da l'inglese à e lingue sotturiprisentate.

Ghjustizia è Diversità

In ultimamente, l'intelligenza artificiale assicura chì e soluzioni sò basate nantu à inseme di dati ghjusti è diversi induve e cunsequenze è l'impattu di risultati particulari sò monitorati è valutati prima chì a soluzione venga à u mercatu. Per esse attenti è includendu l'omu in ogni parte di u sviluppu di a suluzione, aiutemu à assicurà chì i mudelli AI restanu puliti, minimamente pregiudiziali, è u più etichi pussibule.

Chì ne pensi?

Stu situ utilizeghja Akismet per reducisce u puzzicheghju. Sapete ciò chì i dati di i vostri dati è processatu.