IBM per porre fine AI pregiudizi con aggiornata Watson OpenScale

0
8

IBM Watson

Watson OpenScale =ora ha raccomandato bias monitor per rilevare automaticamente di genere e le discriminazioni etniche

IBM ha aggiunto una caratteristica per la sua Watson OpenScale software che rileva e riduce contro di genere e le discriminazioni etniche.

Questi bias monitor sono l’ultima aggiunta alla Watson OpenScale, che è stato lanciato nel settembre 2018, con lo scopo di dare agli utenti di business e non di dati scienziati la possibilità di monitorare la loro intelligenza artificiale e apprendimento automatico di modelli per comprendere meglio le prestazioni. Il software consente di monitorare la algoritmico bias e fornisce le spiegazioni per IA uscite.

Fino ad ora, gli utenti di selezionare manualmente le cui caratteristiche o attributi di un modello di monitor per il bias in produzione, in base alla propria conoscenza. Ma secondo IBM, si consiglia di bias monitor, Watson OpenScale ora di identificare automaticamente se noti attributi protetti, tra cui il sesso, l’etnia, stato civile, età, sono presenti in un modello e raccomandare che vengono monitorati.

Cosa c’è di più, IBM dice che sta lavorando con le autorità di regolamentazione di conformità esperti al Promontorio di ampliare questo elenco di attributi per coprire il sensibile demografiche più comunemente riferimento a dati di regolamento.

Vedere correlati

Perché la diversità in AI è fondamentale per costruire una società più giusta IBM per il taglio di 1.700 posti di lavoro come sposta la focalizzazione sul mercato

“Come regolatori di iniziare a girare un diagramma di occhio algoritmico bias, sta diventando sempre più critica che le organizzazioni hanno una chiara comprensione di come i loro modelli sono esecuzione, e se essi stanno producendo sleale risultati per determinati gruppi”, ha detto Susannah Shattuck, l’offerta manager per Watson OpenScale.

L’intelligenza artificiale è una rapida evoluzione del settore, in particolare nel regno UNITO, dove si è spesso riferito che il paese è uno dei principali sviluppatori, ma questa crescita è spesso compensato con le preoccupazioni che la tecnologia è in fase di sviluppo in modo che accentua le disuguaglianze.

Nel mese di Marzo, il Centro per i Dati di Etica e Innovazione (CDEI) ha annunciato di aver unito le forze con l’Ufficio di Gabinetto della Gara Disparità Unità di indagare il potenziale di bias algoritmico decisionale.

Come algoritmi diventato più comune nella società, il loro potenziale per aiutare le persone aumenta. Tuttavia, recenti studi hanno mostrato che la polarizzazione umana può insinuarsi in algoritmi, quindi in ultima analisi danneggiare il popolo è pensato per aiutare.