IBM for å snuse ut AI bias med oppdatert Watson OpenScale

0
10

IBM Watson

Watson OpenScale =nå har anbefalt bias overvåker automatisk gjenkjenning av kjønn og etnisk skjevhet

IBM har lagt til en funksjon til sin Watson OpenScale programvare som oppdager og reduseres mot kjønn og etnisk skjevhet.

Disse anbefales bias-skjermer er den nyeste tillegg til Watson OpenScale, som ble lansert i September 2018, med det formål å gi business-brukere og ikke-data forskere muligheten til å overvåke sine AI og maskinlæring modeller for å forstå bedre ytelse. Programvaren bidrar til å overvåke algoritmisk bias og gir forklaringer for AI-utganger.

Opp til nå, brukere manuelt valgt som funksjoner eller egenskaper en modell til skjerm for bias i produksjon, basert på deres egen kunnskap. Men i henhold til IBM, med den anbefalte bias skjermer, Watson OpenScale vil nå automatisk identifisere om kjent beskyttet attributter, inkludert kjønn, etnisitet, ekteskapelig status og alder, er til stede i en modell og anbefaler at de er overvåket.

Hva er mer, IBM sier det er å jobbe med myndighetskrav eksperter på Odden for å fortsette å utvide denne listen over attributter for å dekke den følsomme demografiske egenskaper som oftest refereres til i data regulering.

Se relaterte

Hvorfor mangfold i AI er avgjørende for å bygge et mer rettferdig samfunn IBM til å kutte 1,700 jobber som det skifter fokus markedet

“Som regulatorer begynner å bli en skarpere øye på algoritmisk bias, det er blitt mer kritisk til at organisasjoner har en klar forståelse av hvordan deres modeller er å utføre og om de er å produsere urettferdig utfall for visse grupper,” sa Susannah Shattuck, og tilbyr manager for Watson OpenScale.

Kunstig intelligens er et raskt fremme sektor, spesielt i NORGE hvor det er ofte rapportert at landet er en av de ledende utviklerne, men denne veksten er ofte kompensert med bekymringer for at den teknologien som blir utviklet på en måte som fremhever ulikhet.

I Mars, Senter for Data Etikk og Innovasjon (CDEI) kunngjorde det hadde gått sammen med the Cabinet Office Rase Misforhold Enhet for å undersøke potensielle skjevheter i algoritmisk beslutningsprosessen.

Som algoritmer blitt mer vanlig i samfunnet, deres potensial til å hjelpe mennesker øker. Imidlertid, de siste rapportene har vist at menneskelige meninger kan krype inn algoritmer, og dermed i siste instans å skade folk det er ment å hjelpe.