Predsodki AI spreminjajo ameriške živote. Kaj lahko storimo glede tega?

Predsodki AI spreminjajo ameriške živote. Kaj lahko storimo glede tega?
Predsodki AI spreminjajo ameriške živote. Kaj lahko storimo glede tega?

Video: J. Krishnamurti - Brockwood Park 1980 - 9. Pogovor z Davidom Bohmom - Senilnost in možganske celice 2024, Julij

Video: J. Krishnamurti - Brockwood Park 1980 - 9. Pogovor z Davidom Bohmom - Senilnost in možganske celice 2024, Julij
Anonim

Predstavljajte si svet, v katerem umetno inteligentni algoritmi sprejemajo odločitve, ki vplivajo na vaše vsakdanje življenje. Zdaj pa si predstavljajte, da so predsodki.

To je svet, v katerem že živimo, pravi podatkovistka, doktorica Harvard in avtorica Cathy O'Neil. (Preberite prvi del naše razprave z dr. O'Neilom tukaj). Seznanili smo se z nominirancem za državno knjižno nagrado in ugotovili, kaj lahko storimo glede predsodkov v dobi velikih podatkov. CT: Ali je AI predsodk?

CO: Vsak algoritem, ki ni bil izrecno pravičen, je treba šteti, da je to predsodkovno. Kajti kot ljudje smo predsodki. Če to priznamo in ustvarjamo te algoritme s svojimi vrednostmi in svojimi podatki, potem ne bi smeli domnevati, da se je nekaj magično zgodilo, da bi bile stvari poštene. Tam ni čarovnije.

CT: Kje algoritmi dobijo svoje podatke?

CO: Odvisno od algoritma. Včasih so družbeni mediji za stvari, kot so ciljanje na politične trge ali oglaševanje ali profitne šole in plenilsko posojanje - vendar veliko podatkov ni zbranih na družbenih medijih ali celo na spletu.

Zbiranje podatkov je vedno bolj povezano z resničnim življenjem, kot je na primer zaposlitev, delo na delovnem mestu, odhod na fakulteto ali odhod v zapor. Te stvari niso stvari, ki jih lahko zaobidemo z zakoni o zasebnosti. To so vprašanja moči, kjer ljudje, na katere so usmerjeni algoritmi, nimajo moči, ljudje, ki zbirajo informacije, gradijo in uporabljajo algoritme, pa imajo vso moč. Če nimate nobenih pravic do zasebnosti, če ste kazenski obtoženec, nimate pravic do zasebnosti na svojem delovnem mestu in nimate prav veliko pravic do zasebnosti, če se prijavljate za službo, ker če ne boste odgovorili na vprašanja, ki vam jih je postavil vaš bodoči delodajalec, dela verjetno ne boste dobili.

Manj bi morali razmišljati o zasebnosti in več o moči, ko gre za algoritme in škodo [ki jo lahko povzročijo].

CT: Kaj lahko storimo, da bo boljše?

CO: Lahko priznamo, da ti algoritmi niso sami po sebi popolni, in jih preizkusimo na njihove pomanjkljivosti. Morali bi imeti stalne revizije in nadzornike - zlasti za pomembne odločitve, kot so najem, kazensko obsodbo ali presojanje ljudi na njihovih delovnih mestih -, da se prepričamo, da algoritmi delujejo tako, kot jih želimo, ne na kakšen diskriminatorni ali nepošten način.

Image

Ailsa Johnson / © Kulturno potovanje

CT: Kateri so najboljši in najslabši scenariji za prihodnost, ki temelji na podatkih?

CO: Najslabši scenarij je tisto, kar imamo zdaj - da vsi slepo pričakujemo, da bodo algoritmi popolni, čeprav bi morali do zdaj bolje vedeti. In širimo pretekle krivice in nepoštenosti. In še naprej ignoriramo pomanjkljivosti teh algoritmov.

Najboljši primer je, da priznamo, da ti algoritmi niso sami po sebi boljši od ljudi. Odločimo se, kaj si želimo kot ljudje, čemu težimo. Kako želimo videti v družbi in se jih učimo teh vrednot. Če to storimo uspešno, bi bili ti algoritmi lahko boljši od ljudi.

CT: Kakšno vlogo lahko igrajo vsakdanje osebe?

CO: Najpomembnejša vloga posameznika je, da implicitno ne zaupate nobenemu algoritmu. Imeti ogromno skepse. Če vas ocenjujejo po algoritmu, vprašajte "Kako vem, da je to pošteno, kako vem, da je koristno, kako vem, da je točen?" Kakšna je stopnja napake? Za koga ta algoritem ne uspe? Ali ne uspe ženskam ali manjšinam? " Zastavite takšno vprašanje.

Druga stvar je poleg skepticizma ta, da če mislite, da je algoritem do vas ali drugih ljudi nepošten, se organizirati s temi drugimi ljudmi. Nedavni primer so učitelji. Statistični modeli o učiteljih z dodano vrednostjo so grozni, skoraj naključni generatorji. Vendar so jih uporabili pri odločanju, kateri učitelji naj dobijo mandat in kakšne učitelje odpuščajo po vsej ZDA.

Moj predlog je, da se združijo in si prizadevajo za nazaj. In to se je ponekod zgodilo. Presenetljivo pa je, kako malo upora je bilo zaradi matematične narave točkovalnega sistema.

CT: Kako ste prišli do "velikih podatkov"?

CO: Delal sem na Wall Streetu in bil priča finančni krizi od znotraj. Grozil me je način uporabe matematike za izkoriščanje ljudi ali za norčevanje ljudi. Videl sem vrsto škode, ki bi lahko nastala zaradi matematičnih laži, čemur pravim "orožanje matematike".

Odločil sem se, da se bom oddaljil, zato sem se pridružil Occupy Wall Streetu in začel delati kot podatkovni znanstvenik. Počasi sem spoznal, da opažamo pomanjkljiv in zavajajoč nagon okoli zavajajočih podatkovnih algoritmov, ki se dogajajo tudi zunaj Wall Streeta, in da bo to povzročilo veliko škode. Razlika je bila v tem, da čeprav so ljudje po vsem svetu opazili finančno krizo, nisem mislil, da bodo ljudje opazili okvare teh velikih podatkovnih algoritmov, ker se običajno dogajajo na individualni ravni.

Preberite prvi del naše razprave z dr. O'Neilom tukaj. Knjiga dr. Cathy O'Neil, The Weapons of Math Destruction: How Big Data povečuje neenakost in ogroža demokracijo, je danes na voljo.

Priljubljeno za 24 ur