Kako se spreminja vsakdanje življenje velikih podatkov po vsej Ameriki?

Kako se spreminja vsakdanje življenje velikih podatkov po vsej Ameriki?
Kako se spreminja vsakdanje življenje velikih podatkov po vsej Ameriki?

Video: Pred koncem leta 2020 se zgodijo tri velike stvari – KAJ STORITI? | Moksha Energy Flow 2024, Julij

Video: Pred koncem leta 2020 se zgodijo tri velike stvari – KAJ STORITI? | Moksha Energy Flow 2024, Julij
Anonim

Ideja o „velikih podatkih“ je postala vseprisotna, kaj vse je in kako se spreminja način, kako živimo? Da bi to izvedeli, smo sedeli pri znanstveniku s podatki, doktorandu s Harvarda in nominiranki za nacionalno knjižno nagrado Cathy O'Neil.

CT: Začnimo z osnovami - kaj natančno pomenijo "veliki podatki"?

CO: Veliki podatki so nov pristop k napovedovanju stvari. Natančneje, "veliki podatki" je uporaba naključno zbranih podatkov - na primer, kako iščete po svojem brskalniku ali kaj počnete na Facebooku -, da bi sklepali o vas, na primer o tem, kaj boste kupili ali kakšne so vaše politične pripadnosti. To je posreden način, kako ugotoviti ljudi. Na primer, kamera, ki nas pregleduje, ne vpraša "Kaj počneš?" - samo se vidi, kaj počnemo.

CT: In kaj je algoritem?

CO: Algoritmi so izračuni, ki [razlagajo] podatke, zbrane o vas, da bi ustvarili napoved. Mislite na to kot na matematično enačbo, ki poskuša odgovoriti na vprašanje, ki je uokvirjeno kot napoved, na primer: "Ali bo ta oseba kaj kupila?" ali "Ali bo ta oseba glasovala za nekoga?"

CT: Zakaj zdaj slišim toliko o tem?

CO: Pred „velikimi podatki“ bi statistiki delali drage stvari, kot so anketiranje ljudi, da bi ugotovili prihodnost. Na primer, postavljati ljudem neposredna vprašanja, kot so: "Za koga boš glasoval?" Zdaj se vedno bolj zanašamo na "izčrpavanje podatkov", ki mu pravim podatke, ki se zbirajo o vas, da bi sklepali o vas.

Pred „velikimi podatki“ so podjetja imela le divje ugibanje. Zdaj imamo boljše od divjih ugibanj. Kar preseneča, je, da je večina algoritmov velikih podatkov divje netočnih in ni razloga, da bi mislili, da imajo prav. So pa boljši od divjih ugibanj. In zato so se veliki podatki odpravili, kot jih imajo.

CT: Če so netočni, kaj potem odražajo?

CO: Napačne zbirke podatkov, s katerimi jih hranimo. Algoritmi ne vedo ničesar razen tega, kar jim rečemo. Ko imamo torej neenakomerne podatke in jih hranimo algoritmu ali pristranskim podatkom, bomo mislili, da je to resničnost.

Image

Ailsa Johnson / © Kulturno potovanje

CT: Kaj je primer tega v resnici?

CO: Primer je lahko, da so v ZDA črnopolti ljudje petkrat pogosteje aretirani zaradi kajenja kot belci. To ni zato, ker črnci pogosteje kadijo lonec - obe skupini kadijo lonec z isto hitrostjo. Črnci so zaradi tega veliko pogosteje aretirani. Če to predate algoritmu, ki ga počnemo, bomo pravilno sklepali, da bodo črnci v prihodnosti veliko bolj prijeti zaradi kajenja. In potem bodo temnopolti ljudje dobili višje ocene tveganja za kriminal, kar vpliva na kazensko kazen.

Drug primer je miselni eksperiment. Uporabil bom Fox News, ker ima Fox News pred kratkim izbruhe, povezane z notranjo kulturo seksizma. Poskus je "Kaj bi se zgodilo, če bi Fox News uporabil lastne podatke za izdelavo algoritma strojnega učenja za zaposlovanje ljudi v prihodnosti?"

Recimo, da na Fox News iščemo ljudi, ki so bili uspešni. Odvisno je, kako bi opredelili uspeh, običajno pa bi pogledali ljudi, ki dobivajo povišice, napredovanja ali ostanejo dlje časa. Po katerem koli od teh ukrepov bi podatki odražali, da ženskam na Fox News ne uspejo. Če bi ga uporabili kot algoritme za najem, bi to težavo razširil. Videla bi v skupino prosilcev in pisalo bi: "Nočem zaposliti nobene ženske, ker tu niso uspešne. Niso dobri najemniki. " In to ne mora biti le Fox News - vsaka korporativna kultura ima pristranskost. Ko napajate podatke algoritma, potem algoritem pristranskosti to širi. Še naprej krepi pristranskost, ki že obstaja v družbi.

CT: Ali so pristranskosti namenoma?

CO: Mislim, da znanstveniki s podatki ne poskušajo oblikovati seksističnih ali rasističnih algoritmov. Toda algoritmi strojnega učenja so izjemno dobri v tem, da poberejo razmeroma niansirane vzorce in jih nato razmnožijo. To ni nekaj, kar znanstveniki namerno počnejo, vendar je kljub temu pristransko.

CT: Kakšno vlogo v našem vsakdanjem življenju igrajo netočni algoritmi?

CO: Uporabljajo jih pri najrazličnejših odločitvah za življenje ljudi - vse od sprejemanja na fakultete do zaposlitve.

Obstajajo algoritmi, ki odločajo o tem, kako bo policija policijska soseska, in algoritmi, ki odločajo, kako bodo sodniki kaznovali obtožene. Obstajajo algoritmi, ki določajo, koliko boste plačali za zavarovanje ali kakšno APR [obrestno mero] dobite na svoji kreditni kartici. Obstajajo algoritmi, ki določajo, kako delujete pri svojem delu, ki se uporabljajo za določanje zvišanja plač. Obstajajo algoritmi na vsakem koraku, od rojstva do smrti.

CT: Torej kje nas to pušča?

CO: Skočili smo v dobo velikih podatkov in algoritme vrgli na vsako težavo, ki jo imamo, ob predpostavki, da morajo biti ti algoritmi pravičnejši od ljudi - ampak dejansko so enako krivični kot ljudje. Moramo narediti boljše.

Kliknite tukaj, da preberete drugi del našega intervjuja z dr. O'Neilom. Njena knjiga, The Weapons of Math Destruction: How Big Data povečuje neenakost in grozi demokraciji, je zdaj na voljo.

Priljubljeno za 24 ur