Svidomo čy ni, ta zamisť togo, ščob pokladatysja lyše na ljudśke sudžennja, organizaciї vse častiše pokladajuťsja na tehnologiї u vyrišenni važlyvyh etyčnyh pytań iz sociaľnymy naslidkamy dlja žyttja ne lyše okremyh ljudej, a j cilyh sociaľnyh verstv čy etničnyh prošarkiv: čy zalučaty kogoś na robotu, čy nadavaty їm bankivśku pozyku, čy varto vyznačyty їh jak pidozrjuvanogo u zločyni, vidpravyty їh do v’jaznyci abo zviľnyty їh za umovčannjam.
Prote vse biľša kiľkisť doslidžeń ta krytyka v bik bezumovnogo vykorystannja tehnologij navodjať na dumku, ščo algorytmy ta štučnyj intelekt neobov’jazkovo je panacejeju vid stygmatyzaciї. Tehnologiї takym čynom možuť pošyrjuvaty stereotypy čy bezumovni sudžennja na pevni dyskryminovani grupy. Vidtak zamisť togo, ščoby proponuvaty obhid dlja ljudśkyh uperedžeń, instrumenty, jaki my sproektuvaly, ščoby dopomogty nam prognozuvaty majbutnje, možuť zmusyty nas povtoryty mynule za rahunok posylennja i bez togo vže stvorenyh sociaľnyh nerivnostej.
Temnyj bik «avtomatyzaciї»
U 2014 roci v dopovidi Bilyj Dim poperedyv, ščo avtomatyzovane pryjnjattja rišeń «porodžuje skladni pytannja ščodo togo, jak zabezpečyty vyjavlennja, vymirjuvannja ta vypravlennja dyskryminacijnyh efektiv, jaki vynykajuť vnaslidok avtomatyzovanyh procesiv». Protjagom mynulyh dekiľkoh rokiv vse biľša kiľkisť ekspertiv namagajeťsja vidpovisty na ci zapytannja, počynajučy dyskusiї, rozrobljajučy najkrašči praktyky ta pryncypy vidpovidaľnosti ta vyvčajučy rišennja skladnoї ta pidstupnoї problemy algorytmičnogo uperedžennja.
Čas krytyčno stavytysja do togo, ščo take dani
Nezvažajučy na te, ščo pryjnjattja rišeń z boku AIVmije maljuvaty, ne goden žartuvaty — golovne pro AI vid Google často rozgljadajeťsja jak nevid’jemna skladova maksymaľnoї ob’jektyvnosti, dani ta procesy, jaki vplyvajuť na robotu štučnogo intelektu, možuť nevydymo formuvaty podaľše vkorinennja nerivnosti u systemah, kotri na peršyj pogljad poklykani cju nerivnisť usunuty. Ščob unyknuty takogo zmiščennja, potribno rozumity jak duže skladni tehnologiї, tak i duže skladni sociaľni problemy. Napryklad, systema avtomatyčnogo skorynğu zasudženyh na predmet їhńoї shyľnosti včynjaty zločyny u majbutńomu vidpovidaje za dopomogu amerykanśkomu pravosuddju u vynesenni vyrokiv ta vstanovlennja strokiv pozbavlennja voli. Ale čerez zakladeni uperedžennja ta stereotypy suddiv ta prysjažnyh systema «pidhopyla» profajlinğ (rasovi, sociaľni ta vikovi uperedžennja pry vynesenni vyrokiv — prym.red.) — i teper vdviči častiše stavyť v kategoriju «potencijno nebezpečnyh» zasudženyh iz temnym koľorom škiry u porivnjanni iz bilymy. Takym čynom, isnujuča nerivnisť ta dyskryminacija lyše dedali biľše poglybljujeťsja — i vse menše afroamerykanciv čy gromadjan inšyh kraїn iz temnym koľorom škiry majuť šans vyjty «iz systemy», hoča by raz potrapyvšy za ğraty.
Velyki dani lyše pidsyljujuť počatkovu statystyčnu čy matematyčnu pohybku. Temnoškiryh zaareštovujuť častiše, niž bilyh, naviť koly vony včynjajuť zločyny z odnakovymy tempamy. Obšuky ta arešty stosovno temnoškiryh tež pošyreniši. «Algorytm šukaje spravžnij šablon, ale my ne znajemo, čy pravyľno vin znahodyť cej šablon, jakyj vidpovidaje zagaľnij čyseľnosti naselennja čy inšym pokaznykam,» — zauvažuje Sureš Venkatasubramanjan, vykladač vyščoї osvity Universytetu Juty, jakyj vyvčaje spravedlyvisť algorytmiv u vynesenni vyrokiv čy usunenni ryzykiv profajlinğu.
«Častyna problemy poljagaje v tomu, ščonaukovci danyh, jaki budujuť modeli ta pracjujuť z danymy, ne duže dobre kontaktujuť iz zahysnykamy cyviľnyh prav,» — konstatuje Aron Rike z Upturn, tehnologičnoї konsaltyngovoї firmy, jaka pracjuje z cyviľnymy pravamy ta zahystom spožyvačiv. — «Vidtak mene nepokojať ne rasyzm z boku kompanij, a vidsutnisť krytyčnogo mirkuvannja u pytannjah togo, jak džerela danyh možuť posylyty vže pošyrene uperedžennja».
Rozuminnja togo, ščo nam potribno vypravyty
Isnujuť analogični pobojuvannja ščodo algorytmičnogo uperedžennja v tehnologiї rozpiznavannja oblyččja. Cja tehnologija vže maje značno šyršyj vplyv, niž biľšisť ljudej zdatni usvidomyty. Ponad 117 mln povnolitnih amerykanciv vnesly svoї zobražennja v bazu danyh pro rozpiznavannja vid pravoohoronnyh organiv. I často ce stavalosja bez їhńoї zgody abo znannja pro ce. Tehnologija skanuvannja oblyč zalyšajeťsja v osnovnomu nereguľovanoju na zakonodavčomu rivni.
U 2012 roci bulo vstanovleno, ščo algorytmy rozpiznavannja oblyččja buly menš točnymy pry vyznačenni oblyč čornoškiryh ljudej razom z žinkamy ta doroslymy vikom do 30 rokiv. Ključovym vysnovkom doslidžennja 2016 roku Džordžtaunśkyj centr konfidencijnosti ta tehnologij je tverdžennja, ščo «rozpiznavannja oblyč servisamy policiї bude neproporcijno vplyvaty na prava ta riveń prytjagnennja do vidpovidaľnosti afroamerykanciv». U tomu ž doslidženni takož predstavleni modeli polityky ta zakonodavstva, jaki možuť buty vykorystani dlja reguljuvannja tehnologij jak na federaľnomu rivni, tak i v kožnomu štati SŠA.
Dejaki krytyky vvažajuť, ščo vyrišennja cyh problem poljagaje v tomu, ščoby prosto dodaty biľše riznomanitnosti u naborah oblyč ta danyh dlja navčannja system štučnogo intelektu. Prote zavdannja je nabagto skladnišym, perekonuje Elke Oberg, menedžer z marketyngu kompaniї Cognitec, kompanija, čyї algorytmy rozpiznavannja oblyččja buly vykorystani zakonodavcjamy ta sylovymy strukturamy u Kaliforniї, Merilendi, Mičigani ta Pensiľvaniї.
Džonatan Frank, kolyšnij tehnolog-tehnolog Centru jurystiv Džordžtaunśkogo universytetu, jakyj eksperymentuvav z algorytmamy rozpiznavannja oblyččja, navodyť cilyj spysok ryzykiv, jaki možuť niveljuvaty efektyvnisť system rozpiznavannja oblyč zločynciv ta porušnykiv. Za jogo slovamy, ne jdeťsja prosto pro potrebu «zgoduvaty» systemi pobiľše naboriv iz oblyččjamy afroamerykanciv. Vin vvažaje, ščo podaľše vyvčennja cijeї problemy maje vyrišaľne značennja dlja pošuku rišeń, i ščo doslidžennja vže na roky vidstaje vid tempiv, jakymy počaly vykorystovuvaty vizuaľne rozpiznavannja policija, mytnycja ta armija.
Na časi — dolučennja vlady do procesu reguljuvannja
Novi zakony ta krašče deržavne reguljuvannja možuť staty potužnym instrumentom dlja reformuvannja togo, jak kompaniї ta deržavni ustanovy vykorystovujuť štučnyj intelekt ta intelektuaľni systemy dlja pryjnjattja rišeń.
2016 roku Jevropejśkyj Sojuz pryjnjav zakon, ščo nazyvajeťsja Zagaľnym reglamentom zahystu danyh. Vin vključaje čyslenni obmežennja ščodo avtomatyčnoї obrobky personaľnyh danyh, i vymagaje prozorosti ščodo «logiky, zadijanoї v cyh systemah». Podibne federaľne zakonodavstvo ne peredbačajeťsja poky u SŠA. Federaľna komisija z pytań konsuľtuvannja ta Kongres namagajuťsja abo pryzupynyty, abo skasuvaty federaľnu zahyst danyh pro konfidencijnisť danyh. Pry ćomu dejaki štaty, vključajučy Illinojs i Tehas, peredaly svoї vlasni zakonoproekty pro zahyst biometryčnyh vymog ščodo konfidencijnostiosobystyh danyh, jaki často vykorystovujuťsja algorytmičnymy instrumentamy pryjnjattja rišeń. Prote čynni federaľni zakony zahyščajuť vid pevnyh vydiv dyskryminaciї, osoblyvo v takyh sferah, jak najmannja na robotu, nadannja žytla ta pozyk u bankah. Pry ćomu vony ne buly onovleni, ščoby vyrišyty problemu togo, jak novi tehnologiї peretynajuťsja zi starymy uperedžennjamy. Urjadam takyh kraїn, jak SŠA, dovedeťsja vtrutytysja u podolannja cyh etyčnyh ta tehnologičnyh rozbižnostej — i vyznačyty «pravyla gry» ostatočno ta bezumovno.
Prozorisť ta pidzvitnisť
Uskladnennja buď-jakogo poštovhu do biľšoї prozorosti poljagaje u pidvyščenni rivnja system mašynnogo navčannja, jaki vse častiše zalučajuťsja do pryjnjattja rišeń ščodo prjomu ljudej na robotu, finansovogo kredytuvannja ta policejśkoї dijaľnosti. Inodi vony nazyvajuťsja «čornymy jaščykamy», Pryčyna — ci modeli prognozuvannja nastiľky skladni, ščo naviť ljudy, jaki їh stvorjujuť, ne zavždy možuť skazaty, jak stvorena systema pryhodyť do svoїh vysnovkiv.
«Čymalo cyh algorytmičnyh system pokladajuťsja na nejronni mereži, jaki naspravdi ne je prozorymy,» — zvertaje uvagu profesor Aľvaro Bedojja, vykonavčyj dyrektor Centru konfidencijnosti ta tehnologij v Džordžtauni. — «Vy ne možete v takij systemi «podyvytyś pid kapot», bo tam ničogo nemožlyvo pobačyty i zrozumity». U cyh vypadkah važlyvo z’jasuvaty, čy vplyvajuť rezuľtaty systemy na rizni grupy po-riznomu.
Ščo označaje «spravedlyvisť»?
Koly my vyjdemo za meži tehničnyh dyskusij pro te, jak vyrišyty algorytmične uperedžennja, je šče odna skladna dyskusija. Jak my navčajemo algorytmy ocinky točnosti ta spravedlyvosti? I ščo my vyznačajemo pid slovamy «točnisť» ta «spravedlyvisť»?
AURA — algorytmičnyj instrument, jakyj vykorystovujeťsja v Los-Andželesi, ščoby dopomogty identyfikuvaty žertv žorstokogo povodžennja z diťmy, takož stykajeťsja z takoju skladnoju dylemoju. Koly dokazy nezrozumili, jak avtomatyzovana systema povynna zvažyty na riveń potencijnoї škody vid sytuaciї, koly dytyna zalyšajeťsja poza uvagoju baťkiv, jakščo reguljarno ti ne porušujuť prav dytyny? Advokaty pidkresljujuť, ščo peršym krokom je vymagaty vid ustanov, ščo vykorystovujuť ci instrumenty, perejty do svidomogo vyboru moraľnyh rišeń, jaki vbudovani v їhni systemy, a ne peredaty vidpovidaľnisť za vse štučnomu intelektovi ta tehnologijam i big data. Dovedeťsja vyrišyty dylemu miž morallju, etykoju, sub’jektyvizom ta danymy, jakyh staje vse biľše ščodo kožnogo iz nas. Prote maje mynuty ščonajmenše 5 rokiv, poky cja systema zapracjuje naležnym čynom, perekonani doslidnyky.