«Suddja Dredd» — čy vmijuť tehnologiї obyraty krašče za ljudej

Читати кирилицею
«Suddja Dredd» — čy vmijuť tehnologiї obyraty krašče za ljudej

«Ljudśkyj faktor»

Svidomo čy nesvidomo ljudśki rišennja u buď-jakij sferi možuť buty neob’jektyvnymy. Inodi važlyvu roľ vidigraje častka sympatiї pid čas sudovogo zasidannja čy rozmovy z policejśkym. A očikuvanu spivbesidu na robotu možna «provalyty» čerez hvyljuvannja i nevminnja prezentuvaty svoї syľni ta slabki storony. Buvaje j navpaky — vmili manipuljatory možuť vdavaty iz sebe česnišyh, aniž vony je naspravdi.

Tomu dovoli cikavoju vygljadaje ideja zastosuvaty dlja pevnyh procesiv vidboru avtomatyzovani systemy. Vony teoretyčno majuť provodyty analiz zgidno z jedynym naborom pravyl dlja vsih. Otže, zamisť togo, ščob pokladatysja na ljudśku rozsudlyvisť, deržavni ustanovy ta pryvatni kompaniї rozpočynajuť zastosovuvaty avtomatyzovani systemy, jaki najmajuť na robotu, vyrišujuť, čy nadavaty ljudyni kredyt — ta čynjať pravosuddja.

Neščodavno nyzka doslidnykiv vyjavyla, ščo j avtomatyzovani systemy ta štučnyj intelekt — ne panaceja. Nema garantiї, ščo same z їh dopomogoju vdasťsja poklasty kraj nespravedlyvym rišennjam. Jak pyše vydannja Fivethirtyeight, zamisť togo, ščob zvesty zaangažovanisť na nuľ, algorytmy, jaki majuť namir dopomogty prognozuvaty majbutnje, možuť povtoryty ljudśki pomylky — i pidštovhuvaty do pryjnjattja neob’jektyvnyh rišeń.

Zvidky bereťsja cja dyskryminacija i jak її unyknuty

Očikujeťsja, ščo rišennja, jaki pryjmaje štučnyj intelekt, u rezuľtati buduť biľš ob’jektyvnymy, niž ljudśki. Utim, bagato čogo zaležyť vid togo, jakymy danymy «goduvaty» tehnologiju. Aby unyknuty zaangažovanosti, potribne glybynne znannja skladnyh tehničnyh procesiv ta perebigu skladnyh suspiľnyh procesiv.

Čytajte takož: Naviščo pysaty knygy pro štučnyj intelekt

Viźmemo dlja prykladu algorytm Compas, jakyj dopomagaje sprognozuvaty, čy obvynuvačeni j zločynci shyľni čynyty zločyny j u majbutńomu. Rezuľtaty cyh prognoziv dopomagajuť organam pravosuddja uhvaljuvaty ostatočnyj verdykt. Na peršyj pogljad Compas vygljadaje česnym, adže algorytm pryblyzno odnakovym čynom ocinjuje predstavnykiv biloї rasy ta afro-amerykanciv z čysla pidozrjuvanyh. Odnak vydannja ProPublica vyjavylo, ščo systema dopuskaje pomylky j ne zavždy ocinjuje odnakovo. Tak, napryklad, zgidno z prognozamy algorytmu, afro-amerykanci z čysla obvynuvačenyh maly vdviči vyšči šansy skoїty šče odyn zločyn, niž biloškiri z analogičnymy danymy. Ryzyk dlja bilyh, jaki prohodyly analiz, zazvyčaj vyjavljavsja menšym.

Odna z pryčyn, čomu tak vidbuvajeťsja, može poljagaty v tomu, ščo dani, jaki vvodjaťsja v systemu Compas, vid samogo počatku nespravedlyvi. Profesor prava Ifeoma Ajunva pojasnyla: «Jakščo vy dyvytesja na te, skiľky obvynuvačeń je u ljudyny j vvažajete cju zminnu nejtraľnoju — ce nepravyľno». Sprava u tomu, ščo z velykoju jmovirnistju organy pravosuddja z uperedžennjam stavljaťsja do ljudej z inšym koľorom škiry, a tomu їh častiše zaareštovujuť, perevirjajuť ta suvoriše karajuť. Vidpovidno, u systemi bude zbereženo biľše informaciї pro predstavnykiv afrykanśkyh čy inšyh ras, niž pro biloškiryh, čyї diї pryvernuly menše uvagy pravoohoronnyh organiv.

Čytajte takož: Monstr avtomatyzaciї: Ščo robyty, aby robot ne zabrav robotu

Čy možna stvoryty «suddju Dredda»

Novi zakony ta krašče reguljuvannja vedennja takogo rodu baz danyh možuť dopomogty u vyrišenni problemy neob’jektyvnosti tehnologičnyh rišeń. Potribno v peršu čergu zabezpečyty prozorisť avtomatyzovanyh system ta algorytmiv, jaki provodjať vidbir sered ljudej. Poky ščo jedyni, hto maje dostup do informaciї pro ci systemy — її rozrobnyky. Vynykaje nebezpeka togo, ščo tehnični pracivnyky ne zavždy rozumijuť suspiľni procesy, na jaki algorytmy vplyvatymuť. Z cijeї točky zoru, varto zalučaty šyrše kolo specialistiv — politykiv, jurystiv ta predstavnykiv galuzi, u jakij dijatyme algorytm.