fbpx
Aa Aa Aa
Aa Aa Aa
Pročytaty vgolos
Zupynyty čytannja

«Suddja Dredd» — čy vmijuť tehnologiї obyraty krašče za ljudej

«Суддя Дредд» — чи вміють технології обирати краще за людей
Ljudyna na robočomu misci zavždy zalyšajeťsja žyvoju istotoju. Často її rišennja zaležať vid nastroju, sympatiї čy neobiznanosti. Ce može staty pryčynoju nespravedlyvogo rišennja, koly jdeťsja pro dolju obvynuvačenogo u sudi čy spivbesidu pro pryjnjattja na robotu. Na dopomogu pryhodjať avtomatyzovani systemy, — prote j vony ne zaždy ob'jektyvni. #Na_časi diznatysja, čomu ce vidbuvajeťsja
Людина на робочому місці завжди залишається живою істотою. Часто її рішення залежать від настрою, симпатії чи необізнаності. Це може стати причиною несправедливого рішення, коли йдеться про долю обвинуваченого у суді чи співбесіду про прийняття на роботу. На допомогу приходять автоматизовані системи, — проте й вони не зажди об'єктивні. #На_часі дізнатися, чому це відбувається
Читати кирилицею

Speciaľni možlyvosti

Pročytaty vgolos
Zupynyty čytannja
Kontrastna versija
  Людський фактор. Свідомо чи несвідомо людські рішення у будь-якій сфері можуть бути необєктивними. Іноді важливу роль відіграє частка симпатії під час судового засідання чи розмови з поліцейським. А очікувану співбесіду на роботу можна провалити через хвилювання і невміння презентувати свої сильні та слабкі сторони. Буває й навпаки — вмілі маніпулятори можуть вдавати із себе чесніших, аніж вони є насправді. Тому доволі цікавою виглядає ідея застосувати для певних процесів відбору автоматизовані системи. Вони теоретично мають проводити аналіз згідно з єдиним набором правил для всіх. Отже, замість того, щоб покладатися на людську розсудливість, державні установи та приватні компанії розпочинають застосовувати автоматизовані системи, які наймають на роботу, вирішують, чи надавати людині кредит — та чинять правосуддя. Нещодавно низка дослідників виявила, що й автоматизовані системи та штучний інтелект — не панацея. Нема гарантії, що саме з їх допомогою вдасться покласти край несправедливим рішенням. Як пише видання Fivethirtyeight, замість того, щоб звести заангажованість на нуль, алгоритми, які мають намір допомогти прогнозувати майбутнє, можуть повторити людські помилки — і підштовхувати до прийняття необєктивних рішень. Звідки береться ця дискримінація і як її уникнути. Очікується, що рішення, які приймає штучний інтелект, у результаті будуть більш обєктивними, ніж людські. Утім, багато чого залежить від того, якими даними годувати технологію. Аби уникнути заангажованості, потрібне глибинне знання складних технічних процесів та перебігу складних суспільних процесів. Читатйте також: Навіщо писати книги про штучний інтелект. Візьмемо для прикладу алгоритм Compas, який допомагає спрогнозувати, чи обвинувачені й злочинці схильні чинити злочини й у майбутньому. Результати цих прогнозів допомагають органам правосуддя ухвалювати остаточний вердикт. На перший погляд Compas виглядає чесним, адже алгоритм приблизно однаковим чином оцінює представників білої раси та афро-американців з числа підозрюваних. Однак видання ProPublica виявило, що система допускає помилки й не завжди оцінює однаково. Так, наприклад, згідно з прогнозами алгоритму, афро-американці з числа обвинувачених мали вдвічі вищі шанси скоїти ще один злочин, ніж білошкірі з аналогічними даними. Ризик для білих, які проходили аналіз, зазвичай виявлявся меншим. Одна з причин, чому так відбувається, може полягати в тому, що дані, які вводяться в систему Compas, від самого початку несправедливі. Професор права Іфеома Аюнва пояснила: Якщо ви дивитеся на те, скільки обвинувачень є у людини й вважаєте цю змінну нейтральною — це неправильно. Справа у тому, що з великою ймовірністю органи правосуддя з упередженням ставляться до людей з іншим кольором шкіри, а тому їх частіше заарештовують, перевіряють та суворіше карають. Відповідно, у системі буде збережено більше інформації про представників африканських чи інших рас, ніж про білошкірих, чиї дії привернули менше уваги правоохоронних органів. Читатйте також: Монстр автоматизації: Що робити, аби робот не забрав роботу. Чи можна створити суддю Дредда. Нові закони та краще регулювання ведення такого роду баз даних можуть допомогти у вирішенні проблеми необєктивності технологічних рішень. Потрібно в першу чергу забезпечити прозорість автоматизованих систем та алгоритмів, які проводять відбір серед людей. Поки що єдині, хто має доступ до інформації про ці системи — її розробники. Виникає небезпека того, що технічні працівники не завжди розуміють суспільні процеси, на які алгоритми впливатимуть. З цієї точки зору, варто залучати ширше коло спеціалістів — політиків, юристів та представників галузі, у якій діятиме алгоритм.
Реклама 👇 Замовити

«Ljudśkyj faktor»

Svidomo čy nesvidomo ljudśki rišennja u buď-jakij sferi možuť buty neob’jektyvnymy. Inodi važlyvu roľ vidigraje častka sympatiї pid čas sudovogo zasidannja čy rozmovy z policejśkym. A očikuvanu spivbesidu na robotu možna «provalyty» čerez hvyljuvannja i nevminnja prezentuvaty svoї syľni ta slabki storony. Buvaje j navpaky — vmili manipuljatory možuť vdavaty iz sebe česnišyh, aniž vony je naspravdi.

Tomu dovoli cikavoju vygljadaje ideja zastosuvaty dlja pevnyh procesiv vidboru avtomatyzovani systemy. Vony teoretyčno majuť provodyty analiz zgidno z jedynym naborom pravyl dlja vsih. Otže, zamisť togo, ščob pokladatysja na ljudśku rozsudlyvisť, deržavni ustanovy ta pryvatni kompaniї rozpočynajuť zastosovuvaty avtomatyzovani systemy, jaki najmajuť na robotu, vyrišujuť, čy nadavaty ljudyni kredyt — ta čynjať pravosuddja.

Neščodavno nyzka doslidnykiv vyjavyla, ščo j avtomatyzovani systemy ta štučnyj intelekt — ne panaceja. Nema garantiї, ščo same z їh dopomogoju vdasťsja poklasty kraj nespravedlyvym rišennjam. Jak pyše vydannja Fivethirtyeight, zamisť togo, ščob zvesty zaangažovanisť na nuľ, algorytmy, jaki majuť namir dopomogty prognozuvaty majbutnje, možuť povtoryty ljudśki pomylky — i pidštovhuvaty do pryjnjattja neob’jektyvnyh rišeń.

Zvidky bereťsja cja dyskryminacija i jak її unyknuty

Očikujeťsja, ščo rišennja, jaki pryjmaje štučnyj intelekt, u rezuľtati buduť biľš ob’jektyvnymy, niž ljudśki. Utim, bagato čogo zaležyť vid togo, jakymy danymy «goduvaty» tehnologiju. Aby unyknuty zaangažovanosti, potribne glybynne znannja skladnyh tehničnyh procesiv ta perebigu skladnyh suspiľnyh procesiv.

Čytajte takož: Naviščo pysaty knygy pro štučnyj intelekt

Viźmemo dlja prykladu algorytm Compas, jakyj dopomagaje sprognozuvaty, čy obvynuvačeni j zločynci shyľni čynyty zločyny j u majbutńomu. Rezuľtaty cyh prognoziv dopomagajuť organam pravosuddja uhvaljuvaty ostatočnyj verdykt. Na peršyj pogljad Compas vygljadaje česnym, adže algorytm pryblyzno odnakovym čynom ocinjuje predstavnykiv biloї rasy ta afro-amerykanciv z čysla pidozrjuvanyh. Odnak vydannja ProPublica vyjavylo, ščo systema dopuskaje pomylky j ne zavždy ocinjuje odnakovo. Tak, napryklad, zgidno z prognozamy algorytmu, afro-amerykanci z čysla obvynuvačenyh maly vdviči vyšči šansy skoїty šče odyn zločyn, niž biloškiri z analogičnymy danymy. Ryzyk dlja bilyh, jaki prohodyly analiz, zazvyčaj vyjavljavsja menšym.

Odna z pryčyn, čomu tak vidbuvajeťsja, može poljagaty v tomu, ščo dani, jaki vvodjaťsja v systemu Compas, vid samogo počatku nespravedlyvi. Profesor prava Ifeoma Ajunva pojasnyla: «Jakščo vy dyvytesja na te, skiľky obvynuvačeń je u ljudyny j vvažajete cju zminnu nejtraľnoju — ce nepravyľno». Sprava u tomu, ščo z velykoju jmovirnistju organy pravosuddja z uperedžennjam stavljaťsja do ljudej z inšym koľorom škiry, a tomu їh častiše zaareštovujuť, perevirjajuť ta suvoriše karajuť. Vidpovidno, u systemi bude zbereženo biľše informaciї pro predstavnykiv afrykanśkyh čy inšyh ras, niž pro biloškiryh, čyї diї pryvernuly menše uvagy pravoohoronnyh organiv.

Čytajte takož: Monstr avtomatyzaciї: Ščo robyty, aby robot ne zabrav robotu

Čy možna stvoryty «suddju Dredda»

Novi zakony ta krašče reguljuvannja vedennja takogo rodu baz danyh možuť dopomogty u vyrišenni problemy neob’jektyvnosti tehnologičnyh rišeń. Potribno v peršu čergu zabezpečyty prozorisť avtomatyzovanyh system ta algorytmiv, jaki provodjať vidbir sered ljudej. Poky ščo jedyni, hto maje dostup do informaciї pro ci systemy — її rozrobnyky. Vynykaje nebezpeka togo, ščo tehnični pracivnyky ne zavždy rozumijuť suspiľni procesy, na jaki algorytmy vplyvatymuť. Z cijeї točky zoru, varto zalučaty šyrše kolo specialistiv — politykiv, jurystiv ta predstavnykiv galuzi, u jakij dijatyme algorytm.

Jakščo vy znajšly pomylku, buď laska, vydiliť fragment tekstu ta natysniť Ctrl Enter.

Dodaty komentar

Takyj e-mail vže zarejestrovano. Skorystujtesja Formoju vhodu abo vvediť inšyj.

Vy vkazaly nekorektni login abo paroľ

Vybačte, dlja komentuvannja neobhidno uvijty.
Šče
Vy čytajete sajt ukraїnśkoju latynkoju. Podrobyci v Manifesti
Hello. Add your message here.

Povidomyty pro pomylku

Tekst, jakyj bude nadislano našym redaktoram: