Aa Aa Aa
Aa Aa Aa
Прочитати вголос
Зупинити читання

«Суддя Дредд» — чи вміють технології обирати краще за людей

«Suddja Dredd» — čy vmijuť tehnologiї obyraty krašče za ljudej

Людина на робочому місці завжди залишається живою істотою. Часто її рішення залежать від настрою, симпатії чи необізнаності. Це може стати причиною несправедливого рішення, коли йдеться про долю обвинуваченого у суді чи співбесіду про прийняття на роботу. На допомогу приходять автоматизовані системи, — проте й вони не зажди об'єктивні. #На_часі дізнатися, чому це відбувається
Ljudyna na robočomu misci zavždy zalyšajeťsja žyvoju istotoju. Často її rišennja zaležať vid nastroju, sympatiї čy neobiznanosti. Ce može staty pryčynoju nespravedlyvogo rišennja, koly jdeťsja pro dolju obvynuvačenogo u sudi čy spivbesidu pro pryjnjattja na robotu. Na dopomogu pryhodjať avtomatyzovani systemy, — prote j vony ne zaždy ob'jektyvni. #Na_časi diznatysja, čomu ce vidbuvajeťsja
Čytaty latynkoju

Спеціальні можливості

Прочитати вголос
Зупинити читання
Контрастна версія
  «Людський фактор» Свідомо чи несвідомо людські рішення у будь-якій сфері можуть бути необєктивними. Іноді важливу роль відіграє частка симпатії під час судового засідання чи розмови з поліцейським. А очікувану співбесіду на роботу можна «провалити» через хвилювання і невміння презентувати свої сильні та слабкі сторони. Буває й навпаки — вмілі маніпулятори можуть вдавати із себе чесніших, аніж вони є насправді. Тому доволі цікавою виглядає ідея застосувати для певних процесів відбору автоматизовані системи. Вони теоретично мають проводити аналіз згідно з єдиним набором правил для всіх. Отже, замість того, щоб покладатися на людську розсудливість, державні установи та приватні компанії розпочинають застосовувати автоматизовані системи, які наймають на роботу, вирішують, чи надавати людині кредит — та чинять правосуддя. Нещодавно низка дослідників виявила, що й автоматизовані системи та штучний інтелект — не панацея. Нема гарантії, що саме з їх допомогою вдасться покласти край несправедливим рішенням. Як пише видання Fivethirtyeight, замість того, щоб звести заангажованість на нуль, алгоритми, які мають намір допомогти прогнозувати майбутнє, можуть повторити людські помилки — і підштовхувати до прийняття необєктивних рішень. Звідки береться ця дискримінація і як її уникнути Очікується, що рішення, які приймає штучний інтелект, у результаті будуть більш обєктивними, ніж людські. Утім, багато чого залежить від того, якими даними «годувати» технологію. Аби уникнути заангажованості, потрібне глибинне знання складних технічних процесів та перебігу складних суспільних процесів. Візьмемо для прикладу алгоритм Compas, який допомагає спрогнозувати, чи обвинувачені й злочинці схильні чинити злочини й у майбутньому. Результати цих прогнозів допомагають органам правосуддя ухвалювати остаточний вердикт. На перший погляд Compas виглядає чесним, адже алгоритм приблизно однаковим чином оцінює представників білої раси та афро-американців з числа підозрюваних. Однак видання ProPublica виявило, що система допускає помилки й не завжди оцінює однаково. Так, наприклад, згідно з прогнозами алгоритму, афро-американці з числа обвинувачених мали вдвічі вищі шанси скоїти ще один злочин, ніж білошкірі з аналогічними даними. Ризик для білих, які проходили аналіз, зазвичай виявлявся меншим. Одна з причин, чому так відбувається, може полягати в тому, що дані, які вводяться в систему Compas, від самого початку несправедливі. Професор права Іфеома Аюнва пояснила: «Якщо ви дивитеся на те, скільки обвинувачень є у людини й вважаєте цю змінну нейтральною — це неправильно». Справа у тому, що з великою ймовірністю органи правосуддя з упередженням ставляться до людей з іншим кольором шкіри, а тому їх частіше заарештовують, перевіряють та суворіше карають. Відповідно, у системі буде збережено більше інформації про представників африканських чи інших рас, ніж про білошкірих, чиї дії привернули менше уваги правоохоронних органів. Чи можна створити «суддю Дредда» Нові закони та краще регулювання ведення такого роду баз даних можуть допомогти у вирішенні проблеми необєктивності технологічних рішень. Потрібно в першу чергу забезпечити прозорість автоматизованих систем та алгоритмів, які проводять відбір серед людей. Поки що єдині, хто має доступ до інформації про ці системи — її розробники. Виникає небезпека того, що технічні працівники не завжди розуміють суспільні процеси, на які алгоритми впливатимуть. З цієї точки зору, варто залучати ширше коло спеціалістів — політиків, юристів та представників галузі, у якій діятиме алгоритм.

«Людський фактор»

Свідомо чи несвідомо людські рішення у будь-якій сфері можуть бути необ’єктивними. Іноді важливу роль відіграє частка симпатії під час судового засідання чи розмови з поліцейським. А очікувану співбесіду на роботу можна «провалити» через хвилювання і невміння презентувати свої сильні та слабкі сторони. Буває й навпаки — вмілі маніпулятори можуть вдавати із себе чесніших, аніж вони є насправді.

Тому доволі цікавою виглядає ідея застосувати для певних процесів відбору автоматизовані системи. Вони теоретично мають проводити аналіз згідно з єдиним набором правил для всіх. Отже, замість того, щоб покладатися на людську розсудливість, державні установи та приватні компанії розпочинають застосовувати автоматизовані системи, які наймають на роботу, вирішують, чи надавати людині кредит — та чинять правосуддя.

Нещодавно низка дослідників виявила, що й автоматизовані системи та штучний інтелект — не панацея. Нема гарантії, що саме з їх допомогою вдасться покласти край несправедливим рішенням. Як пише видання Fivethirtyeight, замість того, щоб звести заангажованість на нуль, алгоритми, які мають намір допомогти прогнозувати майбутнє, можуть повторити людські помилки — і підштовхувати до прийняття необ’єктивних рішень.

Звідки береться ця дискримінація і як її уникнути

Очікується, що рішення, які приймає штучний інтелект, у результаті будуть більш об’єктивними, ніж людські. Утім, багато чого залежить від того, якими даними «годувати» технологію. Аби уникнути заангажованості, потрібне глибинне знання складних технічних процесів та перебігу складних суспільних процесів.

Читайте також: Навіщо писати книги про штучний інтелект

Візьмемо для прикладу алгоритм Compas, який допомагає спрогнозувати, чи обвинувачені й злочинці схильні чинити злочини й у майбутньому. Результати цих прогнозів допомагають органам правосуддя ухвалювати остаточний вердикт. На перший погляд Compas виглядає чесним, адже алгоритм приблизно однаковим чином оцінює представників білої раси та афро-американців з числа підозрюваних. Однак видання ProPublica виявило, що система допускає помилки й не завжди оцінює однаково. Так, наприклад, згідно з прогнозами алгоритму, афро-американці з числа обвинувачених мали вдвічі вищі шанси скоїти ще один злочин, ніж білошкірі з аналогічними даними. Ризик для білих, які проходили аналіз, зазвичай виявлявся меншим.

Одна з причин, чому так відбувається, може полягати в тому, що дані, які вводяться в систему Compas, від самого початку несправедливі. Професор права Іфеома Аюнва пояснила: «Якщо ви дивитеся на те, скільки обвинувачень є у людини й вважаєте цю змінну нейтральною — це неправильно». Справа у тому, що з великою ймовірністю органи правосуддя з упередженням ставляться до людей з іншим кольором шкіри, а тому їх частіше заарештовують, перевіряють та суворіше карають. Відповідно, у системі буде збережено більше інформації про представників африканських чи інших рас, ніж про білошкірих, чиї дії привернули менше уваги правоохоронних органів.

Читайте також: Монстр автоматизації: Що робити, аби робот не забрав роботу

Чи можна створити «суддю Дредда»

Нові закони та краще регулювання ведення такого роду баз даних можуть допомогти у вирішенні проблеми необ’єктивності технологічних рішень. Потрібно в першу чергу забезпечити прозорість автоматизованих систем та алгоритмів, які проводять відбір серед людей. Поки що єдині, хто має доступ до інформації про ці системи — її розробники. Виникає небезпека того, що технічні працівники не завжди розуміють суспільні процеси, на які алгоритми впливатимуть. З цієї точки зору, варто залучати ширше коло спеціалістів — політиків, юристів та представників галузі, у якій діятиме алгоритм.

Додати коментар

Такий e-mail вже зареєстровано. Скористуйтеся формою входу або введіть інший.

Ви вказали некоректні логін або пароль

Вибачте, для коментування необхідно увійти.

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: