Свідомо чи ні, та замість того, щоб покладатися лише на людське судження, організації все частіше покладаються на технології у вирішенні важливих етичних питань із соціальними наслідками для життя не лише окремих людей, а й цілих соціальних верств чи етнічних прошарків: чи залучати когось на роботу, чи надавати їм банківську позику, чи варто визначити їх як підозрюваного у злочині, відправити їх до в’язниці або звільнити їх за умовчанням.
Проте все більша кількість досліджень та критика в бік безумовного використання технологій наводять на думку, що алгоритми та штучний інтелект необов’язково є панацеєю від стигматизації. Технології таким чином можуть поширювати стереотипи чи безумовні судження на певні дискриміновані групи. Відтак замість того, щоби пропонувати обхід для людських упереджень, інструменти, які ми спроектували, щоби допомогти нам прогнозувати майбутнє, можуть змусити нас повторити минуле за рахунок посилення і без того вже створених соціальних нерівностей.
Темний бік «автоматизації»
У 2014 році в доповіді Білий Дім попередив, що автоматизоване прийняття рішень «породжує складні питання щодо того, як забезпечити виявлення, вимірювання та виправлення дискримінаційних ефектів, які виникають внаслідок автоматизованих процесів». Протягом минулих декількох років все більша кількість експертів намагається відповісти на ці запитання, починаючи дискусії, розробляючи найкращі практики та принципи відповідальності та вивчаючи рішення складної та підступної проблеми алгоритмічного упередження.
Час критично ставитися до того, що таке дані
Незважаючи на те, що прийняття рішень з боку AIВміє малювати, не годен жартувати — головне про AI від Google часто розглядається як невід’ємна складова максимальної об’єктивності, дані та процеси, які впливають на роботу штучного інтелекту, можуть невидимо формувати подальше вкорінення нерівності у системах, котрі на перший погляд покликані цю нерівність усунути. Щоб уникнути такого зміщення, потрібно розуміти як дуже складні технології, так і дуже складні соціальні проблеми. Наприклад, система автоматичного скоринґу засуджених на предмет їхньої схильності вчиняти злочини у майбутньому відповідає за допомогу американському правосуддю у винесенні вироків та встановлення строків позбавлення волі. Але через закладені упередження та стереотипи суддів та присяжних система «підхопила» профайлінґ (расові, соціальні та вікові упередження при винесенні вироків — прим.ред.) — і тепер вдвічі частіше ставить в категорію «потенційно небезпечних» засуджених із темним кольором шкіри у порівнянні із білими. Таким чином, існуюча нерівність та дискримінація лише дедалі більше поглиблюється — і все менше афроамериканців чи громадян інших країн із темним кольором шкіри мають шанс вийти «із системи», хоча би раз потрапивши за ґрати.
Великі дані лише підсилюють початкову статистичну чи математичну похибку. Темношкірих заарештовують частіше, ніж білих, навіть коли вони вчиняють злочини з однаковими темпами. Обшуки та арешти стосовно темношкірих теж поширеніші. «Алгоритм шукає справжній шаблон, але ми не знаємо, чи правильно він знаходить цей шаблон, який відповідає загальній чисельності населення чи іншим показникам,» — зауважує Суреш Венкатасубраманян, викладач вищої освіти Університету Юти, який вивчає справедливість алгоритмів у винесенні вироків чи усуненні ризиків профайлінґу.
«Частина проблеми полягає в тому, щонауковці даних, які будують моделі та працюють з даними, не дуже добре контактують із захисниками цивільних прав,» — констатує Арон Ріке з Upturn, технологічної консалтингової фірми, яка працює з цивільними правами та захистом споживачів. — «Відтак мене непокоять не расизм з боку компаній, а відсутність критичного міркування у питаннях того, як джерела даних можуть посилити вже поширене упередження».
Розуміння того, що нам потрібно виправити
Існують аналогічні побоювання щодо алгоритмічного упередження в технології розпізнавання обличчя. Ця технологія вже має значно ширший вплив, ніж більшість людей здатні усвідомити. Понад 117 млн повнолітніх американців внесли свої зображення в базу даних про розпізнавання від правоохоронних органів. І часто це ставалося без їхньої згоди або знання про це. Технологія сканування облич залишається в основному нерегульованою на законодавчому рівні.
У 2012 році було встановлено, що алгоритми розпізнавання обличчя були менш точними при визначенні облич чорношкірих людей разом з жінками та дорослими віком до 30 років. Ключовим висновком дослідження 2016 року Джорджтаунський центр конфіденційності та технологій є твердження, що «розпізнавання облич сервісами поліції буде непропорційно впливати на права та рівень притягнення до відповідальності афроамериканців». У тому ж дослідженні також представлені моделі політики та законодавства, які можуть бути використані для регулювання технологій як на федеральному рівні, так і в кожному штаті США.
Деякі критики вважають, що вирішення цих проблем полягає в тому, щоби просто додати більше різноманітності у наборах облич та даних для навчання систем штучного інтелекту. Проте завдання є набагто складнішим, переконує Елке Оберг, менеджер з маркетингу компанії Cognitec, компанія, чиї алгоритми розпізнавання обличчя були використані законодавцями та силовими структурами у Каліфорнії, Меріленді, Мічігані та Пенсільванії.
Джонатан Франк, колишній технолог-технолог Центру юристів Джорджтаунського університету, який експериментував з алгоритмами розпізнавання обличчя, наводить цілий список ризиків, які можуть нівелювати ефективність систем розпізнавання облич злочинців та порушників. За його словами, не йдеться просто про потребу «згодувати» системі побільше наборів із обличчями афроамериканців. Він вважає, що подальше вивчення цієї проблеми має вирішальне значення для пошуку рішень, і що дослідження вже на роки відстає від темпів, якими почали використовувати візуальне розпізнавання поліція, митниця та армія.
На часі — долучення влади до процесу регулювання
Нові закони та краще державне регулювання можуть стати потужним інструментом для реформування того, як компанії та державні установи використовують штучний інтелект та інтелектуальні системи для прийняття рішень.
2016 року Європейський Союз прийняв закон, що називається Загальним регламентом захисту даних. Він включає численні обмеження щодо автоматичної обробки персональних даних, і вимагає прозорості щодо «логіки, задіяної в цих системах». Подібне федеральне законодавство не передбачається поки у США. Федеральна комісія з питань консультування та Конгрес намагаються або призупинити, або скасувати федеральну захист даних про конфіденційність даних. При цьому деякі штати, включаючи Іллінойс і Техас, передали свої власні законопроекти про захист біометричних вимог щодо конфіденційностіособистих даних, які часто використовуються алгоритмічними інструментами прийняття рішень. Проте чинні федеральні закони захищають від певних видів дискримінації, особливо в таких сферах, як наймання на роботу, надання житла та позик у банках. При цьому вони не були оновлені, щоби вирішити проблему того, як нові технології перетинаються зі старими упередженнями. Урядам таких країн, як США, доведеться втрутитися у подолання цих етичних та технологічних розбіжностей — і визначити «правила гри» остаточно та безумовно.
Прозорість та підзвітність
Ускладнення будь-якого поштовху до більшої прозорості полягає у підвищенні рівня систем машинного навчання, які все частіше залучаються до прийняття рішень щодо прйому людей на роботу, фінансового кредитування та поліцейської діяльності. Іноді вони називаються «чорними ящиками», Причина — ці моделі прогнозування настільки складні, що навіть люди, які їх створюють, не завжди можуть сказати, як створена система приходить до своїх висновків.
«Чимало цих алгоритмічних систем покладаються на нейронні мережі, які насправді не є прозорими,» — звертає увагу професор Альваро Бедойя, виконавчий директор Центру конфіденційності та технологій в Джорджтауні. — «Ви не можете в такій системі «подивитись під капот», бо там нічого неможливо побачити і зрозуміти». У цих випадках важливо з’ясувати, чи впливають результати системи на різні групи по-різному.
Що означає «справедливість»?
Коли ми вийдемо за межі технічних дискусій про те, як вирішити алгоритмічне упередження, є ще одна складна дискусія. Як ми навчаємо алгоритми оцінки точності та справедливості? І що ми визначаємо під словами «точність» та «справедливість»?
AURA — алгоритмічний інструмент, який використовується в Лос-Анджелесі, щоби допомогти ідентифікувати жертв жорстокого поводження з дітьми, також стикається з такою складною дилемою. Коли докази незрозумілі, як автоматизована система повинна зважити на рівень потенційної шкоди від ситуації, коли дитина залишається поза увагою батьків, якщо регулярно ті не порушують прав дитини? Адвокати підкреслюють, що першим кроком є вимагати від установ, що використовують ці інструменти, перейти до свідомого вибору моральних рішень, які вбудовані в їхні системи, а не передати відповідальність за все штучному інтелектові та технологіям і big data. Доведеться вирішити дилему між мораллю, етикою, суб’єктивізом та даними, яких стає все більше щодо кожного із нас. Проте має минути щонайменше 5 років, поки ця система запрацює належним чином, переконані дослідники.