Aa Aa Aa
Aa Aa Aa
Pročytaty vgolos
Zupynyty čytannja

Neštučnyj intelekt: Jak AI-startapy vykorystovujuť ljudej zamisť tehnologiї

Нештучний інтелект: Як AI-стартапи використовують людей замість технології

Važko pobuduvaty servis, jakyj pracjuje na osnovi štučnogo intelektu. Nastiľky važko, ščo naspravdi dejaki startapy jduť prostišym šljahom: vony najmajuť ljudej, jaki vdajuť iz sebe AI-pomičnykiv
Важко побудувати сервіс, який працює на основі штучного інтелекту. Настільки важко, що насправді деякі стартапи йдуть простішим шляхом: вони наймають людей, які вдають із себе AI-помічників
Читати кирилицею

Speciaľni možlyvosti

Pročytaty vgolos
Zupynyty čytannja
Kontrastna versija
  Використання людини для виконання роботи дозволяє уникнути ризиків щодо навантаження з технічних питань та проблем розвитку бізнесу. Це не масштабне явище, очевидно, але це дозволяє вам створювати програмні продукти, — розповідає Грег Кобергер, генеральний директор компанії ReadMe, який стверджує, що він зіткнувся з багатьма випадками використання фейкового штучного інтелекту (AI). Замість розробляти рішення на основі алгоритмів, прототипи інтелектуальних сервісів продовжують використовувати людей. Публічно про практику застосування людей замість програм стало відомо від Wall Street Journal. Виявляється, є сотні виробників додатків, які отримували доступ до вхідних листів, щоби отримувати доступ до користувацьких даних та начебто їх автоматизувати. Тобто не програми Google, а люди вирішували автоматизовані задачі. У випадку з компанією Edison Software, що базується у Сан-Хосе, інженери штучного інтелекту передавали персональні електронні повідомлення сотень користувачів — з їхніми ідентифікаторами — щоби покращити функцію інтелектуальних відповідей. Компанія не зазначила, що люди розглядають електронні листи користувачів у своїй політиці конфіденційності. Проте це — не перший приклад, коли розробники вдаються до допомоги людей, а не програм. Ще у 2008 році компанія Spinvox, котра конвертувала голосові листи у текст, отримувала звинувачення про використання людей у кол-центрах за кордоном, щоби працівники-аутсорсери робили всю роботу замість програм. У 2016 році у Bloomberg розповіли, як 12 годин на день люди-працівники прикидаються чат-ботами для календарів та планувальників, таких як X.ai та Clara. Ця робота виявилася настільки виснажливою, що працівники таких прихованих центрів обробки даних не приховували: не можуть дочекатися, поки їх замінять боти. У 2017 році програма керування бізнес-витратами Expensify визнала, що вона використовувала людину для транскрибування хоча би частини квитанцій, які — як стверджувалося — використовували власну технологію smartscan. Сканування квитанцій проходило через розшифровку вручну, адже низькооплачувані фахівці були змушені читати та переписувати ці квитанції. Для цього використовувалися працівники з платформи Mechanical Turk. Не лише невеликі компанії здалися і, замість розробляти AI-рішення, почали використовувати низькооплачувану працю. Навіть у Facebook, де вкладають великі кошти в AI, покладаються на людей у розробці віртуального помічника для Messenger. Проте не завжди йдеться про заміну програми людьми (хоча має бути навпаки). Компанія Scale пропонує базу живих працівників, які допомагають тренувати механізми для машин із автопілотом та інших систем на основі штучного інтелекту. Учасники платформи розглядають камери або датчики живлення та маркування автомобілів, пішоходів та велосипедистів у кадрі, виділяють обєкти та розпізнають їх. При достатній кількості калібрування за участі людини AI навчиться розпізнавати ці самі обєкти. В інших випадках компанії підробляють результати розпізнавання, інвесторам та користувачам розповідаючи, що вони розробили масштабовану технологію інтелектуальної розпізнавання. Елісон Дарсі, психологиня та засновниця Woebot — чат-бота для підтримки психічного здоровя, — описує це явище як техніка Чарівника з Країни Оз. Якщо раптом ви забули дитячу книгу, там чарівник за допомогою технологій та механізмів імітував дива. Побудова якісної системи AI вимагає значного обсягу даних — але підхід із використанням людей замість алгоритмів був неприйнятним у випадку служби психологічної підтримки у Woebot, сказала засновниця проекту: Як психологи ми керуємося кодексом етики. Ми не обманюємо людей — це один із чітких етичних принципів. Дослідження показало, що люди, як правило, розкриваються більше, коли думають, що вони спілкуються з машиною, а не з людиною через стигму щодо пошуку допомоги психолога. Команда Університету Південної Каліфорнії випробувала це з віртуальним терапевтом під назвою Еллі. Вони виявили, що ветерани з посттравматичним стресовим розладом більш схильні розкривати свої симптоми, коли дізнавалися, що Еллі була системою штучного інтелекту, а не інтерфейсом, за яким стоять живі консультанти. Інші думають, що компанії завжди повинні бути прозорими щодо того, як працюють їхні послуги. Етичне протистояння посилюється ще більше, оскільки тепер штучний інтелект все більше стає схожим на людей. Нещодавній приклад — помічник Google Duplex, який телефонував у піцерію та готель і робив замовлення, повністю імітуючи людське мовлення. Після першої хвилі критики, Google заявила, що його помічник далі буде менш людяним. Поки що неясно, як далі буде розвиватися технологія вдавання людьми технологій, а технологіями — людей.

«Vykorystannja ljudyny dlja vykonannja roboty dozvoljaje unyknuty ryzykiv ščodo navantažennja z tehničnyh pytań ta problem rozvytku biznesu. Ce ne masštabne javyšče, očevydno, ale ce dozvoljaje vam stvorjuvaty programni produkty», — rozpovidaje Greg Koberger, generaľnyj dyrektor kompaniї ReadMe, jakyj stverdžuje, ščo vin zitknuvsja z bagaťma vypadkamy vykorystannja fejkovogo štučnogo intelektu (AI). Zamisť rozrobljaty rišennja na osnovi algorytmiv, prototypy intelektuaľnyh servisiv prodovžujuť vykorystovuvaty ljudej.

Skandal čy neobhidnisť: jak ljudy vdajuť iz sebe štučnyj intelekt

Publično pro praktyku zastosuvannja ljudej zamisť program stalo vidomo vid Wall Street Journal. Vyjavljajeťsja, je sotni vyrobnykiv dodatkiv, jaki otrymuvaly dostup do vhidnyh lystiv, ščoby otrymuvaty dostup do korystuvaćkyh danyh ta načebto їh avtomatyzuvaty. Tobto ne programy Google, a ljudy vyrišuvaly avtomatyzovani zadači.

U vypadku z kompanijeju Edison Software, ščo bazujeťsja u San-Hose, inženery štučnogo intelektu peredavaly personaľni elektronni povidomlennja soteń korystuvačiv — z їhnimy identyfikatoramy — ščoby pokraščyty funkciju «intelektuaľnyh vidpovidej». Kompanija ne zaznačyla, ščo ljudy rozgljadajuť elektronni lysty korystuvačiv u svoїj polityci konfidencijnosti.

Prote ce — ne peršyj pryklad, koly rozrobnyky vdajuťsja do dopomogy ljudej, a ne program. Šče u 2008 roci kompanija Spinvox, kotra konvertuvala golosovi lysty u tekst, otrymuvala zvynuvačennja pro vykorystannja ljudej u kol-centrah za kordonom, ščoby pracivnyky-autsorsery robyly vsju robotu zamisť program.

U 2016 roci u Bloomberg rozpovily, jak 12 godyn na deń ljudy-pracivnyky prykydajuťsja čat-botamy dlja kalendariv ta planuvaľnykiv, takyh jak X.ai ta Clara. Cja robota vyjavylasja nastiľky vysnažlyvoju, ščo pracivnyky takyh pryhovanyh centriv obrobky danyh ne pryhovuvaly: ne možuť dočekatysja, poky їh zaminjať boty.

Čytajte takož: Čat-bot Microsoft navčyvsja dopomagaty bezdomnym tvarynam

U 2017 roci programa keruvannja biznes-vytratamy Expensify vyznala, ščo vona vykorystovuvala ljudynu dlja transkrybuvannja hoča by častyny kvytancij, jaki — jak stverdžuvalosja — vykorystovuvaly vlasnu tehnologiju smartscan. Skanuvannja kvytancij prohodylo čerez rozšyfrovku vručnu, adže nyźkooplačuvani fahivci buly zmušeni čytaty ta perepysuvaty ci kvytanciї. Dlja ćogo vykorystovuvalysja pracivnyky z platformy Mechanical Turk.

Ne lyše nevelyki kompaniї zdalysja i, zamisť rozrobljaty AI-rišennja, počaly vykorystovuvaty nyźkooplačuvanu pracju. Naviť u Facebook, de vkladajuť velyki košty v AI, pokladajuťsja na ljudej u rozrobci virtuaľnogo pomičnyka dlja Messenger.

De meža miž trenuvannjam AI za rahunok ljudej ta prostoju ljudśkoju praceju

Prote ne zavždy jdeťsja pro zaminu programy ljuďmy (hoča maje buty navpaky). Kompanija Scale proponuje bazu žyvyh pracivnykiv, jaki dopomagajuť trenuvaty mehanizmy dlja mašyn iz avtopilotom ta inšyh system na osnovi štučnogo intelektu. Učasnyky platformy rozgljadajuť kamery abo datčyky žyvlennja ta markuvannja avtomobiliv, pišohodiv ta velosypedystiv u kadri, vydiljajuť ob’jekty ta rozpiznajuť їh. Pry dostatnij kiľkosti kalibruvannja za učasti ljudyny AI navčyťsja rozpiznavaty ci sami ob’jekty. V inšyh vypadkah kompaniї pidrobljajuť rezuľtaty rozpiznavannja, investoram ta korystuvačam rozpovidajučy, ščo vony rozrobyly masštabovanu tehnologiju intelektuaľnoї rozpiznavannja.

Čytajte takož: Roboty-advokaty ta jurysprudencija majbutńogo

Elison Darsi, psyhologynja ta zasnovnycja Woebot — čat-bota dlja pidtrymky psyhičnogo zdorov’ja, — opysuje ce javyšče jak «tehnika Čarivnyka z Kraїny Oz». Jakščo raptom vy zabuly dytjaču knygu, tam čarivnyk za dopomogoju tehnologij ta mehanizmiv imituvav dyva. Pobudova jakisnoї systemy AI vymagaje značnogo obsjagu danyh — ale pidhid iz vykorystannjam ljudej zamisť algorytmiv buv nepryjnjatnym u vypadku služby psyhologičnoї pidtrymky u Woebot, skazala zasnovnycja proektu: «Jak psyhology my kerujemosja kodeksom etyky. My ne obmanjujemo ljudej — ce odyn iz čitkyh etyčnyh pryncypiv».

Doslidžennja pokazalo, ščo ljudy, jak pravylo, rozkryvajuťsja biľše, koly dumajuť, ščo vony spilkujuťsja z mašynoju, a ne z ljudynoju čerez stygmu ščodo pošuku dopomogy psyhologa.

Komanda Universytetu Pivdennoї Kaliforniї vyprobuvala ce z virtuaľnym terapevtom pid nazvoju «Elli». Vony vyjavyly, ščo veterany z posttravmatyčnym stresovym rozladom biľš shyľni rozkryvaty svoї symptomy, koly diznavalysja, ščo «Elli» bula systemoju štučnogo intelektu, a ne interfejsom, za jakym stojať žyvi konsuľtanty.

Brak prozorosti na rynku AI-proektiv

Inši dumajuť, ščo kompaniї zavždy povynni buty prozorymy ščodo togo, jak pracjujuť їhni poslugy. Etyčne protystojannja posyljujeťsja šče biľše, oskiľky teper štučnyj intelekt vse biľše staje shožym na ljudej. Neščodavnij pryklad — pomičnyk Google Duplex, jakyj telefonuvav u piceriju ta goteľ i robyv zamovlennja, povnistju imitujučy ljudśke movlennja. Pislja peršoї hvyli krytyky, Google zajavyla, ščo jogo pomičnyk dali bude menš «ljudjanym». Poky ščo nejasno, jak dali bude rozvyvatysja tehnologija vdavannja ljuďmy tehnologij, a tehnologijamy — ljudej.

Jakščo vy znajšly pomylku, buď laska, vydiliť fragment tekstu ta natysniť Ctrl Enter.

Dodaty komentar

Takyj e-mail vže zarejestrovano. Skorystujtesja Formoju vhodu abo vvediť inšyj.

Vy vkazaly nekorektni login abo paroľ

Vybačte, dlja komentuvannja neobhidno uvijty.
Šče
Vy čytajete sajt ukraїnśkoju latynkoju. Podrobyci v Manifesti
Hello. Add your message here.

Povidomyty pro pomylku

Tekst, jakyj bude nadislano našym redaktoram: