«Vykorystannja ljudyny dlja vykonannja roboty dozvoljaje unyknuty ryzykiv ščodo navantažennja z tehničnyh pytań ta problem rozvytku biznesu. Ce ne masštabne javyšče, očevydno, ale ce dozvoljaje vam stvorjuvaty programni produkty», — rozpovidaje Greg Koberger, generaľnyj dyrektor kompaniї ReadMe, jakyj stverdžuje, ščo vin zitknuvsja z bagaťma vypadkamy vykorystannja fejkovogo štučnogo intelektu (AI). Zamisť rozrobljaty rišennja na osnovi algorytmiv, prototypy intelektuaľnyh servisiv prodovžujuť vykorystovuvaty ljudej.
Skandal čy neobhidnisť: jak ljudy vdajuť iz sebe štučnyj intelekt
Publično pro praktyku zastosuvannja ljudej zamisť program stalo vidomo vid Wall Street Journal. Vyjavljajeťsja, je sotni vyrobnykiv dodatkiv, jaki otrymuvaly dostup do vhidnyh lystiv, ščoby otrymuvaty dostup do korystuvaćkyh danyh ta načebto їh avtomatyzuvaty. Tobto ne programy Google, a ljudy vyrišuvaly avtomatyzovani zadači.
U vypadku z kompanijeju Edison Software, ščo bazujeťsja u San-Hose, inženery štučnogo intelektu peredavaly personaľni elektronni povidomlennja soteń korystuvačiv — z їhnimy identyfikatoramy — ščoby pokraščyty funkciju «intelektuaľnyh vidpovidej». Kompanija ne zaznačyla, ščo ljudy rozgljadajuť elektronni lysty korystuvačiv u svoїj polityci konfidencijnosti.
Prote ce — ne peršyj pryklad, koly rozrobnyky vdajuťsja do dopomogy ljudej, a ne program. Šče u 2008 roci kompanija Spinvox, kotra konvertuvala golosovi lysty u tekst, otrymuvala zvynuvačennja pro vykorystannja ljudej u kol-centrah za kordonom, ščoby pracivnyky-autsorsery robyly vsju robotu zamisť program.
U 2016 roci u Bloomberg rozpovily, jak 12 godyn na deń ljudy-pracivnyky prykydajuťsja čat-botamy dlja kalendariv ta planuvaľnykiv, takyh jak X.ai ta Clara. Cja robota vyjavylasja nastiľky vysnažlyvoju, ščo pracivnyky takyh pryhovanyh centriv obrobky danyh ne pryhovuvaly: ne možuť dočekatysja, poky їh zaminjať boty.
U 2017 roci programa keruvannja biznes-vytratamy Expensify vyznala, ščo vona vykorystovuvala ljudynu dlja transkrybuvannja hoča by častyny kvytancij, jaki — jak stverdžuvalosja — vykorystovuvaly vlasnu tehnologiju smartscan. Skanuvannja kvytancij prohodylo čerez rozšyfrovku vručnu, adže nyźkooplačuvani fahivci buly zmušeni čytaty ta perepysuvaty ci kvytanciї. Dlja ćogo vykorystovuvalysja pracivnyky z platformy Mechanical Turk.
Ne lyše nevelyki kompaniї zdalysja i, zamisť rozrobljaty AI-rišennja, počaly vykorystovuvaty nyźkooplačuvanu pracju. Naviť u Facebook, de vkladajuť velyki košty v AI, pokladajuťsja na ljudej u rozrobci virtuaľnogo pomičnyka dlja Messenger.
De meža miž trenuvannjam AI za rahunok ljudej ta prostoju ljudśkoju praceju
Prote ne zavždy jdeťsja pro zaminu programy ljuďmy (hoča maje buty navpaky). Kompanija Scale proponuje bazu žyvyh pracivnykiv, jaki dopomagajuť trenuvaty mehanizmy dlja mašyn iz avtopilotom ta inšyh system na osnovi štučnogo intelektu. Učasnyky platformy rozgljadajuť kamery abo datčyky žyvlennja ta markuvannja avtomobiliv, pišohodiv ta velosypedystiv u kadri, vydiljajuť ob’jekty ta rozpiznajuť їh. Pry dostatnij kiľkosti kalibruvannja za učasti ljudyny AI navčyťsja rozpiznavaty ci sami ob’jekty. V inšyh vypadkah kompaniї pidrobljajuť rezuľtaty rozpiznavannja, investoram ta korystuvačam rozpovidajučy, ščo vony rozrobyly masštabovanu tehnologiju intelektuaľnoї rozpiznavannja.
Elison Darsi, psyhologynja ta zasnovnycja Woebot — čat-bota dlja pidtrymky psyhičnogo zdorov’ja, — opysuje ce javyšče jak «tehnika Čarivnyka z Kraїny Oz». Jakščo raptom vy zabuly dytjaču knygu, tam čarivnyk za dopomogoju tehnologij ta mehanizmiv imituvav dyva. Pobudova jakisnoї systemy AI vymagaje značnogo obsjagu danyh — ale pidhid iz vykorystannjam ljudej zamisť algorytmiv buv nepryjnjatnym u vypadku služby psyhologičnoї pidtrymky u Woebot, skazala zasnovnycja proektu: «Jak psyhology my kerujemosja kodeksom etyky. My ne obmanjujemo ljudej — ce odyn iz čitkyh etyčnyh pryncypiv».
Doslidžennja pokazalo, ščo ljudy, jak pravylo, rozkryvajuťsja biľše, koly dumajuť, ščo vony spilkujuťsja z mašynoju, a ne z ljudynoju čerez stygmu ščodo pošuku dopomogy psyhologa.
Komanda Universytetu Pivdennoї Kaliforniї vyprobuvala ce z virtuaľnym terapevtom pid nazvoju «Elli». Vony vyjavyly, ščo veterany z posttravmatyčnym stresovym rozladom biľš shyľni rozkryvaty svoї symptomy, koly diznavalysja, ščo «Elli» bula systemoju štučnogo intelektu, a ne interfejsom, za jakym stojať žyvi konsuľtanty.
Brak prozorosti na rynku AI-proektiv
Inši dumajuť, ščo kompaniї zavždy povynni buty prozorymy ščodo togo, jak pracjujuť їhni poslugy. Etyčne protystojannja posyljujeťsja šče biľše, oskiľky teper štučnyj intelekt vse biľše staje shožym na ljudej. Neščodavnij pryklad — pomičnyk Google DuplexVideo: Štučnyj intelekt Google navčyvsja telefonuvaty v perukarni ta magazyny, jakyj telefonuvav u piceriju ta goteľ i robyv zamovlennja, povnistju imitujučy ljudśke movlennja. Pislja peršoї hvyli krytyky, Google zajavyla, ščo jogo pomičnyk dali bude menš «ljudjanym». Poky ščo nejasno, jak dali bude rozvyvatysja tehnologija vdavannja ljuďmy tehnologij, a tehnologijamy — ljudej.