Реклама

Нештучний інтелект: Як AI-стартапи використовують людей замість технології

Важко побудувати сервіс, який працює на основі штучного інтелекту. Настільки важко, що насправді деякі стартапи йдуть простішим шляхом: вони наймають людей, які вдають із себе AI-помічників
Čytaty latynkoju
Нештучний інтелект: Як AI-стартапи використовують людей замість технології
  1. Головна
  2. Історії
  3. Нештучний інтелект: Як AI-стартапи використовують людей замість технології
  • Сподобався пост? Став вподобайку!
  • 0
Важко побудувати сервіс, який працює на основі штучного інтелекту. Настільки важко, що насправді деякі стартапи йдуть простішим шляхом: вони наймають людей, які вдають із себе AI-помічників

«Використання людини для виконання роботи дозволяє уникнути ризиків щодо навантаження з технічних питань та проблем розвитку бізнесу. Це не масштабне явище, очевидно, але це дозволяє вам створювати програмні продукти», — розповідає Грег Кобергер, генеральний директор компанії ReadMe, який стверджує, що він зіткнувся з багатьма випадками використання фейкового штучного інтелекту (AI). Замість розробляти рішення на основі алгоритмів, прототипи інтелектуальних сервісів продовжують використовувати людей.

Скандал чи необхідність: як люди вдають із себе штучний інтелект

Публічно про практику застосування людей замість програм стало відомо від Wall Street Journal. Виявляється, є сотні виробників додатків, які отримували доступ до вхідних листів, щоби отримувати доступ до користувацьких даних та начебто їх автоматизувати. Тобто не програми Google, а люди вирішували автоматизовані задачі.

У випадку з компанією Edison Software, що базується у Сан-Хосе, інженери штучного інтелекту передавали персональні електронні повідомлення сотень користувачів — з їхніми ідентифікаторами — щоби покращити функцію «інтелектуальних відповідей». Компанія не зазначила, що люди розглядають електронні листи користувачів у своїй політиці конфіденційності.

Проте це — не перший приклад, коли розробники вдаються до допомоги людей, а не програм. Ще у 2008 році компанія Spinvox, котра конвертувала голосові листи у текст, отримувала звинувачення про використання людей у кол-центрах за кордоном, щоби працівники-аутсорсери робили всю роботу замість програм.

У 2016 році у Bloomberg розповіли, як 12 годин на день люди-працівники прикидаються чат-ботами для календарів та планувальників, таких як X.ai та Clara. Ця робота виявилася настільки виснажливою, що працівники таких прихованих центрів обробки даних не приховували: не можуть дочекатися, поки їх замінять боти.

Читайте також: Чат-бот Microsoft навчився допомагати бездомним тваринам

У 2017 році програма керування бізнес-витратами Expensify визнала, що вона використовувала людину для транскрибування хоча би частини квитанцій, які — як стверджувалося — використовували власну технологію smartscan. Сканування квитанцій проходило через розшифровку вручну, адже низькооплачувані фахівці були змушені читати та переписувати ці квитанції. Для цього використовувалися працівники з платформи Mechanical Turk.

Не лише невеликі компанії здалися і, замість розробляти AI-рішення, почали використовувати низькооплачувану працю. Навіть у Facebook, де вкладають великі кошти в AI, покладаються на людей у розробці віртуального помічника для Messenger.

Де межа між тренуванням AI за рахунок людей та простою людською працею

Проте не завжди йдеться про заміну програми людьми (хоча має бути навпаки). Компанія Scale пропонує базу живих працівників, які допомагають тренувати механізми для машин із автопілотом та інших систем на основі штучного інтелекту. Учасники платформи розглядають камери або датчики живлення та маркування автомобілів, пішоходів та велосипедистів у кадрі, виділяють об’єкти та розпізнають їх. При достатній кількості калібрування за участі людини AI навчиться розпізнавати ці самі об’єкти. В інших випадках компанії підробляють результати розпізнавання, інвесторам та користувачам розповідаючи, що вони розробили масштабовану технологію інтелектуальної розпізнавання.

Читайте також: Роботи-адвокати та юриспруденція майбутнього

Елісон Дарсі, психологиня та засновниця Woebot — чат-бота для підтримки психічного здоров’я, — описує це явище як «техніка Чарівника з Країни Оз». Якщо раптом ви забули дитячу книгу, там чарівник за допомогою технологій та механізмів імітував дива. Побудова якісної системи AI вимагає значного обсягу даних — але підхід із використанням людей замість алгоритмів був неприйнятним у випадку служби психологічної підтримки у Woebot, сказала засновниця проекту: «Як психологи ми керуємося кодексом етики. Ми не обманюємо людей — це один із чітких етичних принципів».

Дослідження показало, що люди, як правило, розкриваються більше, коли думають, що вони спілкуються з машиною, а не з людиною через стигму щодо пошуку допомоги психолога.

Команда Університету Південної Каліфорнії випробувала це з віртуальним терапевтом під назвою «Еллі». Вони виявили, що ветерани з посттравматичним стресовим розладом більш схильні розкривати свої симптоми, коли дізнавалися, що «Еллі» була системою штучного інтелекту, а не інтерфейсом, за яким стоять живі консультанти.

Брак прозорості на ринку AI-проектів

Інші думають, що компанії завжди повинні бути прозорими щодо того, як працюють їхні послуги. Етичне протистояння посилюється ще більше, оскільки тепер штучний інтелект все більше стає схожим на людей. Нещодавній приклад — помічник Google DuplexВідео: Штучний інтелект Googlе навчився телефонувати в перукарні та магазини, який телефонував у піцерію та готель і робив замовлення, повністю імітуючи людське мовлення. Після першої хвилі критики, Google заявила, що його помічник далі буде менш «людяним». Поки що неясно, як далі буде розвиватися технологія вдавання людьми технологій, а технологіями — людей.

Share
Написати коментар
loading...