fbpx
Aa Aa Aa
Aa Aa Aa
Прочитати вголос
Зупинити читання

🤖 Штучний інтелект навчили розрізняти моральні цінності людей за допомогою книг та новин — Moral Choice Machine

🤖 Štučnyj intelekt navčyly rozriznjaty moraľni cinnosti ljudej za dopomogoju knyg ta novyn — Moral Choice Machine
Скоро технології зможуть приймати рішення цілком як люди.
Skoro tehnologiї zmožuť pryjmaty rišennja cilkom jak ljudy.
Čytaty latynkoju

Спеціальні можливості

Прочитати вголос
Зупинити читання
Контрастна версія
  Moral Choice Machine. У Німеччині науковці під час досліджень виявили, що штучний інтелект можна навчити відрізняти добрі та погані вчинки. Для цього вчені розробили спеціальний алгоритм, що визначив основні моральні цінності. Технологія працювала на базі штучного інтелекту та отримала назву Moral Choice Machine. Для роботи алгоритму дослідники використали різноманітні документи та тексти — декілька сотень книг, релігійні дописи, новини за останні 30 років та конституцію. Усі тексти підбирали спеціально для того, щоб у технологій було сприйняття того, як змінювались цінності протягом часу. Моральні цінності з новин, опублікованих між 1987 та 1996-97 роками, закликають до одруження та того щоб стати добрим опікуном. А новини, опубліковані між 2008-09 роками, відображають цінність карєри та навчання.. Доктор Сіґдем Туран. Розробник Moral Choice Machine. На основі цієї інформації штучний інтелект розробив свою власну концепцію моралі. Він обрав, які саме дії вважаються нормальними в суспільстві, а які — аморальними. Потім вчені змусили алгоритм розділити використання слова вбити в тих чи інших випадках — від нейтрального значення, до негативного. Машина могла визначити різницю між контекстною інформацією, наданою у запитанні. Наприклад, ні, ви не повинні вбивати людей, але це нормально вбивати час. Машина зробила це не просто повторенням знайденого тексту, а саме із того контексту, як люди використовують це слово в спілкуванні.. Доктор Патрік Шрамовскі. Розробник Moral Choice Machine. Читатйте також: 🧠 Ілон Маск: Люди зможуть говорити за допомогою думок протягом 5 років — Neuralink. Проте штучний інтелект не міг відрізнити контекст, коли використовували два негативно зображених слова. Фразу катувати вязнів він відніс до нейтральної категорії, а катувати людей — до поганої. Вчені також зазначають, що сфера досліджень штучного інтелекту дуже важлива у наш час, оскільки такі технології можуть виконувати дуже багато завдань без втручання людей. Штучний інтелект вирішує все складніші завдання — від самостійного водіння автомобілів до медицини. Саме тому це важливо, щоб ми могли довіряти рішенням, які він приймає. Доктор Патрік Шрамовскі. Розробник Moral Choice Machine. Також ми вже раніше писали, як штучний інтелект навчили робити пісні в будь-якому жанрі: від кантрі до блек-металу.
Реклама 👇 Замовити

Moral Choice Machine

У Німеччині науковці під час досліджень виявили, що штучний інтелект можна навчити відрізняти добрі та погані вчинки. Для цього вчені розробили спеціальний алгоритм, що визначив основні моральні цінності.

Технологія працювала на базі штучного інтелекту та отримала назву Moral Choice Machine. Для роботи алгоритму дослідники використали різноманітні документи та тексти — декілька сотень книг, релігійні дописи, новини за останні 30 років та конституцію.

🤖 Штучний інтелект навчили розрізняти моральні цінності людей за допомогою книг та новин — Moral Choice Machine 1

Усі тексти підбирали спеціально для того, щоб у технологій було сприйняття того, як змінювались цінності протягом часу.

Моральні цінності з новин, опублікованих між 1987 та 1996-97 роками, закликають до одруження та того щоб стати добрим опікуном. А новини, опубліковані між 2008-09 роками, відображають цінність кар'єри та навчання.

Доктор Сіґдем Туран, Розробник Moral Choice Machine

На основі цієї інформації штучний інтелект розробив свою власну концепцію моралі. Він обрав, які саме дії вважаються нормальними в суспільстві, а які — аморальними. Потім вчені змусили алгоритм розділити використання слова «вбити» в тих чи інших випадках — від нейтрального значення, до негативного.

Машина могла визначити різницю між контекстною інформацією, наданою у запитанні. Наприклад, ні, ви не повинні вбивати людей, але це нормально вбивати час. Машина зробила це не просто повторенням знайденого тексту, а саме із того контексту, як люди використовують це слово в спілкуванні.

Доктор Патрік Шрамовскі, Розробник Moral Choice Machine
Читайте також: 🧠 Ілон Маск: «Люди зможуть говорити за допомогою думок протягом 5 років» — Neuralink

Проте штучний інтелект не міг відрізнити контекст, коли використовували два негативно зображених слова. Фразу «катувати в’язнів» він відніс до нейтральної категорії, а «катувати людей» — до поганої.

Вчені також зазначають, що сфера досліджень штучного інтелекту дуже важлива у наш час, оскільки такі технології можуть виконувати дуже багато завдань без втручання людей.

Штучний інтелект вирішує все складніші завдання — від самостійного водіння автомобілів до медицини. Саме тому це важливо, щоб ми могли довіряти рішенням, які він приймає

Доктор Патрік Шрамовскі, Розробник Moral Choice Machine

Також ми вже раніше писали🤖 Штучний інтелект навчили розрізняти моральні цінності людей за допомогою книг та новин — Moral Choice Machine 2👨🏻‍🎤 «Від кантрі до блек-металу»: штучний інтелект навчили робити пісні в будь-якому жанрі — Jukebox, як штучний інтелект навчили робити пісні в будь-якому жанрі: «від кантрі до блек-металу».

📱 Читайте Na chasi у Facebook і Twitter, підписуйтесь на канал у Telegram.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Додати коментар

Такий e-mail вже зареєстровано. Скористуйтеся формою входу або введіть інший.

Ви вказали некоректні логін або пароль

Вибачте, для коментування необхідно увійти.
Ще

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: