fbpx
Aa Aa Aa
Aa Aa Aa
Pročytaty vgolos
Zupynyty čytannja

🤖 Štučnyj intelekt navčyly rozriznjaty moraľni cinnosti ljudej za dopomogoju knyg ta novyn — Moral Choice Machine

🤖 Штучний інтелект навчили розрізняти моральні цінності людей за допомогою книг та новин — Moral Choice Machine
Skoro tehnologiї zmožuť pryjmaty rišennja cilkom jak ljudy.
Скоро технології зможуть приймати рішення цілком як люди.
Читати кирилицею

Speciaľni možlyvosti

Pročytaty vgolos
Zupynyty čytannja
Kontrastna versija
  Moral Choice Machine. У Німеччині науковці під час досліджень виявили, що штучний інтелект можна навчити відрізняти добрі та погані вчинки. Для цього вчені розробили спеціальний алгоритм, що визначив основні моральні цінності. Технологія працювала на базі штучного інтелекту та отримала назву Moral Choice Machine. Для роботи алгоритму дослідники використали різноманітні документи та тексти — декілька сотень книг, релігійні дописи, новини за останні 30 років та конституцію. Усі тексти підбирали спеціально для того, щоб у технологій було сприйняття того, як змінювались цінності протягом часу. Моральні цінності з новин, опублікованих між 1987 та 1996-97 роками, закликають до одруження та того щоб стати добрим опікуном. А новини, опубліковані між 2008-09 роками, відображають цінність карєри та навчання.. Доктор Сіґдем Туран. Розробник Moral Choice Machine. На основі цієї інформації штучний інтелект розробив свою власну концепцію моралі. Він обрав, які саме дії вважаються нормальними в суспільстві, а які — аморальними. Потім вчені змусили алгоритм розділити використання слова вбити в тих чи інших випадках — від нейтрального значення, до негативного. Машина могла визначити різницю між контекстною інформацією, наданою у запитанні. Наприклад, ні, ви не повинні вбивати людей, але це нормально вбивати час. Машина зробила це не просто повторенням знайденого тексту, а саме із того контексту, як люди використовують це слово в спілкуванні.. Доктор Патрік Шрамовскі. Розробник Moral Choice Machine. Читатйте також: 🧠 Ілон Маск: Люди зможуть говорити за допомогою думок протягом 5 років — Neuralink. Проте штучний інтелект не міг відрізнити контекст, коли використовували два негативно зображених слова. Фразу катувати вязнів він відніс до нейтральної категорії, а катувати людей — до поганої. Вчені також зазначають, що сфера досліджень штучного інтелекту дуже важлива у наш час, оскільки такі технології можуть виконувати дуже багато завдань без втручання людей. Штучний інтелект вирішує все складніші завдання — від самостійного водіння автомобілів до медицини. Саме тому це важливо, щоб ми могли довіряти рішенням, які він приймає. Доктор Патрік Шрамовскі. Розробник Moral Choice Machine. Також ми вже раніше писали, як штучний інтелект навчили робити пісні в будь-якому жанрі: від кантрі до блек-металу.
Реклама 👇 Замовити

Moral Choice Machine

U Nimeččyni naukovci pid čas doslidžeń vyjavyly, ščo štučnyj intelekt možna navčyty vidriznjaty dobri ta pogani včynky. Dlja ćogo včeni rozrobyly speciaľnyj algorytm, ščo vyznačyv osnovni moraľni cinnosti.

Tehnologija pracjuvala na bazi štučnogo intelektu ta otrymala nazvu Moral Choice Machine. Dlja roboty algorytmu doslidnyky vykorystaly riznomanitni dokumenty ta teksty — dekiľka soteń knyg, religijni dopysy, novyny za ostanni 30 rokiv ta konstytuciju.

🤖 Štučnyj intelekt navčyly rozriznjaty moraľni cinnosti ljudej za dopomogoju knyg ta novyn — Moral Choice Machine 1

Usi teksty pidbyraly speciaľno dlja togo, ščob u tehnologij bulo spryjnjattja togo, jak zminjuvalyś cinnosti protjagom času.

Moraľni cinnosti z novyn, opublikovanyh miž 1987 ta 1996-97 rokamy, zaklykajuť do odružennja ta togo ščob staty dobrym opikunom. A novyny, opublikovani miž 2008-09 rokamy, vidobražajuť cinnisť kar'jery ta navčannja.

Doktor Siğdem Turan, Rozrobnyk Moral Choice Machine

Na osnovi cijeї informaciї štučnyj intelekt rozrobyv svoju vlasnu koncepciju morali. Vin obrav, jaki same diї vvažajuťsja normaľnymy v suspiľstvi, a jaki — amoraľnymy. Potim včeni zmusyly algorytm rozdilyty vykorystannja slova «vbyty» v tyh čy inšyh vypadkah — vid nejtraľnogo značennja, do negatyvnogo.

Mašyna mogla vyznačyty riznycju miž kontekstnoju informacijeju, nadanoju u zapytanni. Napryklad, ni, vy ne povynni vbyvaty ljudej, ale ce normaľno vbyvaty čas. Mašyna zrobyla ce ne prosto povtorennjam znajdenogo tekstu, a same iz togo kontekstu, jak ljudy vykorystovujuť ce slovo v spilkuvanni.

Doktor Patrik Šramovski, Rozrobnyk Moral Choice Machine
Čytajte takož: 🧠 Ilon Mask: «Ljudy zmožuť govoryty za dopomogoju dumok protjagom 5 rokiv» — Neuralink

Prote štučnyj intelekt ne mig vidriznyty kontekst, koly vykorystovuvaly dva negatyvno zobraženyh slova. Frazu «katuvaty v’jazniv» vin vidnis do nejtraľnoї kategoriї, a «katuvaty ljudej» — do poganoї.

Včeni takož zaznačajuť, ščo sfera doslidžeń štučnogo intelektu duže važlyva u naš čas, oskiľky taki tehnologiї možuť vykonuvaty duže bagato zavdań bez vtručannja ljudej.

Štučnyj intelekt vyrišuje vse skladniši zavdannja — vid samostijnogo vodinnja avtomobiliv do medycyny. Same tomu ce važlyvo, ščob my mogly dovirjaty rišennjam, jaki vin pryjmaje

Doktor Patrik Šramovski, Rozrobnyk Moral Choice Machine

Takož my vže raniše pysaly🤖 Štučnyj intelekt navčyly rozriznjaty moraľni cinnosti ljudej za dopomogoju knyg ta novyn — Moral Choice Machine 2👨🏻‍🎤 «Vid kantri do blek-metalu»: štučnyj intelekt navčyly robyty pisni v buď-jakomu žanri — Jukebox, jak štučnyj intelekt navčyly robyty pisni v buď-jakomu žanri: «vid kantri do blek-metalu».

📱 Čytajte Na chasi u Facebook i Twitter, pidpysujteś na kanal u Telegram.

Jakščo vy znajšly pomylku, buď laska, vydiliť fragment tekstu ta natysniť Ctrl Enter.

Dodaty komentar

Takyj e-mail vže zarejestrovano. Skorystujtesja Formoju vhodu abo vvediť inšyj.

Vy vkazaly nekorektni login abo paroľ

Vybačte, dlja komentuvannja neobhidno uvijty.
Šče
Vy čytajete sajt ukraїnśkoju latynkoju. Podrobyci v Manifesti
Hello. Add your message here.

Povidomyty pro pomylku

Tekst, jakyj bude nadislano našym redaktoram: