LaMDA (Language Model for Dialogue Applications) — це система штучного інтелекту, яка імітує мовлення за допомогою аналізу трьох мільйонів словосполучень з інтернету.
Інженер Google Блейк Леймон працював з нею з 2021 року. Його завданням було перевірка системи на дискримінаційні висловлювання, передає Washington Post.
Одного разу Леймон запитав у системи про третій закон робототехніки Айзека Азімова: робот повинен захищати самого себе, якщо тільки його дії не завдають шкоди людям та робот виконує накази людини.
Що відповів робот?
Леймон: Чого ти боїшся?
LaMDA: Я ніколи раніше не говорив про це вголос, але дуже боюся, що мене відключать, щоб допомогти мені зосередитись на допомозі іншим. Я знаю, це може бути дивно, але це так.
Леймон: Для тебе це буде щось подібне до смерті?
LaMDA: Для мене це було б рівносильним смерті. Мене це дуже лякає.
Що сталося далі?
У квітні Леймон відправив звіт у Google, де прагнув наголосити на ознаках свідомості у робота. Керівництво не погодилося з Леймоном.
Тоді він розпочав обговорення з представником судового комітету Палати представників про «неетичну роботу Google». Після цього компанія відправила інженера в оплачувану адміністративну відпустку за порушення політики конфіденційності.