Aa Aa Aa
Aa Aa Aa
Прочитати вголос
Зупинити читання

Google спростила створення нейромереж

Google sprostyla stvorennja nejromerež

17 січня компанія Google оголосила про запуск альфа-тестування свого нового продукту  AutoML Vision. Цей сервіс дозволяє створювати моделі для розпізнавання зображень. При цьому користувач не мусить володіти знанням специфічних алгоритмів машинного навчання
17 sičnja kompanija Google ogolosyla pro zapusk aľfa-testuvannja svogo novogo produktu  AutoML Vision. Cej servis dozvoljaje stvorjuvaty modeli dlja rozpiznavannja zobražeń. Pry ćomu korystuvač ne musyť volodity znannjam specyfičnyh algorytmiv mašynnogo navčannja
Čytaty latynkoju

Спеціальні можливості

Прочитати вголос
Зупинити читання
Контрастна версія
  Основна ідея сервісу Google, полягає в тому, щоб дозволити практично будь-кому взяти свої зображення, завантажити їх у систему, імпортувати опис або створити його в додатку, а потім система Google автоматично створить для них навчену модель.Які можливості Google AutoML дає користувачу AutoML Vision являє собою програму з інтерфейсом візуального програмування. Сервіс дозволяє перетягувати елементи за допомогою миші, завантажувати колекції фотографій, проводити навчання та керувати моделями, а також розгортати їх прямо в Cloud. Як стверджують розробники, перші тести за класифікацією зображень з відкритих датасетів ImageNet і CIFAR показали більш високу ефективність порівняно з повністю готовими посередніми аналогами. Сервіс AutoML покликаний усунути ці труднощі.AutoML Vision демократизує побудову моделей і дозволяє зайнятися машинним навчанням навіть не надто просунутим розробникам. Дата офіційного релізу нового інструменти поки не розголошується. Однак розробники вже можуть подати заявку на доступ до тестування. Швидше за все, AutoML найближчим часом розширять і на інші сфери. Мається на увазі мова, переклад, відео тощо. Нагадаємо, раніше компанія оголосила про обєднання всіх своїх платіжних сервісів в 1 бренд. Відтепер здійснювати покупки за допомогою звичних усім сервісів стає ще зручніше.
Реклама 👇 Замовити

Основна ідея сервісу Google, полягає в тому, щоб дозволити практично будь-кому взяти свої зображення, завантажити їх у систему, імпортувати опис або створити його в додатку, а потім система Google автоматично створить для них навчену модель.Які можливості Google AutoML дає користувачу

AutoML Vision являє собою програму з інтерфейсом візуального програмування. Сервіс дозволяє перетягувати елементи за допомогою миші, завантажувати колекції фотографій, проводити навчання та керувати моделями, а також розгортати їх прямо в Cloud. Як стверджують розробники, перші тести за класифікацією зображень з відкритих датасетів ImageNet і CIFAR показали більш високу ефективність порівняно з повністю готовими посередніми аналогами.

AI та машинне навчання, як і раніше, є областями з високими бар'єрами входу. Вони вимагають знання і ресурсів, які небагато компаній можуть собі дозволити. Сьогодні, хоча AI й пропонує незліченні переваги для бізнесу, розробка власних моделей часто вимагає рідкісних знань і великих ресурсів.

Фей-Фей Лі, головний науковий співробітник Google з AI та ML

Сервіс AutoML покликаний усунути ці труднощі.Google спростила створення нейромереж 1AutoML Vision демократизує побудову моделей і дозволяє зайнятися машинним навчанням навіть не надто просунутим розробникам. Дата офіційного релізу нового інструменти поки не розголошується. Однак розробники вже можуть подати заявку на доступ до тестування. Швидше за все, AutoML найближчим часом розширять і на інші сфери. Мається на увазі мова, переклад, відео тощо.

Нагадаємо, раніше компанія оголосила про об’єднання всіх своїх платіжних сервісів в 1 бренд. Відтепер здійснювати покупки за допомогою звичних усім сервісів стає ще зручніше.

Джерело: TechCrunch

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Додати коментар

Такий e-mail вже зареєстровано. Скористуйтеся формою входу або введіть інший.

Ви вказали некоректні логін або пароль

Вибачте, для коментування необхідно увійти.
Ще

Повідомити про помилку

Текст, який буде надіслано нашим редакторам: