Співзасновник компанії Microsoft, Білл Гейтс, вважає штучний інтелект доволі суперечливою технологією. Відтак, вже зовсім скоро, роботи можуть завдати нам шкоди.
На конференції Стенфордського інституту Гейтс провів аналогію між штучним інтелектом і ядерною зброєю. На його думку, люди повинні розвивати технології штучного інтелекту в мирних сферах: в освіті чи медицині. В іншому випадку нас всіх може очікувати біда.
Штучний інтелект заснований на технології нейронної мережі, яка імітує роботу людського мозку. Нині це поєднання використовується всюди: від біометричних систем ідентифікації людей до фільтрів антиспаму для електронної пошти.
Нам слід почати застосовувати штучний інтелект у мирних цілях
Як один з позитивних прикладів використання штучного інтелекту в медицині він привів роботу приватної американської біотехнологічної компанії 23andMe, яка займається аналізами генетичних даних. Використання штучного інтелекту дозволило визначити зв’язок між нестачею селену в організмі та випадками передчасних пологів у жінок в Африці.
Виступаючи на конференції, Гейтс також зазначив, що США майже втратили технологічний відрив від інших країн у сфері розробки технологій штучного інтелекту.
На його думку, вже за 10 років США може зайняти роль відсталих, оскільки провідні наукові дослідження, спрямовані на розуміння, наприклад, тих же переваг використання штучного інтелекту в областях біології і медицини проводитимуться вже не в Америці.
«Будемо чути про гучні смерті людей, які знищували Україну»: Коли Вищі сили покарають росію Відьма…
Потужна негода насувається на Україну: у яких регіонах оголосили штормове попередження Синоптики попереджають про те,…
Інвалідність оцінюватимуть за новими критеріями: правила змінять життя Уряд готує сюрприз – оцінюватимуть кожного за…
Долар та євро лихорадить по повній: банки та обмінки знову змінили курс валют Трамп почав…
Умови Кремля для припинення війни у 2025 році «Мета все та ж: підштовхування всіх сторін…
Мобілізація аспірантів: у Раді відповіли, чи матимуть вони відстрочку у 2025 році Питання надання аспірантам…
This website uses cookies.