Співзасновник компанії Microsoft, Білл Гейтс, вважає штучний інтелект доволі суперечливою технологією. Відтак, вже зовсім скоро, роботи можуть завдати нам шкоди.
На конференції Стенфордського інституту Гейтс провів аналогію між штучним інтелектом і ядерною зброєю. На його думку, люди повинні розвивати технології штучного інтелекту в мирних сферах: в освіті чи медицині. В іншому випадку нас всіх може очікувати біда.
Штучний інтелект заснований на технології нейронної мережі, яка імітує роботу людського мозку. Нині це поєднання використовується всюди: від біометричних систем ідентифікації людей до фільтрів антиспаму для електронної пошти.
Нам слід почати застосовувати штучний інтелект у мирних цілях
Як один з позитивних прикладів використання штучного інтелекту в медицині він привів роботу приватної американської біотехнологічної компанії 23andMe, яка займається аналізами генетичних даних. Використання штучного інтелекту дозволило визначити зв’язок між нестачею селену в організмі та випадками передчасних пологів у жінок в Африці.
Виступаючи на конференції, Гейтс також зазначив, що США майже втратили технологічний відрив від інших країн у сфері розробки технологій штучного інтелекту.
На його думку, вже за 10 років США може зайняти роль відсталих, оскільки провідні наукові дослідження, спрямовані на розуміння, наприклад, тих же переваг використання штучного інтелекту в областях біології і медицини проводитимуться вже не в Америці.
Чи буде перехід на літній час в Україні у 2025 році: всі подробиці У 2024…
На прийомі у стоматолога помер 7-річний хлопчик: деталі трагедії У Києві в приватній клініці після…
"Пенсія буде підвищена людям з цієї категорії, гроші попливуть рікою": виплати зростуть, якщо ви належете…
Потужна злива і могутній дощ хлинуть на авто і дороги, прогноз налякав самих синоптиків: куди…
"Новий курс долара в українських банках приголомшив усіх": скільки тепер коштує валюта, чи треба бігти…
"Долар різко змінив напрям руху, курс валют приголомшив усіх": що відбувається в обмінниках та чи…
This website uses cookies.