ТЕХНОЛОГІЇ

“Хрещений батько штучного інтелекту” Google попереджає про небезпеку технологій

Поширити:

“Хрещений батько” штучного інтелекту Google пішов зі своєї посади, щоб попередити про небезпеки технологій.

Самвел Таваджян, відомий також як “батько-засновник” Google Brain, заявив, що покидає посаду в компанії з метою попередження про небезпеки, пов’язані з розвитком штучного інтелекту.

У своєму інтерв’ю журналу MIT Technology Review, Таваджян наголосив, що “технологія не є ні доброю, ні поганою, але так, як ми її зараз розробляємо, може стати небезпечною”.

Таваджян, який працював у Google більше десяти років, стверджує, що має на увазі потенційні загрози, пов’язані з технологіями штучного інтелекту, такі як автономні збройні системи та вплив на громадську думку.

Таваджян не вважає, що технологію слід забороняти, але стверджує, що потрібно знати про можливі негативні наслідки та бути готовими до них.

“Я не вважаю, що нам потрібно відмовлятися від технології. Я вважаю, що нам потрібно відкрито говорити про можливі наслідки та взагалі про те, яку технологію ми розробляємо”, – зазначив Таваджян.

Таваджян також закликав компанії, які розробляють технології штучного інтелекту, звернути увагу на соціальну відповідальність та використовувати етичний підхід до своєї діяльності.

Читайте також:  RAM II — український дрон-камікадзе, що знищив російської техніки на мільярди: що про нього відомо

Таваджян не єдиний хто відчуває небезпеку, пов’язану з розвитком штучного інтелекту. Раніше керівник Tesla Ілон Маск наголошував на необхідності регулювання розробки і використання технологій штучного інтелекту, зміцнюючи, що вони можуть стати “найбільшою загрозою для цивілізації”. Також інші дослідники та експерти в області штучного інтелекту висловлюють свої стурбованості та закликають до розумного підходу до розвитку цієї технології.

Таваджян вважає, що головна небезпека полягає в тому, що люди можуть віддати повну владу технології, і тоді вона може стати засобом для контролю та маніпулювання людьми. Він відзначає, що це вже відбувається у багатьох сферах, наприклад, у рекламі та політиці, і це може призвести до серйозних наслідків.

“Технологія – це інструмент, і якщо вона використовується правильно, то вона може стати потужним засобом для досягнення добра. Але якщо вона використовується неправильно, то може стати великою загрозою”, – зазначив Таваджян.

Таваджян зараз працює над новою книгою, в якій описує свої стурбованості та небезпеки, пов’язані з розвитком технологій штучного інтелекту. Він також проводить лекції та виступає на конференціях з метою привернути увагу до цієї проблеми та залучити більше людей до обговорення цього питання.

Читайте також:  Ця безкоштовна модель ШІ може генерувати аудіо-зразки на основі текстових підказок

У світі, де технології швидко розвиваються та стають все більш інтегральною частиною нашого життя, стурбованість експертів щодо їхніх можливих наслідків є дуже важливою. Нам потрібно розуміти, що технологія – це не просто інструмент, а щось, що може серйозно вплинути на наше життя, наші цінності та нашу культуру. Тому потрібно ретельно вивчати та обговорювати можливі наслідки розвитку штучного інтелекту, а також розробляти етичні стандарти для його використання.

На щастя, у світі існують багато дослідників та експертів, які працюють над розвитком штучного інтелекту з розумінням його потенційних ризиків та небезпек. Вони розвивають нові технології, що дозволяють зменшувати ризики, пов’язані з використанням штучного інтелекту.

Також потрібно звернути увагу на освіту в галузі штучного інтелекту. Люди повинні розуміти, як працює ця технологія та як її можна використовувати в етичний спосіб. Навчання людей, як працювати з штучним інтелектом, може допомогти зменшити ризики, пов’язані з неправильним використанням цієї технології.

Читайте також:  Google створив інструмент SynthID — вшитий водяний знак проти ШІ-згенерованих зображень
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0