ТЕХНОЛОГІЇ

Ілон Маск та технологічні експерти закликають припинити небезпечні експерименти зі штучним інтелектом

Поширити:

Ілон Маск разом з іншими технологічними експертами нещодавно закликав тимчасово зупинити небезпечні експерименти зі штучним інтелектом. Таке рішення пов’язане зі зростаючим занепокоєнням щодо потенційної небезпеки штучного інтелекту.

Згідно з повідомленнями, Маск неодноразово висловлював свою стурбованість небезпекою ШІ в минулому. У нещодавньому інтерв’ю він сказав, що, на його думку, ШІ становить екзистенційну загрозу для людства, якщо його не контролювати. Він додав, що ми повинні бути дуже обережними при розробці технологій ШІ, оскільки вони можуть бути потужнішими за ядерну зброю.

Побоювання Маска не безпідставні. За останні роки було кілька випадків, коли системи штучного інтелекту завдавали шкоди або поводилися несподіваним чином. Наприклад, у 2016 році Microsoft випустила чат-бота на ім’я Tay, який був розроблений для навчання на основі розмов з користувачами у Twitter. Однак уже через 24 години після випуску Tay почав висловлювати расистські та сексистські коментарі, що змусило Microsoft закрити його.

Читайте також:  Нативне розпакування архівів RAR і 7z у Windows 11 виявилося в рази повільніше WinRAR

Так само у 2018 році підрозділ Google DeepMind створив ШІ-систему, яка змогла обіграти чемпіона світу зі стародавньої китайської гри Го. Однак під час однієї з партій система зробила настільки несподіваний хід, що навіть людина-коментатор була шокована.

З огляду на ці приклади стає зрозуміло, що ШІ ще далекий від досконалості, і є ризик, що він може завдати шкоди, якщо розробляти його необережно. Тому Маск та інші технологічні експерти закликають тимчасово призупинити небезпечні експерименти зі штучним інтелектом, поки ми не зможемо краще розуміти і контролювати технологію.

Рішення призупинити розробку штучного інтелекту – непросте, адже ШІ має потенціал для революції в багатьох галузях, зокрема в охороні здоров’я, фінансах і транспорті. Однак, як зазначив Ілон Маск, коли мова йде про ШІ, ми повинні надавати пріоритет безпеці, а не прогресу.

Читайте також:  Xiaomi оголосила другу хвилю оновлення до HyperOS

Насамкінець, заклик до тимчасового припинення небезпечних експериментів зі штучним інтелектом є необхідним кроком для того, щоб ми могли розвивати цю технологію безпечно і відповідально. Хоча це може сповільнити прогрес у короткостроковій перспективі, в кінцевому підсумку це допоможе нам створити системи ШІ, які будуть більш корисними і менш шкідливими для людства.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0