ТЕХНОЛОГІЇ

Творці ШІ все ще роблять ті ж помилки, що й програмісти 25 років тому

Поширити:

Штучний інтелект (ШІ) пройшов довгий шлях з моменту свого створення, але все ще трапляються помилки, яких припускалися програмісти понад два десятиліття тому. Насправді одна з найбільших помилок, якої припустилися програмісти тоді, все ще допускається багатьма творцями ШІ і сьогодні. Ця помилка пов’язана зі способом навчання ШІ.

На початку розвитку штучного інтелекту програмісти створювали правила, яких мав дотримуватися штучний інтелект. Ці правила часто були дуже специфічними, і вони диктували, як ШІ поводитиметься в певних ситуаціях. Наприклад, якщо ШІ був розроблений для гри в шахи, його можна запрограмувати так, щоб він завжди рухав певну фігуру певним чином у відповідь на певні ходи супротивника.

Такий підхід досить добре працював для простих завдань, але швидко стало зрозуміло, що його не можна масштабувати. Створювати правила для кожної можливої ситуації, з якою може зіткнутися штучний інтелект, було просто непрактично. Саме тут на допомогу приходить машинне навчання.

Читайте також:  Школяр зібрав робота для гри в шахи, який принижує опонентів

Машинне навчання – це тип штучного інтелекту, який передбачає навчання ШІ на великих обсягах даних. Замість того, щоб програмувати ШІ за певними правилами, його навчають розпізнавати закономірності в даних. Наприклад, якщо ШІ навчають розпізнавати зображення котів, йому можуть показати тисячі зображень котів і сказати, які з них є котами, а які ні. З часом ШІ навчиться розпізнавати риси, спільні для всіх котів, і зможе ідентифікувати котів на нових зображеннях, яких він ніколи раніше не бачив.

Цей підхід набагато більш масштабований, ніж підхід на основі правил, але він не позбавлений власних проблем. Одна з найбільших проблем полягає в тому, що дані, на яких навчається ШІ, можуть бути упередженими. Якщо дані є упередженими, то ШІ засвоїть цю упередженість і буде відтворювати її у своїй поведінці. Наприклад, якщо ШІ навчається на зображеннях людей, і більшість людей на них білі, то він може навчитися асоціювати “людину” з “білим” і матиме труднощі з розпізнаванням людей інших рас.

Читайте також:  10-річний Samsung Galaxy S2 отримав Android 11

Це помилка, якої багато творців ШІ припускаються й досі. Вони не витрачають час на те, щоб переконатися, що дані, на яких навчається їхній ШІ, є різноманітними і репрезентативними для реального світу. Як наслідок, їхній ШІ може увічнити упередження та неточності, які були присутні в навчальних даних.

Щоб уникнути цієї помилки, творці ШІ повинні ретельно підходити до відбору навчальних даних. Вони повинні переконатися, що дані є різноманітними і репрезентативними для реального світу, а також бути обережними, щоб не привносити власні упередження в процес навчання. Таким чином, вони допоможуть забезпечити точність, неупередженість і ефективність свого ШІ у використанні за призначенням.

Насамкінець, ШІ пройшов довгий шлях з моменту свого створення, але сьогодні творці ШІ все ще припускаються помилок, яких припускалися програмісти понад два десятиліття тому. Помилка, яка полягає в тому, що дані, які використовуються для навчання ШІ, не є різноманітними і репрезентативними для реального світу, є однією з найбільших помилок, які допускаються сьогодні. Щоб уникнути цієї помилки, творці ШІ повинні ретельно підходити до відбору навчальних даних і гарантувати, що їхній ШІ буде точним, неупередженим і ефективним у своєму використанні за призначенням.

Читайте також:  Перші повністю створені ШІ ліки вступають в клінічні випробування на людях
+1
0
+1
0
+1
0
+1
0
+1
0
+1
0