ТЕХНОЛОГІЇ

В OpenAI попередили про відкриття ШІ, який може загрожувати людству

Поширити:

Якийсь секретний проєкт під назвою Q* міг стати однією з причин звільнення Сема Альтмана.

Напередодні вигнання генерального директора OpenAI Сема Альтмана кілька штатних дослідників компанії написали до ради директорів листа, що попереджає про відкриття потужного штучного інтелекту, який, за їхніми словами, “може загрожувати людству”. Про це з посиланням на власні джерела пише Reuters.

Саме цей лист назвали одним із факторів у довгому списку скарг ради директорів, що призвели до звільнення Альтмана. Reuters не вдалося особисто поговорити з авторами або отримати коментарі від OpenAI. Однак після такого запиту компанія у внутрішньому повідомленні співробітникам розповіла про наявність якогось проєкту під назвою Q* (вимовляється як Q-Star).

Деякі співробітники OpenAI вважають, що Q* може стати проривом у так званому загальному штучному інтелекті (AGI). OpenAI характеризує його як автономну систему, яка перевершує людей у більшості економічно цінних завдань.

Читайте також:  Пошуковик плагіату Turnitin додає ШІ-розпізнавання на тлі популярності ChatGPT

За словами одного з джерел, поки Q* виконує математичні завдання тільки на рівні учнів початкової школи, але успішне виконання таких тестів вселяє в дослідників великий оптимізм щодо перспектив його розвитку.

Головна відмінність такого ШІ в тому, що він здатний ставити цілі, ділити складні процеси на дрібні, працювати в широкому діапазоні завдань і знаходити рішення з урахуванням контексту з різних галузей. Простіше кажучи, такий інтелект у теорії може замінити висококласного фахівця, який має знання, навички та досвід.

Дослідники вважають, що математика – це передовий рубіж розвитку генеративного ШІ. Наразі він добре вміє писати і перекладати, статистично передбачаючи наступне слово, і відповіді на одне й те саме запитання можуть сильно відрізнятися. Але підкорення математики (де є тільки одна правильна відповідь) передбачає, що у ШІ будуть ширші здібності до міркування, що нагадують людський інтелект. Це можна застосувати, наприклад, до нових наукових досліджень, вважають експерти.

Читайте також:  Представлено електричний велосипед Gogoro CrossOver із запасом ходу 150 км та підвищеною прохідністю

У своєму листі до ради директорів дослідники занепокоїлися міццю ШІ та потенційною небезпекою. Вони також відзначили роботу особливої групи “вчених зі штучного інтелекту”, існування якої підтвердили й інші численні джерела. За словами одного з них, ця команда вивчає, як оптимізувати наявні моделі ШІ, щоб поліпшити їхні міркування і, зрештою, виконувати з їхньою допомогою наукову роботу.

Альтман очолив зусилля по перетворенню ChatGPT на один з найбільш швидкозростаючих програмних додатків в історії і залучив інвестиції та обчислювальні ресурси від Microsoft, необхідні для наближення такого AGI. А незадовго до свого звільнення на саміті світових лідерів у Сан-Франциско він анонсував якісь “серйозні досягнення, які вже не за горами”.

“Чотири рази за всю історію OpenAI, останній раз був тільки кілька тижнів тому, мені доводилося бути присутнім у кімнаті, коли ми нібито відсуваємо завісу невігластва і наближаємося до межі відкриттів, і робити це – професійна честь усього життя.” – Сем Альтман

Днем пізніше правління звільнило Альтмана.

Читайте також:  ChatGPT вийшов з ладу – постраждали навіть преміум-користувачі

Можливо, колись усі ці рішення і події ляжуть в основу книги, цілого фільму або навіть підручника історії.

+1
0
+1
0
+1
0
+1
0
+1
0
+1
0