Величезна кількість лікарів вже використовують ШІ в медицині

Величезна кількість лікарів вже використовують ШІ в медицині

Кожен п’ятий лікар у Великобританії використовує генеративний штучний інтелект (GenAI), такий як ChatGPT від OpenAI або Gemini від Google, для допомоги у клінічній практиці. Про це свідчить нещодавнє опитування близько 1,000 лікарів загальної практики.

Лікарі повідомили, що використовують GenAI для створення документації після прийомів, допомоги в прийнятті клінічних рішень і надання інформації пацієнтам, наприклад, у вигляді зрозумілих виписок і планів лікування.

Враховуючи ажіотаж навколо штучного інтелекту та труднощі, з якими стикаються системи охорони здоров’я, не дивно, що як лікарі, так і політики вважають AI ключовим у модернізації та трансформації наших медичних послуг.

Але GenAI — це нове нововведення, яке фундаментально змінює уявлення про безпеку пацієнтів. Існує ще багато невідомого про GenAI, перш ніж його можна буде безпечно використовувати в щоденній клінічній практиці.

Проблеми GenAI

Традиційно програми штучного інтелекту розроблялися для виконання дуже конкретного завдання. Наприклад, нейронні мережі глибокого навчання використовували для класифікації зображень і діагностики. Такі системи ефективно аналізують мамограми для допомоги в скринінгу раку молочної залози.

Читайте також:  У США будинок подружжя охороняє сторожовий півень на прізвисько Фред

Але GenAI не навчений для виконання вузько визначеного завдання. Ці технології ґрунтуються на так званих базових моделях, які мають універсальні можливості. Це означає, що вони можуть генерувати текст, пікселі, аудіо або навіть комбінацію цих елементів.

Ці можливості налаштовуються для різних застосувань — таких як відповідь на запити користувачів, створення коду або створення зображень. Можливості взаємодії з цим типом штучного інтелекту, здається, обмежуються лише уявою користувача.

Оскільки ця технологія не була розроблена для використання в конкретному контексті або для виконання конкретного завдання, ми насправді не знаємо, як лікарі можуть безпечно її використовувати. Це одна з причин, чому GenAI поки не підходить для широкого використання в охороні здоров’я.

Ще одна проблема використання GenAI в охороні здоров’я — явище «галюцинацій», добре задокументоване в науковій літературі. Галюцинації — це абсурдні або неправдиві результати на основі вхідних даних.

Читайте також:  Експерти попереджають про смертельні ризики, від масок для підводного плавання

Галюцинації виникають, оскільки GenAI працює за принципом імовірності — наприклад, передбачаючи, яке слово йде наступним у даному контексті, а не базуючись на «розумінні» в людському сенсі. Це означає, що результати, створені GenAI, правдоподібні, але не обов’язково правдиві.

Уявіть собі, що GenAI слухає консультацію з пацієнтом і потім створює електронний звіт. З одного боку, це дозволяє лікарю чи медсестрі краще взаємодіяти з пацієнтом. Але з іншого боку, GenAI може створювати нотатки на основі того, що, на його думку, є правдоподібним.

Лікарі та медсестри повинні уважно перевіряти будь-які нотатки, створені AI, і мати відмінну пам’ять, щоб відрізнити фактичну інформацію від правдоподібної, але вигаданої.

Безпека пацієнтів

Ще одна причина, чому GenAI поки що не готовий до використання в медицині, полягає в тому, що безпека пацієнтів залежить від взаємодії з AI, щоб визначити, наскільки добре він працює в певному контексті та налаштуваннях. Такий системний підхід міг би визначити, чи є використання GenAI безпечним.

Читайте також:  У Німеччині "відьми" ошукали росіянок на 33 тисячі євро

Оскільки GenAI не призначений для конкретного використання, він може адаптуватися і використовуватися у спосіб, який ми не можемо повністю передбачити. На додачу до цього, розробники регулярно оновлюють свою технологію, додаючи нові можливості, що змінюють поведінку додатку GenAI.

Джерела:

ScienceAlert – A Huge Amount of Doctors Are Already Using AI in Medical Care

Читайте оригінальну статтю.