Site icon NNews

Величезна кількість лікарів вже використовують ШІ в медицині

Величезна кількість лікарів вже використовують ШІ в медицині

Кожен п’ятий лікар у Великобританії використовує генеративний штучний інтелект (GenAI), такий як ChatGPT від OpenAI або Gemini від Google, для допомоги у клінічній практиці. Про це свідчить нещодавнє опитування близько 1,000 лікарів загальної практики.

Лікарі повідомили, що використовують GenAI для створення документації після прийомів, допомоги в прийнятті клінічних рішень і надання інформації пацієнтам, наприклад, у вигляді зрозумілих виписок і планів лікування.

Враховуючи ажіотаж навколо штучного інтелекту та труднощі, з якими стикаються системи охорони здоров’я, не дивно, що як лікарі, так і політики вважають AI ключовим у модернізації та трансформації наших медичних послуг.

Але GenAI — це нове нововведення, яке фундаментально змінює уявлення про безпеку пацієнтів. Існує ще багато невідомого про GenAI, перш ніж його можна буде безпечно використовувати в щоденній клінічній практиці.

Проблеми GenAI

Традиційно програми штучного інтелекту розроблялися для виконання дуже конкретного завдання. Наприклад, нейронні мережі глибокого навчання використовували для класифікації зображень і діагностики. Такі системи ефективно аналізують мамограми для допомоги в скринінгу раку молочної залози.

Але GenAI не навчений для виконання вузько визначеного завдання. Ці технології ґрунтуються на так званих базових моделях, які мають універсальні можливості. Це означає, що вони можуть генерувати текст, пікселі, аудіо або навіть комбінацію цих елементів.

Ці можливості налаштовуються для різних застосувань — таких як відповідь на запити користувачів, створення коду або створення зображень. Можливості взаємодії з цим типом штучного інтелекту, здається, обмежуються лише уявою користувача.

Оскільки ця технологія не була розроблена для використання в конкретному контексті або для виконання конкретного завдання, ми насправді не знаємо, як лікарі можуть безпечно її використовувати. Це одна з причин, чому GenAI поки не підходить для широкого використання в охороні здоров’я.

Ще одна проблема використання GenAI в охороні здоров’я — явище «галюцинацій», добре задокументоване в науковій літературі. Галюцинації — це абсурдні або неправдиві результати на основі вхідних даних.

Галюцинації виникають, оскільки GenAI працює за принципом імовірності — наприклад, передбачаючи, яке слово йде наступним у даному контексті, а не базуючись на «розумінні» в людському сенсі. Це означає, що результати, створені GenAI, правдоподібні, але не обов’язково правдиві.

Уявіть собі, що GenAI слухає консультацію з пацієнтом і потім створює електронний звіт. З одного боку, це дозволяє лікарю чи медсестрі краще взаємодіяти з пацієнтом. Але з іншого боку, GenAI може створювати нотатки на основі того, що, на його думку, є правдоподібним.

Лікарі та медсестри повинні уважно перевіряти будь-які нотатки, створені AI, і мати відмінну пам’ять, щоб відрізнити фактичну інформацію від правдоподібної, але вигаданої.

Безпека пацієнтів

Ще одна причина, чому GenAI поки що не готовий до використання в медицині, полягає в тому, що безпека пацієнтів залежить від взаємодії з AI, щоб визначити, наскільки добре він працює в певному контексті та налаштуваннях. Такий системний підхід міг би визначити, чи є використання GenAI безпечним.

Оскільки GenAI не призначений для конкретного використання, він може адаптуватися і використовуватися у спосіб, який ми не можемо повністю передбачити. На додачу до цього, розробники регулярно оновлюють свою технологію, додаючи нові можливості, що змінюють поведінку додатку GenAI.

Джерела:

ScienceAlert – A Huge Amount of Doctors Are Already Using AI in Medical Care

Читайте оригінальну статтю.

Exit mobile version