8.3 C
Брюссель
Субота, травень 4, 2024
НовиниПерспективи – і підводні камені – медичного штучного інтелекту прямують до нас

Перспективи – і підводні камені – медичного штучного інтелекту прямують до нас

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ: інформація та думки, відтворені в статтях, належать тим, хто їх висловлює, і це їхня особиста відповідальність. Публікація в The European Times означає не автоматичне схвалення погляду, а право його висловлення.

ВІДМОВА ВІД ВІДПОВІДАЛЬНОСТІ ПЕРЕКЛАДИ: Усі статті на цьому сайті опубліковано англійською мовою. Перекладені версії виконуються за допомогою автоматизованого процесу, відомого як нейронні переклади. Якщо ви сумніваєтеся, завжди посилайтеся на оригінальну статтю. Спасибі за розуміння.

Служба новин
Служба новинhttps://europeantimes.news
The European Times Новини мають на меті висвітлювати новини, які важливі для підвищення обізнаності громадян у всій географічній Європі.

Дослідники Стенфордського університету розробляють основу для інженерів, які розширюють і будують нові моделі штучного інтелекту в медицині.

Робот-асистована хірургія. Кредит зображення: فاطمه درستی через Вікіпедія, CC-BY-SA-4.0

Пацієнт лежить на операційному столі, коли хірургічна бригада заходить у глухий кут. Вони не можуть знайти розрив кишки. Хірург запитує вголос: «Перевірте, чи ми не пропустили вид якогось відділу кишківника у візуальному каналі за останні 15 хвилин».

An медичний асистент зі штучним інтелектом береться за роботу, переглядаючи минулі сканування пацієнта та висвітлюючи відеопотоки процедури в режимі реального часу. Він попереджає команду, коли вони пропустили крок у процедурі, і зачитує відповідну медичну літературу, коли хірурги стикаються з рідкісним анатомічним явищем.

Лікарі з усіх дисциплін за допомогою штучного інтелекту незабаром зможуть швидко переглядати всю медичну карту пацієнта на тлі всіх медичних даних і кожної опублікованої медичної літератури в Інтернеті. Така потенційна універсальність в кабінеті лікаря можлива лише зараз завдяки моделям ШІ останнього покоління.

«Ми бачимо зміну парадигми в галузі медичного штучного інтелекту», — сказав він Юре Лесковець, професор інформатики в Stanford Engineering. «Раніше медичні моделі штучного інтелекту могли розглядати лише дуже маленькі, вузькі частини головоломки охорони здоров’я. Зараз ми вступаємо в нову еру, де мова йде про більші частини головоломки в цій сфері високих ставок».

Дослідники Стенфордського університету та їхні співробітники описують загальний медичний штучний інтелект, або GMAI, як новий клас медичних моделей штучного інтелекту, які є обґрунтованими, гнучкими та придатними для багаторазового використання в багатьох медичних програмах і типах даних. Їхня точка зору на цей прогрес опублікована у випуску природа.

Лесковец і його співробітники розповідають про те, як GMAI інтерпретує різноманітні комбінації даних із зображень, електронних медичних записів, результатів лабораторних досліджень, геномних даних і медичних текстів, що значно перевищує можливості одночасних моделей, таких як ChatGPT. Ці моделі GMAI забезпечуватимуть усні пояснення, рекомендації, малюватимуть ескізи та коментуватимуть зображення.

«Багато неефективності та помилок, які трапляються сьогодні в медицині, виникають через гіперспеціалізацію лікарів-людей і повільний і нерівний потік інформації», — сказав один із авторів. Майкл Мур, доктор медичних наук, а зараз докторант у Стенфордському інженерному університеті. «Потенційний вплив загальних медичних моделей штучного інтелекту може бути глибоким, оскільки вони не будуть просто експертами у своїй вузькій галузі, а матимуть більше можливостей у різних спеціальностях».

Медицина без кордонів

З понад 500 моделей штучного інтелекту для клінічної медицини, схвалених FDA, більшість виконує лише одну або дві вузькі задачі, такі як сканування рентгенівського знімка грудної клітки на ознаки пневмонії. Але останні досягнення в дослідженні моделі фундаменту обіцяють вирішити більш різноманітні та складні завдання.

«Захоплюючим і новаторським є те, що загальні медичні моделі штучного інтелекту зможуть отримувати різні типи медичної інформації, наприклад, дослідження зображень, лабораторні результати та геномні дані, щоб потім виконувати завдання, які ми їм доручаємо виконувати на льоту. ", - сказав Лесковець.

«Ми очікуємо значних змін у тому, як працюватиме медичний штучний інтелект», — продовжив Мур. «Далі ми матимемо пристрої, які замість виконання одного завдання можуть виконувати, можливо, тисячу завдань, деякі з яких навіть не передбачалися під час розробки моделі».

Автори, серед яких також Ойші Банерджі та Пранав Раджпуркар з Гарвардського університету, Харлан Крумхольц з Єльського університету, Захра Шакері Хоссейн Абад з Університету Торонто та Ерік Топол з Інституту трансляційних досліджень Скріппса, описують, як GMAI може працювати з різноманітними програмами з чат-ботів. з пацієнтами, до конспектування, аж до підтримки прийняття рішень біля ліжка лікарів.

У відділенні радіології, як пропонують автори, моделі могли б складати рентгенологічні звіти, які візуально вказують на аномалії, беручи до уваги історію пацієнта. Рентгенологи могли б покращити своє розуміння випадків, спілкуючись з моделями GMAI: «Чи можете ви виділити будь-які нові ураження розсіяного склерозу, яких не було на попередньому зображенні?»

У своїй статті вчені описують додаткові вимоги та можливості, необхідні для перетворення GMAI у надійну технологію. Вони зазначають, що модель повинна використовувати всі персональні медичні дані, а також історичні медичні знання та посилатися на них лише під час взаємодії з авторизованими користувачами. Потім йому потрібно мати можливість вести розмову з пацієнтом, подібно до медсестри чи лікаря, щоб зібрати нові докази та дані або запропонувати різні плани лікування.

Занепокоєння майбутнім розвитком

У своїй дослідницькій статті співавтори розглядають наслідки моделі, здатної виконувати 1,000 медичних завдань з потенціалом для вивчення навіть більше. «Ми вважаємо, що найбільшою проблемою для загальних моделей медицини є перевірка. Як ми знаємо, що модель правильна, а не просто вигадана?» – сказав Лесковець.

Вони вказують на недоліки, які вже виявлені в мовній моделі ChatGPT. Подібним чином смішне зображення Папи Римського в дизайнерському пишному пальто, створене ШІ. «Але якщо існує сценарій з високими ставками і система штучного інтелекту вирішує питання про життя і смерть, перевірка стає дуже важливою», — сказав Мур.

Автори продовжують, що захист конфіденційності також є необхідністю. «Це величезна проблема, тому що з такими моделями, як ChatGPT і GPT-4, онлайн-спільнота вже визначила способи джейлбрейку існуючих гарантій», — сказав Мур.

«Розшифровка між даними та соціальними упередженнями також становить серйозну проблему для GMAI», — додав Лесковец. Моделі GMAI потребують здатності зосереджуватися на сигналах, які є причиною даного захворювання, та ігнорувати хибні сигнали, які корелюють лише з результатом.

Припускаючи, що розмір моделі буде тільки збільшуватися, Мур вказує на ранні дослідження, які показують, що більші моделі, як правило, демонструють більше соціальних упереджень, ніж менші моделі. «Відповідальність власників і розробників таких моделей і постачальників, особливо якщо вони розгортають їх у лікарнях, — переконатися, що ці упередження виявлені та усунені на ранній стадії», — сказав Мур.

«Сучасна технологія є багатообіцяючою, але багато чого ще не вистачає», – погоджується Лесковец. «Питання таке: чи можемо ми визначити поточні відсутні елементи, такі як перевірка фактів, розуміння упереджень і пояснення/обґрунтування відповідей, щоб ми дали програму для спільноти щодо того, як досягти прогресу для повної реалізації глибокого потенціалу GMAI? »

джерело: Стенфордський університет


Джерело посилання

- Реклама -

Більше від автора

- ЕКСКЛЮЗИВНИЙ ВМІСТ -spot_img
- Реклама -
- Реклама -
- Реклама -spot_img
- Реклама -

Must read

Останні статті

- Реклама -