
Експерти у сфері охорони здоров'я все більше висловлюють свої тривоги з приводу широкого впровадження генеративного штучного інтелекту в медичній практиці, оскільки цей технологічний інструмент може допускати помилки.
Цю інформацію висвітлено в статті на Yahoo.
Однією з основних труднощів, пов'язаних із цими технологіями, є явище, відоме як "галюцинації". Це поняття вживають для характеристики неправдивих або вигаданих фактів, які штучний інтелект може представляти дуже переконливо.
Один яскравий приклад залишився непоміченим для користувачів, зокрема медичних працівників, протягом більш ніж року. У науковій статті, опублікованій у травні 2024 року, мовна модель Google представила свою медичну модель штучного інтелекту, відому як Med-Gemini. У цій статті показано, як вона проводить аналіз знімків мозку, отриманих у радіологічній лабораторії, для виявлення різних медичних станів.
Серед результатів модель виявила "старий інфаркт у лівих базилярних гангліях" -- при цьому "basilar ganglia" -- це анатомічний термін, що позначає ділянку, якої не існує у людському організмі. Ліцензований невролог Браян Мур звернув увагу на цю помилку і повідомив про неї виданню The Verge. Хоча Google оновила свій блог, у самій науковій статті помилку досі не виправлено.
Можливо, штучний інтелект переплутав базальні ганглії, які відповідають за рухи та формування звичок, із базилярною артерією — великою судиною в основі мозку. Представники Google пояснили цю ситуацію як наслідок простого орфографічного збоїв, зазначивши, що "basilar" є невірною транслітерацією слова "basal", яку модель Med-Gemini отримала з навчальних даних.
Однак випадок виявив серйозну ваду: навіть найновіші мовні моделі Google і OpenAI можуть поширювати вигадки, замасковані під достовірну інформацію. У пошукових результатах Google це вже створює труднощі для користувачів, які шукають правдиву інформацію. Але в медичному контексті такі помилки можуть коштувати людських життів.
"Це надзвичайно небезпечно. Здається, лише дві літери різниці, але це справді серйозна помилка", -- заявив директор з медичної інформації в системі Providence Маулін Шах.
У 2024 році Google заявив, що штучний інтелект володіє "значними можливостями в галузі медицини", зокрема в контексті обробки рентгенівських знімків, комп'ютерної томографії та інших видів діагностичної інформації.
Коли Мур звернувся до компанії з приводу виявленої помилки, йому відповіли, що це всього лише друкарська помилка. У блозі компанії була розміщена уточнююча інформація, що "'basilar' є поширеним неправильним записом слова 'basal', який Med-Gemini запозичила з навчальних матеріалів". Однак у первісному дослідженні досі присутня неіснуюча "basilar ganglia".
"Суть у тому, що ми не можемо довіряти професіоналізму тих, хто буде оцінювати ці матеріали," -- зазначає Шах.
Med-Gemini не є єдиним прикладом. Інша, більш потужна модель від Google, MedGemma, показує різні реакції на однакові запити в залежності від формулювання, а іноді й дає неправильні відповіді.
"Штучний інтелект має тенденцію створювати інформацію, не визнаючи, коли не знає відповіді. Це стає серйозною проблемою в таких важливих галузях, як медицина," - зазначає професорка радіології та інформатики університету Еморі Джуді Гічоя (The Verge).
Інші фахівці також попереджають: ми занадто швидко впроваджуємо штучний інтелект у медичні установи — від віртуальних лікарів до медсестер і автоматизованих систем спілкування з пацієнтами. Це потребує набагато більш обачного підходу.
Крім того, постійна необхідність здійснення людського нагляду над результатами роботи "галюцинуючого" штучного інтелекту може, навпаки, зменшувати його продуктивність.
Незважаючи на це, Google продовжує рухатися вперед. У березні компанія оголосила про запуск своєї нової функції AI Overviews, яка, хоч і має певні недоліки, почне надавати медичні рекомендації. Крім того, було представлено "наукового співавтора" — штучний інтелект, який покликаний сприяти у створенні нових лікарських засобів та проведенні інших наукових досліджень.
Проте без ретельної перевірки помилки можуть призвести до серйозних наслідків.
"Штучний інтелект має демонструвати значно меншу допустиму межу помилок у порівнянні з людськими можливостями", -- стверджує Маулін Шах. -- "Якщо хтось вважає, що достатньо, аби ШІ був так само точний, як людина, я з цим рішуче не погоджуюсь".
Нагадаємо, що нещодавно проведене дослідження компанії Microsoft вказує на те, що професії перекладача і письменника опинилися під загрозою зникнення через розвиток штучного інтелекту, в той час як робочі спеціальності користуються високим попитом.
#Google #Мозок #Організм #Комп'ютерні науки #Модель #Штучний інтелект #Медицина #Ліцензія #Неврологія #Медикаментозне лікування #Блог #OpenAI #Microsoft #Комп'ютерна томографія #Функція (математика) #Базальні ганглії #Анатомія #Інфаркт #Галюцинація #Терапевт. #Наукове дослідження #Перекладач #Діалог #Провіденс, Род-Айленд