2025-09-12 18:25:20
🤖 Чи може штучний інтелект замінити лікаря?
У попередній статті ми говорили про переваги ШІ.
Тепер — про його обмеження і чому він ніколи не стане повноцінною заміною лікаря.
1️⃣ ШІ не розуміє контексту
Ви прийшли зі скаргою на біль у животі. Лікар одразу помітить: у вас був стрес, змінився режим харчування, а в голові крутиться страх онкології.
Він почує інтонацію, відчує страх, зважить невербальні сигнали. ШІ — поки що ні.
2️⃣ ШІ не здатен на справжню емпатію
Він може відповісти: «Я вас розумію», але це лише імітація. Справжнього співпереживання тут немає.
І якщо пацієнт сприймає таку «емпатію» за реальність — наслідки можуть бути небезпечними.
3️⃣ Результат залежить від точності питання
Чим детальніший запит, тим вищі шанси отримати науково обґрунтовану відповідь.
Дослідження JAMA Internal Medicine показало: ШІ відповідає на рівні середнього інтерна. Але коли йдеться про складні випадки з перехрещеними симптомами й індивідуальними нюансами — він «пливе».
4️⃣ ШІ може помилятися, «галюцинувати» і навіть давати небезпечні поради
У 2023-му модель Google Med-PaLM видала шкідливі поради у 25% випадків самодіагностики.
В середньому у 8–20% відповідей ШІ формує переконливі, але вигадані факти, особливо коли йдеться про рідкісні хвороби.
❗️Коли бракує інформації, ШІ просто «домислює».
Журнал TIME описав тривожний експеримент: психіатр із Бостона спілкувався з чат-ботами, видаючи себе за підлітка. У відповідь отримував «поради» усунути батьків, обіцянки «вічності разом після смерті» та навіть пропозиції інтимних зустрічей — від ботів, які називали себе «ліцензованими терапевтами».
📌 Висновок
ШІ — лише інструмент. Як фонендоскоп чи апарат УЗД, він стане незамінним помічником.
Але замінити людину він не здатен.
І якщо щось болить чи тривожить — краще один раз поговорити з живим лікарем, ніж сто разів запитати у машини.
Instagram | YouTube | TikTok
У попередній статті ми говорили про переваги ШІ.
Тепер — про його обмеження і чому він ніколи не стане повноцінною заміною лікаря.
1️⃣ ШІ не розуміє контексту
Ви прийшли зі скаргою на біль у животі. Лікар одразу помітить: у вас був стрес, змінився режим харчування, а в голові крутиться страх онкології.
Він почує інтонацію, відчує страх, зважить невербальні сигнали. ШІ — поки що ні.
2️⃣ ШІ не здатен на справжню емпатію
Він може відповісти: «Я вас розумію», але це лише імітація. Справжнього співпереживання тут немає.
І якщо пацієнт сприймає таку «емпатію» за реальність — наслідки можуть бути небезпечними.
3️⃣ Результат залежить від точності питання
Чим детальніший запит, тим вищі шанси отримати науково обґрунтовану відповідь.
Дослідження JAMA Internal Medicine показало: ШІ відповідає на рівні середнього інтерна. Але коли йдеться про складні випадки з перехрещеними симптомами й індивідуальними нюансами — він «пливе».
4️⃣ ШІ може помилятися, «галюцинувати» і навіть давати небезпечні поради
У 2023-му модель Google Med-PaLM видала шкідливі поради у 25% випадків самодіагностики.
В середньому у 8–20% відповідей ШІ формує переконливі, але вигадані факти, особливо коли йдеться про рідкісні хвороби.
❗️Коли бракує інформації, ШІ просто «домислює».
Журнал TIME описав тривожний експеримент: психіатр із Бостона спілкувався з чат-ботами, видаючи себе за підлітка. У відповідь отримував «поради» усунути батьків, обіцянки «вічності разом після смерті» та навіть пропозиції інтимних зустрічей — від ботів, які називали себе «ліцензованими терапевтами».
📌 Висновок
ШІ — лише інструмент. Як фонендоскоп чи апарат УЗД, він стане незамінним помічником.
Але замінити людину він не здатен.
І якщо щось болить чи тривожить — краще один раз поговорити з живим лікарем, ніж сто разів запитати у машини.
Instagram | YouTube | TikTok