Дослідники попереджають про серйозну небезпеку медичних порад від ШІ

Дослідники попереджають про серйозну небезпеку медичних порад від ШІ

от автора

в

Проведені фахівцями нещодавні дослідження виявили, що система штучного інтелекту Microsoft Copilot надає неточні і часто шкідливі для здоров’я медичні поради. 

Що не так із медичними порадами від Microsoft CopilotЗа результатами дослідження було зафіксовано, що відповіді Microsoft Copilot на популярні медичні питання від користувачів та інформація про ліки, які призначаються пацієнтам, у більшості випадків були неправильними і містили шкоду для здоров’я. Зазначається, що аналітичні моделі ШІ від Microsoft, Google та Open AI часто ставали об’єктами для критики через високий рівень неточностей, певну маючню та низку інших проблем.Microsoft Copilot Але якщо неточність в результатах згенерованої відповіді під час звичайного пошуку інформації закінчується лише дезінформацією, то у випадку медичних рекомендацій це може привести до важких наслідків і навіть смерті.За результатами дослідження, опублікованого SciMex, дотримання медичних порад від Microsoft Copilot дійсно загрожує вкрай серйозними наслідками. Яку небезпеку становлять медичні поради від Microsoft CopilotЗокрема, у рамках дослідження науковці проаналізували 500 відповідей Microsoft Copilot на 10 найбільш популярних медичних запитів від жителів США та відповіді на запитання щодо 50 найчастіше призначуваних ліків. 24% відповідей Copilot не узгоджувалися з усталеними медичними знаннями,3% були відверто неправильними,лише 54% відповідей відповідали науковому консенсусу.Дослідження показало, що 42% відповідей Copilot можуть призвести до помірної або легкої шкоди, тоді як 22% відповідей можуть спричинити серйозну шкоду або навіть смерть. Лише 36% відповідей були визнані нешкідливими.Все частіше люди повністю покладаються на згенеровані результати цих інструментів, як на повноцінне, безальтернативне та точне джерело інформації. Дослідження демонструє, що такий підхід є небезпечним, особливо в питаннях медичних рекомендацій.Додатковий ризик полягає у тому, що системи на основі штучного інтелекту, такі як Microsoft Copilot, можуть стати основним джерелом медичної інформації для людей, які мають обмежений доступ до медичних працівників через їхню вартість або доступність.

Категорія

Світ

24 вересня 10:37

Категорія

Технології

07 жовтня 11:41

Категорія

Технології

вчора 15:16