Почему опасно доверять ChatGPT вопросы здоровья: жестокая правда от терапевта
Терапевт Васильева: «Успокаивающий ответ нейросети может стоить жизни»В эпоху, когда на любой вопрос можно получить ответ за считанные секунды, все больше людей обращаются к чат-ботам с искусственным интеллектом, таким как ChatGPT, Gemini или «Яндекс.Алиса», даже с медицинскими симптомами. «Болит живот — спрошу у ИИ», «Высыпания — посмотрю, что скажет нейросеть» — такие сценарии становятся все более распространенными. Но, как предупреждают врачи, доверять этим «советам» — опасно для жизни.
Главная проблема — источники данных. Обычные чат-боты обучаются на открытых текстах из интернета: форумах, блогах, новостях, вики-страницах. При этом научные исследования, клинические рекомендации и данные из авторитетных медицинских баз часто находятся за платными подписками или в закрытых системах, куда ИИ не имеет доступа.
В результате нейросеть может не отличить симптомы гастрита от рака желудка, посоветовать противопоказанный препарат, упустить из виду редкое, но опасное заболевание, дать рекомендацию, опровергнутую наукой еще 10 лет назад.
Использовать ИИ в медицине можно, но осторожно. Например, не запрещается уточнить название заболевания, найти список анализов при подозрении на какую-либо «болячку» или с помощью нейросети подготовить вопросы для врача. Но ставить себе диагноз, выбирать лечение, игнорировать визит к специалисту из-за «успокаивающего» ответа бота категорические запрещено.
Ранее REGIONS сообщал, что местный житель избавился от сильной зависимости с помощью меда.