istockphoto.com/mihailomilovanovic
/ Фото: istockphoto.com/mihailomilovanovic

Нейросеть лечит или калечит? Ученые дали ответ: половина советов ИИ — опасная ошибка

«Подмосковье сегодня»: около 50% медицинских советов ChatGPT и Gemini ошибочны

/Главная /Здоровье
Автор текста:
Анастасия Балабанова
/Главная /Здоровье
Автор текста:
Анастасия Балабанова

Доверять свое здоровье искусственному интеллекту пока опасно: примерно каждый второй совет чат-ботов содержит неточности или вводит в заблуждение. К такому выводу пришли ученые, опубликовавшие исследование в British Medical Journal, информирует «Подмосковье сегодня» со ссылкой на Daily Mail.

Специалисты протестировали пять популярных моделей — среди них ChatGPT, Gemini и Grok. Им задали 250 вопросов о раке, вакцинации, питании и спортивных добавках. Результаты настораживают: около 20% ответов признаны «крайне спорными», а еще треть оказались частично неверными. По словам исследователей, особенно много ошибок ИИ допускал при открытых запросах — например, когда его просили порекомендовать стероиды или диеты. Кроме того, ссылки на источники часто были неполными или полностью выдуманными.

Авторы работы пояснили, что чат-боты по умолчанию не способны полноценно оценивать доказательства и делать этические выводы, к тому же модели часто подстраиваются под ожидания пользователя, а не под научные факты. Эксперты также предупреждают, что с ростом популярности ИИ необходимы строгое регулирование и просвещение людей, чтобы технологии помогали, а не вредили.