
В эпоху, когда на любой вопрос можно получить ответ за считанные секунды, все больше людей обращаются к чат-ботам с искусственным интеллектом, таким как ChatGPT, Gemini или «Яндекс.Алиса», даже с медицинскими симптомами. «Болит живот — спрошу у ИИ», «Высыпания — посмотрю, что скажет нейросеть» — такие сценарии становятся все более распространенными. Но, как предупреждают врачи, доверять этим «советам» — опасно для жизни.
«Чат-боты — не врачи. Они не несут юридической, этической или медицинской ответственности за последствия своих рекомендаций. Даже если ответ звучит убедительно, он может быть основан на устаревшей, непроверенной или просто ошибочной информации», — комментирует врач-терапевт Елена Васильева.
Главная проблема — источники данных. Обычные чат-боты обучаются на открытых текстах из интернета: форумах, блогах, новостях, вики-страницах. При этом научные исследования, клинические рекомендации и данные из авторитетных медицинских баз часто находятся за платными подписками или в закрытых системах, куда ИИ не имеет доступа.
В результате нейросеть может не отличить симптомы гастрита от рака желудка, посоветовать противопоказанный препарат, упустить из виду редкое, но опасное заболевание, дать рекомендацию, опровергнутую наукой еще 10 лет назад.
«ИИ не понимает контекста. Он не видит вашего цвета лица, не знает вашей истории болезни, не ощупывает ваш живот. Он просто подбирает слова, которые „звучат правильно“», — поясняет Васильева.
Использовать ИИ в медицине можно, но осторожно. Например, не запрещается уточнить название заболевания, найти список анализов при подозрении на какую-либо «болячку» или с помощью нейросети подготовить вопросы для врача. Но ставить себе диагноз, выбирать лечение, игнорировать визит к специалисту из-за «успокаивающего» ответа бота категорические запрещено.
Ранее REGIONS сообщал, что местный житель избавился от сильной зависимости с помощью меда.