Выбор города
Введите название вашего города или выберите из списка:
  • Главная страница
  • Балашиха
  • Бронницы
  • Видное
  • Волоколамск
  • Воскресенск
  • Дмитров
  • Долгопрудный
  • Домодедово
  • Дубна
  • Егорьевск
  • Жуковский
  • Зарайск
  • Истра
  • Кашира
  • Клин
  • Коломна
  • Королев
  • Котельники
  • Красногорск
  • Лобня
  • Лосино-Петровский
  • Лотошино
  • Луховицы
  • Лыткарино
  • Люберцы
  • Можайск
  • Мытищи
  • Наро-Фоминск
  • Ногинск
  • Одинцово
  • Орехово-Зуево
  • Павловский Посад
  • Подольск
  • Пушкино
  • Раменское
  • Реутов
  • Руза
  • Сергиев Посад
  • Серебряные Пруды
  • Серпухов
  • Солнечногорск
  • Ступино
  • Талдом
  • Фрязино
  • Химки
  • Черноголовка
  • Чехов
  • Шатура
  • Шаховская
  • Щелково
  • Электросталь

Ваш город ?

Ваш город ?

Почему опасно доверять ChatGPT вопросы здоровья: жестокая правда от терапевта

Терапевт Васильева: «Успокаивающий ответ нейросети может стоить жизни»

Почему опасно доверять ChatGPT вопросы здоровья: жестокая правда от терапевта

Фото: istockphoto.com/Elena Pereluybskaya
Автор: Дарья Кургузова
29 октября в 15:33

В эпоху, когда на любой вопрос можно получить ответ за считанные секунды, все больше людей обращаются к чат-ботам с искусственным интеллектом, таким как ChatGPT, Gemini или «Яндекс.Алиса», даже с медицинскими симптомами. «Болит живот — спрошу у ИИ», «Высыпания — посмотрю, что скажет нейросеть» — такие сценарии становятся все более распространенными. Но, как предупреждают врачи, доверять этим «советам» — опасно для жизни.

«Чат-боты — не врачи. Они не несут юридической, этической или медицинской ответственности за последствия своих рекомендаций. Даже если ответ звучит убедительно, он может быть основан на устаревшей, непроверенной или просто ошибочной информации», — комментирует врач-терапевт Елена Васильева.

Главная проблема — источники данных. Обычные чат-боты обучаются на открытых текстах из интернета: форумах, блогах, новостях, вики-страницах. При этом научные исследования, клинические рекомендации и данные из авторитетных медицинских баз часто находятся за платными подписками или в закрытых системах, куда ИИ не имеет доступа.

Фото: istockphoto.com/Tippapatt
Фото: istockphoto.com/Tippapatt

В результате нейросеть может не отличить симптомы гастрита от рака желудка, посоветовать противопоказанный препарат, упустить из виду редкое, но опасное заболевание, дать рекомендацию, опровергнутую наукой еще 10 лет назад.

«ИИ не понимает контекста. Он не видит вашего цвета лица, не знает вашей истории болезни, не ощупывает ваш живот. Он просто подбирает слова, которые „звучат правильно“», — поясняет Васильева.

Использовать ИИ в медицине можно, но осторожно. Например, не запрещается уточнить название заболевания, найти список анализов при подозрении на какую-либо «болячку» или с помощью нейросети подготовить вопросы для врача. Но ставить себе диагноз, выбирать лечение, игнорировать визит к специалисту из-за «успокаивающего» ответа бота категорические запрещено.

Ранее REGIONS сообщал, что местный житель избавился от сильной зависимости с помощью меда.

Для улучшения работы и сбора статистических данных сайта собираются данные, используя файлы cookies и метрические программы. Продолжая работу с сайтом, Вы даете свое согласие на обработку персональных данных.

Файлы соокіе можно отключить в настройках Вашего браузера.

Подписывайтесь на нас!

Читайте больше крутых историй и новостей в наших социальных сетях.