:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80L3Bob3RvLTUzMDU1MjQwMDk3MzI2MDk0MDcteV9nSE5oSVpSLmpwZw.webp)
Нейросеть лечит или калечит? Ученые дали ответ: половина советов ИИ — опасная ошибка
«Подмосковье сегодня»: около 50% медицинских советов ChatGPT и Gemini ошибочныДоверять свое здоровье искусственному интеллекту пока опасно: примерно каждый второй совет чат-ботов содержит неточности или вводит в заблуждение. К такому выводу пришли ученые, опубликовавшие исследование в British Medical Journal, информирует «Подмосковье сегодня» со ссылкой на Daily Mail.
Специалисты протестировали пять популярных моделей — среди них ChatGPT, Gemini и Grok. Им задали 250 вопросов о раке, вакцинации, питании и спортивных добавках. Результаты настораживают: около 20% ответов признаны «крайне спорными», а еще треть оказались частично неверными. По словам исследователей, особенно много ошибок ИИ допускал при открытых запросах — например, когда его просили порекомендовать стероиды или диеты. Кроме того, ссылки на источники часто были неполными или полностью выдуманными.
Авторы работы пояснили, что чат-боты по умолчанию не способны полноценно оценивать доказательства и делать этические выводы, к тому же модели часто подстраиваются под ожидания пользователя, а не под научные факты. Эксперты также предупреждают, что с ростом популярности ИИ необходимы строгое регулирование и просвещение людей, чтобы технологии помогали, а не вредили.
:format(webp)/aHR0cHM6Ly94bi0tODBhaGNubGhzeGoueG4tLXAxYWkvbWVkaWEvbXVsdGltZWRpYS9tZWRpYWZpbGUvZmlsZS8yMDI0LzA1LzE0LzIwMjQwNDAzXzExMzQzNC5qcGc.webp)
:format(webp)/aHR0cHM6Ly94bi0tODBhaGNubGhzeGoueG4tLXAxYWkvbWVkaWEvbXVsdGltZWRpYS9tZWRpYWZpbGUvZmlsZS8yMDI0LzA0LzA5LzIwMjQwMzI4XzExMTY0OC5qcGc.webp)
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80L3Bob3RvLTIwMjYtMDQtMTAtMTAtNTMtNTEuanBn.webp)
:format(webp)/YXJ0aWNsZXMvaW1hZ2UvMjAyNi80LzIwMjYtMDQtMTItMjEyNTAwLTEuanBn.webp)