
OpenAI недавно запустила раздел, посвященный здоровью, в ChatGPT, предназначенный для обеспечения безопасной среды для обсуждения тем, связанных со здоровьем, таких как медицинская информация, заболевания и упражнения. Ключевой функцией, о которой было объявлено, является ее способность анализировать данные из приложений для здоровья, таких как Apple Health, MyFitnessPal и Peloton, для выявления закономерностей с течением времени и предоставления индивидуальной обратной связи. Но новый отчет указывает на то, что OpenAI могла преувеличить, насколько хорошо эта функция на самом деле работает, предоставляя точную и надежную информацию.
"Рынок красный? Это просто сезон скидок для умных инвесторов." - так говорят, чтобы не плакать. У нас — аналитика, которая помогает плакать реже.
Найти недооцененные активыПервоначальные тесты, проведенные журналистом Washington Post Джеффри А. Фаулером, показали, что когда ему предоставили десять лет его данных Apple Health, чат-бот ChatGPT Health поставил его сердечно-сосудистому здоровью неудовлетворительную оценку. Однако кардиолог, который просмотрел результаты, заявил, что эта оценка была неточной и что фактический риск сердечных заболеваний у Фаулера был очень низким.
Я читал оценку доктора Эрика TopMob из Scripps Research, и он был довольно прямолинеен в отношении ChatGPT Health. Он не думает, что она готова давать медицинские советы, главным образом потому, что, кажется, она слишком сильно полагается на данные со смарт-часов, которые не всегда точны. В частности, он отметил, что оценки ChatGPT в значительной степени использовали оценки таких показателей, как VO2 max и вариабельность сердечного ритма, полученные с Apple Watch. Проблема в том, что эти измерения не идеальны — они могут быть неверными в зависимости от устройства и даже версии программного обеспечения. Оказывается, исследования показали, что показания VO2 max с Apple Watch часто ниже, чем они должны быть, но ChatGPT все равно интерпретировал их как признаки потенциальных проблем со здоровьем.
ChatGPT Health выставил разные оценки одним и тем же данным.
Проблемы продолжались. При повторном тестировании с одной и той же информацией, ChatGPT Health давал непоследовательные оценки, варьирующиеся от неудовлетворительной до B. Иногда он упускал из виду недавние результаты анализов крови и даже забывал основные детали, такие как возраст и пол заявителя. Claude for Healthcare от Anthropic, новый конкурент, продемонстрировал аналогичные проблемы, с оценками, варьирующимися между C и B минус.
OpenAI и Anthropic оба подчеркивают, что их инструменты искусственного интеллекта не являются заменой медицинским специалистам и должны предлагать только общую информацию. Однако мы обнаружили, что оба чат-бота давали очень уверенные и индивидуальные оценки здоровья сердца. Эта смесь кажущейся экспертности и потенциальной неточности может беспокоить здоровых людей или давать ложное чувство безопасности тем, кто не здоров. Хотя ИИ обладает потенциалом для анализа долгосрочных данных о здоровье полезными способами, первоначальные тесты показывают, что предоставление этим инструментам данных отслеживания физической формы за годы в настоящее время приводит к большему замешательству, чем к пониманию.
Смотрите также
- Правда о курсе доллар к вьетнамскому донгу: что нас ждет через неделю?
- Обзор TCL 65C8K
- Я сделал обзор OnePlus Nord 4 и обнаружил кое-что удивительное.
- 7 лучших чехлов для Apple iPhone 16 Pro Max 2024 года
- 5 лучших чехлов, которые обязательно нужно приобрести для Samsung Galaxy S25 Plus в 2025 году!
- Обзор Bluetooth-наушников QCY H3S ANC: Шок и трепет
- Как создать смарт-папку на Mac
- Хит Apple TV с Харрисоном Фордом и Майклом Дж. Фоксом возвращается к редкой идеальной оценке на Rotten Tomatoes.
- NVIDIA хочет, чтобы геймеры выбирали подходящий пресет модели DLSS 4.5 для своей RTX GPU.
- Обзор смарт-телевизора Sony Bravia XR A80L OLED 4K
2026-01-27 13:58