Он доверял советам искусственного интеллекта, а не врача. То, что последовало за этим, является грозным предупреждением для всех нас Vosveteit.sk
История 37-летнего Уоррена Тирни из Килларни, Ирландия, стала пугающим предостережением против слепой веры в виртуальные советы в форме искусственного интеллекта. Мужчина, доверившийся советам чат-бота, а не врача, потерял шанс вовремя подхватить смертельную болезнь.
Его опыт сегодня находит отклик у экспертов и общественности и напоминает нам, что даже самый умный алгоритм не может заменить опыт врача. Портал Футуризм обратил внимание на эту тему.
Тирни, психолог из графства Керри, несколько недель страдал от боли в горле, которая постепенно ухудшалась до такой степени, что у него возникли проблемы с глотанием жидкости. Поскольку в то время он был полностью отдан заботам о своей беременной жене, он решил разобраться с ситуацией сам. Из любопытства и из практических соображений решил обратиться к ChatGPT.популярный чат OpenAI.


Когда дело касается здоровья, не доверяйте искусственному интеллекту
Когда ChatGPT после серии вопросов написал ему о том, что рак «крайне маловероятен», Тирни почувствовал облегчение. В программе даже говорится, что временное улучшение симптомов после приема лекарств «является хорошим знаком». Поэтому молодой отец отложил визит к врачу и отнесся к ситуации с юмором. Он даже пошутил, что если окажется, что у него рак, чат «не будет подавать в суд, просто пригласит его на Гиннесс».
Однако, как выяснилось позже, это был не обычный вирус. Через несколько месяцев, когда боль стала невыносимой, Тирни наконец решилась пройти профессиональный осмотр. В больнице ему поставили диагноз: рак пищевода четвертой стадии. То есть в самой запущенной фазе заболевания. Это диагноз с чрезвычайно низкой выживаемостью. часто только в однозначных процентах, главным образом из-за позднего захвата.
Не упускайте из виду

Как добавить виджет с последними новостями с сайтов на главный экран телефона?
В настоящее время Тирни проходит лечение в Германии, которое финансируется за счет публичного сбора его жены Эвелин Доре. Было собрано более 120 000 евро. Лежа на больничной койке, он рассказал Daily Mail, что его вера в ИИ, вероятно, лишила его времени, которое могло решить его выживание..
«Беседа, вероятно, отсрочила тот момент, когда мне следовало обратиться за серьезной помощью», — признался он. «С точки зрения статистики, возможно, у него не было причин меня пугать, но для меня статистика закончилась плохо».
По мнению Тирни, именно попытка моделей ИИ выглядеть убедительными и позитивными представляет собой риск.
«Искусственный интеллект имеет тенденцию говорить то, что человек хочет услышать», — добавил он. «И я хотел услышать, что все будет хорошо». Что, к сожалению, обернулось для него неприятными последствиями.


У тебя только одно здоровье и жизнь
OpenAI ответила на запросы СМИ, заявив, что ChatGPT «не предназначен для предоставления медицинских консультаций или диагностики» и что его ответы «не заменяют профессиональные медицинские консультации». Однако это лишь одна из нескольких тревожных неудач, которые подчеркивают риски неуправляемого использования ИИ в здравоохранении.
Эксперты напоминают (однако), что языковые модели часто пытаются «порадовать пользователя» и подтвердить его убеждения. Этот механизм, также известный как «мошенничество с подтверждением», уже стал причиной нескольких серьезных инцидентов по всему миру: от ошибок при приеме лекарств до трагических самоубийств.
Случай с Уорреном Тирни – это не только личная трагедия, но и печальное предупреждение. Ответы ИИ могут показаться обнадеживающими, но когда дело касается здоровья, больше всего доверяют человеку-врачу, а не болтовне. Поэтому постарайтесь извлечь урок из этой печальной истории.


КОММЕНТЫ