Регистрация
*
*
*

Leave the field below empty!

Чатгпт может сказать: «Я не знаю». Удивительно, но это спасет подавляющее большинство пользователей


Сегодня в 14:11
на сайт, и вы сможете вступить в группу.

Чатгпт может сказать: «Я не знаю». Удивительно, но это спасет подавляющее большинство пользователей

В настоящее время мы все чаще встречаемся с системами искусственного интеллекта, которые имеют ответ почти на каждый вопрос. Они часто дают ответы, которые могут выглядеть очень убедительно, даже если они не совсем точны. Тем не менее, последняя версия AI Openai, CHATGPT-5, сделала неожиданный шаг вперед и начала использовать очень редкие слова в технологическом мире: «Я не знаю». Новый подход может быть сюрпризом для многих, но на самом деле это самая умная вещь, которую ИИ когда -либо говорил. Сообщение было принесено TalkAndroid.

В течение долгого времени мы стали свидетелями явления, называемого галлюцинацией в ИИ, где системы начали генерировать ответы, которые казались убедительными, но не были правдой. Таким образом, пользователи смогли читать не существующие исследования, цитировать вымышленные исследования или получить неправильные советы. Это явление было проблемой, потому что часто случалось, что люди не могли сказать, когда ИИ сказал правду и когда он изобрел.

Новая версия поможет

Чатгпт-5, однако, решил пойти другим путем. Вместо того, чтобы создавать неправильные ответы, он иногда решает признать, что просто не знает ответа. Важно отметить, что ИИ – это то, как ЧАТГПТ не работает так же, как человек. Он не получает знания о базах данных или поисковых системах, но предсказывает слова, основанные на формулах в огромном объеме текста. Вот почему эти модели чрезвычайно гибки, но они также могут совершать ошибки.

Chatgpt 5

Представьте, что это как восторженная викторина, которая пытается ответить на вопрос, он не знает ответа, и вместо того, чтобы признавать невежество, он думает что -то, что звучит. Эта проблема еще более сложна, так как ответы AI часто звучат очень авторитетны, хотя они могут ошибаться.

Сиара

Вы можете быть заинтересованы в:

Сиара

Признание невежества – это то, что часто воспринимается как слабость, но на самом деле это создает пространство для лучших и более точных решений. Когда ИИ говорит «Я не знаю», он позволяет пользователям отделять эффективную информацию от спекуляций. Этот шаг показывает, что истинная уверенность в ИИ происходит не от способности отвечать на все вопросы, а от его способности признать, когда нет ответа.

Вы также можете обсудить эту статью на нашем веб -сайте Androidforum. Если вы ищете ответ на проблему с вашим мобильным устройством, приложением или аксессуарами, спросите в нашем новом переднем районе.

Наш совет

Мой день с честью 400: не разочаровывайте даже в требовательных условиях

Автор публикации

Helllo, boys, boys, boys

  • Галерея пользователя
  • Гостевая пользователя

Мастер оставил отзыв:

Good looking

Расшарить

185

КОММЕНТЫ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Leave the field below empty!

Авторизация
*
*
Регистрация
*
*
*

Leave the field below empty!

Генерация пароля