Поддержать команду Зеркала
Беларусы на войне
  1. «Дело лифтера». В Могилеве задержан серийный убийца девочек и женщин, который скрывался больше 20 лет
  2. На крупных заводах тысячи вакансий. Какие зарплаты предлагают
  3. Если власти освободят Марию Колесникову, не поступит ли она так же, как Николай Статкевич? Спросили об этом ее сестру
  4. Внезапно умер один из начальников брестской милиции, который снимался в пропагандистском фильме о протестах 2010 года
  5. «Серый кардинал» демсил из, пожалуй, самой известной политической династии Беларуси. Вспоминаем историю Франака Вячорки
  6. Экс-звезда хоккейного минского «Динамо» арестован в Финляндии по подозрению в тяжком наркопреступлении
  7. «Перестало хватать ресурса». Беларусы заметили резкое ухудшение мобильной связи — им ответили в министерстве
  8. Преуменьшил угрозу, преувеличил успехи, косвенно угрожал: эксперты проанализировали выступление Путина на заседании клуба «Валдай»
  9. Чиновники продолжают «отжимать» недвижимость у уехавших за границу — очередной пример
  10. Чиновники придумали, как бороться с «тунеядцами» — наказывают их рублем (и это не коммуналка по повышенным тарифам)
  11. Стало известно, почему бизнесмен Александр Мошенский, попавший под санкции Польши, покинул свою «почетную» должность
  12. История, подобная случившемуся с матерью Екатерины Водоносовой, может коснуться многих. Как действовать в такой ситуации — советует юрист


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.