Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. В деревне под Минском продали дом за рекордные 2,4 млн долларов
  2. Новый министр информации Дмитрий Жук рассказал, когда могут заблокировать YouTube в Беларуси
  3. В список «экстремистских» материалов добавили аккаунт известного беларусского путешественника, объехавшего весь мир
  4. Мошенники начали рассылать опасные «пасхальные открытки». Вот как это работает
  5. Кочанова придумала, за что еще можно наказывать беларусов
  6. Вернется снег или наконец начнется весна? Чего ждать от погоды с 13 по 19 апреля
  7. Минздрав предупредил беларусов о штрафах до 1350 рублей — за что их можно получить
  8. Переговоры между США и Ираном в Пакистане провалились, вице-президент Вэнс покинул страну
  9. «Задерживают всех, кого вчера не было». Силовики опять пришли в офис ZROBIM architects
  10. В соцсетях все еще обсуждают и тестируют на себе слабительный чудо-зефир. Но с ним надо быть осторожными — и не потому, что вы подумали
  11. В Венгрии начались парламентские выборы. Главная интрига: сохранит ли власть «Фидес» Орбана или победит «Тиса» Мадьяра?
  12. На рынке труда в Минске наблюдаются перемены. Каких работников они затрагивают


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.