Поддержать команду Зеркала
Беларусы на войне
  1. ГУБОПиК случайно раскрыл новую базу «политических», по которой проверяет беларусов. Вот что о ней узнало «Зеркало»
  2. «Однозначно установить запрет на использование». Нацбанк объявил, что хочет ввести очередное ограничение — какое на этот раз
  3. Новые санкции окажут дополнительное влияние на российскую экономику, которая и так с трудом справляется с вызовами войны — ISW
  4. Люди танцевали, не подозревая о нависшей над ними смерти. Одна из крупнейших инженерных катастроф убила 114 человек — вот ее история
  5. Евросоюз согласовал 18-й пакет санкций против России и Беларуси
  6. Силовики расширили географию поиска участников протестов 2020 года. Их интересуют выходившие на марши в еще одном городе
  7. Санкции ЕС против Беларуси: Эмбарго на импорт вооружений, четыре банка и восемь предприятий ВПК — «в бан»
  8. «А мне воняет не гарью, а кошачьим туалетом». Беларусы возмущаются, что пакеты в магазинах неприятно пахнут. Объясняем почему
  9. Мобильные операторы вводят изменения. Клиентам дали несколько дней, чтобы перейти на новые услуги
  10. На БелАЭС сработала сигнализация — второй энергоблок отключили от сети
  11. Из России приходят новости, которые способны ударить по валютному рынку Беларуси. Но это далеко не все возможные проблемы для Минска
  12. Поймали таинственного зверя, пугавшего жителей Сеницы и Прилук
  13. «Почему он у вас с наручниками не ходит». На совещании у Лукашенко произошла перепалка с участием чиновников и самого Лукашенко


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.