Поддержать команду Зеркала
Беларусы на войне
  1. Большая сенсация на Олимпийских играх: фигурист Илья Малинин остался без медали в личном зачете
  2. Угадаете, сколько желающих? Азаренок выпустил новый фильм, который показывают в кинотеатрах, — посмотрели, как расходятся билеты
  3. Синоптики предупреждают о резком похолодании в Беларуси
  4. Всего пять шагов, пару минут вашего времени — и польская налоговая отправит «Зеркалу» деньги. Рассказываем, что нужно сделать
  5. В основной программе Мюнхенской конференции по безопасности впервые прошла дискуссия о Беларуси. Рассказываем главное
  6. «Мы слышим фразу — и не понимаем». Гендерная исследовательница о статусе Марии Колесниковой и о том, почему на ее слова такая реакция
  7. Экс-представительницу ОПК по финансам Зарецкую в Эстонии подозревают в мошенничестве на 450 тысяч евро
  8. Лукашенко «абсолютно внезапно» прибыл на военный полигон. Министра обороны об этом визите «специально» предупредили на час позже
  9. Один из самых известных беларусских актеров сменил работу и ушел от российской звезды
  10. ISW: В Беларуси испытывают новые российские дроны
  11. Стало известно, что в колонии Навального отравили сверхтоксичным ядом
  12. Зима не отступает. Прогноз погоды на предстоящую неделю


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.