Поддержать команду Зеркала
Беларусы на войне
  1. МВД нашло еще одно экстремистское формирование в стране
  2. «Месть — удел слабых». Виктор Бабарико дал большое интервью «Зеркалу»
  3. В одной из стран ЕС предлагают ввести новые ограничения для беларусов
  4. В Минске работали call-центры мошенников. В их офисы нагрянули силовики, задержаны 55 человек
  5. Провластный лейбл нашел новое лицо для популярного проекта. Эта девочка еще даже не окончила школу
  6. Похоже, гендиректора «Минсктранса» сняли с должности — рассказываем
  7. Прожил 25 лет, но стал классиком, написав гимн «Пагоня» в горячке, почти перед смертью. Объясняем, в чем величие Максима Богдановича
  8. Российская армия смогла захватить город на Донбассе спустя два года с начала наступления на него — что дальше
  9. «Можно себе позволить завтрак в 2 часа дня». «Бюро» выяснило подробности жизни внучки Лукашенко — от места учебы до личных отношений
  10. Беларусский вор в законе встречался с главой BYPOL и, похоже, помогал политзаключенному. Его новые планы звучат тревожно — рассказываем
  11. Огласили приговор беларуске, которую задержали на выходе из онкодиспансера
  12. Чиновники рассказали еще об одном изменении для налога, который спасал некоторых от «тунеядства»
  13. «Не волнуйтесь, все в порядке». Военком Гомельского района объяснил, что за дрон летает над городом
  14. С 1 марта введут новшество для тех, у кого есть дом или квартира. Подробности


/

При активном использовании генеративного ИИ человек меняет подход к решению задач: вместо того чтобы самостоятельно анализировать информацию, он оценивает качество предложенного ИИ ответа. Это снижает нагрузку на когнитивные способности, но и уменьшает их тренированность, утверждают ученые Университета Карнеги-Меллона и Microsoft, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik

В эксперименте участвовали 319 человек, использующих ИИ в работе не реже раза в неделю. Их попросили описать примеры применения технологий в трех сценариях:

  • создание контента (например, написание писем);
  • сбор информации (поиск данных, составление сводок);
  • консультирование (получение советов, генерация диаграмм).

После этого ученые выясняли, задействуют ли участники критическое мышление при работе с ИИ и насколько доверяют его ответам.

Около 36% участников отметили, что осознанно использовали критическое мышление, чтобы избежать ошибок, связанных с работой ИИ. Одна из респонденток призналась, что проверяла ответы ChatGPT дважды, опасаясь ошибки при аттестации. Другой участник рассказал, что редактировал черновики писем, созданных ИИ, чтобы они соответствовали корпоративной культуре.

Однако многие признали, что доверяли ответам ИИ без проверки или ограничивались сверкой с популярными источниками вроде YouTube и Википедии.

Исследование показало, что люди, уверенные в точности ответов ИИ, реже применяли критическое мышление, чем те, кто полагался на собственные знания. Это подтверждает, что чрезмерная зависимость от алгоритмов может снижать способность человека к самостоятельному анализу.

По мнению ученых, ключевая проблема — недостаточное понимание ограничений ИИ. Чтобы избежать негативных последствий, пользователи должны знать, как алгоритмы работают, и сохранять бдительность при оценке их ответов. ИИ может ускорять выполнение задач, но полностью передоверять ему процесс мышления небезопасно.