Поддержать команду Зеркала
Беларусы на войне
  1. В прошлом веке минчанин шесть месяцев прятался от властей в подвале дома в центре Минска. У него была веская причина — вот какая
  2. «Я едва узнала Сергея». Тихановская рассказала «Зеркалу», как изменился муж за годы в тюрьме, и ответила критикам его эмоций
  3. «Посмеялся над их фантазией». Поговорили с экс-менеджером крупных фармкомпаний, осужденным за донаты и освобожденным с Тихановским
  4. Трамп заявил, что у РФ могут быть территориальные амбиции за пределами Украины. В ISW перечислили признаки того, что это действительно так
  5. «Киберпартизаны»: На встречи к Мельниковой агент КГБ Лобеев летал с попутчиками-коллегами
  6. «Удивительно, как такой глупый человек мог стать премьер-министром», — сказал этот минский фотограф о кремлевском небожителе. И пожалел
  7. «Около 150 человек». В минском филиале разработчика «Мира танков» массово отравились сотрудники — рассказываем
  8. «Я уже сказал президенту Дуде, сказал пану Сикорскому». Тихановский — о своем видении, как давить на Лукашенко


Naked Science

ИИ-сервисы вроде ChatGPT и Claude могут помочь эффективнее справляться с работой, но сотрудники, использующие подобные инструменты, рискуют столкнуться с негативными последствиями. Группа американских ученых в серии экспериментов показала, что люди склонны хуже оценивать тех, кто прибегает к помощи нейросетей, считая их более ленивыми и менее старательными, пишет Naked Science.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Хотя технологии искусственного интеллекта все шире внедряются в разные сферы нашей жизни, отношение к ним бывает неоднозначным. Страх навредить своей профессиональной репутации может стать причиной нежелания сотрудников пользоваться такого рода сервисами в рабочих процессах, выяснили специалисты в области бизнеса и управления из Дьюкского университета (США). Их статью опубликовал журнал Proceedings of the National Academy of Sciences.

Исследование проходило в онлайн-формате и состояло из четырех этапов. В общей сложности в них поучаствовали почти 4500 человек.

В первом эксперименте испытуемых просили представить, что они стали пользоваться генеративными нейросетями для работы либо выполняли задачу без помощи ИИ. Затем участники отвечали на вопросы.

Судя по результатам, респонденты предпочитали не афишировать факт использования ИИ-технологий. Также применявшим ИИ казалось, что в глазах коллег и начальства они выглядят менее компетентными и добросовестными, но более ленивыми и легко заменимыми, чем сотрудники, которые обходились без такого рода инструментов.

Второй этап подтвердил, что опасения небеспочвенны. Прочитав предложенные учеными характеристики сотрудников, респонденты более негативно судили о тех, кто прибегал к помощи ИИ, ниже оценивая их трудолюбие, профессионализм, амбициозность, независимость и уверенность в себе.

В третьем эксперименте исследователи смоделировали процесс найма работников. Представив себя в роли менеджеров по кадрам, люди реже выбирали кандидатов, которые сообщали о частом использовании ИИ. Однако выяснился нюанс: среди респондентов, которые по работе сами регулярно применяли такие технологии, тенденция оказалась обратной.

Заключительный, четвертый этап показал, что предвзятость можно смягчить, если подчеркнуть пользу ИИ для выполнения тех или иных задач.

Авторы исследования добавили, что предубеждение к использованию ИИ проявлялось вне зависимости от пола, возраста и рода занятий участников. Впрочем, ученые напомнили, что людям исторически свойственно отторгать новшества и относиться к ним с недоверием.