None
Brief news summary
NoneВ начале июня Аманда Клейпул столкнулась с неприятными трудностями при поиске работы в ресторане быстрого питания в г. Ашевилле( Северная Каролина). Проблемы, с которыми она столкнулась, были связаны с глюками рекрутеров в чате. Например, рекрутер McDonald's" Оливия" сначала пригласила Клейпула на личное собеседование, но не смогла его назначить из- за технических проблем. Боту AWendy's удалось назначить собеседование, но, к сожалению, оно было связано с работой, которую он не смог выполнить. В итоге Клэйпул нашла работу в другом месте, но описала этот опыт как излишне сложный. В здравоохранении, розничной торговле и ресторанном бизнесе все чаще используются HR- чатботы, подобные тем, с которыми столкнулась Клэйпул, для отбора кандидатов и планирования собеседований с потенциальными кандидатами. Такие компании, как McDonald's, Wendy's, CVSHealth и Lowes, используют чат- бота Olivia, разработанногоAI- стартапом Paradox стоимостью 1, 5 млрд. долл. Аналогичным образом L'Oreal использует чат- бота Mya, разработанного одноименным стартапом из Сан- Франциско. Несмотря на то, что эти чат- боты в первую очередь подбирают сотрудников на такие объемные вакансии, как кассиры, работники склада и ассистенты по обслуживанию клиентов, опыт Клэйпула свидетельствует о случайных сбоях и отсутствии человеческой поддержки при возникновении проблем. Кроме того, прямолинейные ответы, которые требуют многие из этих чат- ботов, могут привести к автоматическому отклонению квалифицированных кандидатов, которые могут не ответить в том ключе, которого ожидает этот языковой режим, Эксперты опасаются, что такие боты, как Olivia и Myam, могут не предоставить разумных альтернатив по предоставлению работы или ролей людям с ограниченными возможностями и медицинскими показаниями.
Использование объективных данных в процессе обучения вызывает опасения по поводу возможной дискриминации. Например, если чат- боты анализируют времена, грамматику или сложность предложений, они могут внести предвзятость в процесс принятия решений. Однако выявление такой предвзятости становится сложной задачей, поскольку компании не раскрывают причины отказа кандидатам. Для решения этих проблем были приняты законодательные меры, направленные на мониторинг и регулирование автоматизма в инструментах найма. Например, в Нью- Йорке недавно был принят закон, требующий от работодателей использовать автоматизированные инструменты, такие как сканеры резюме и чатбот- интервью, для проверки гендерной и расовой предвзятости. Кроме того, некоторые компании прибегают к методам отбора по личностным тестам, которые могут не иметь прямого отношения к самой работе. В результате тестов кандидаты могут быть отсеяны на основании таких качеств, как благодарность и личные качества, а не навыков, связанных с работой. Несмотря на опасения, агентства по скринингу с использованием искусственного интеллекта предлагают привлекательный вариант для компаний, стремящихся оптимизировать процесс подбора персонала и сократить расходы. Используя технологии, основанные на использовании искусственного интеллекта, отделы кадров могут более эффективно обрабатывать большой пул кандидатов. Однако важно отметить, что многие специалисты не рекомендуют полностью полагаться наAI при принятии решений. кандидатов аккуратно и справедливо.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you