.

Сделать репост в соц сети!

суббота, 16 сентября 2023 г.

Использование HR-аналитики для создания справедливого рабочего места

Перевод статьи Using People Analytics to Build an Equitable Workplace

ПРИГЛАШАЮ ОТСЛЕЖИВАТЬ НАС В ТЕЛЕГРАМ КАНАЛЕ


Использование HR-аналитики для создания справедливого рабочего места



Автоматизация приходит в HR. Автоматизируя сбор и анализ больших наборов данных, искусственный интеллект и другие аналитические инструменты обещают улучшить каждый этап HR-процесса: от найма и вознаграждения до продвижения по службе, обучения и оценки. Однако эти системы могут отражать исторические предубеждения и дискриминировать по признаку расы, пола и класса. Менеджеры должны учитывать, что 1) модели, скорее всего, будут работать лучше всего в отношении людей из большинства демографических групп, но хуже в отношении менее хорошо представленных групп; 2) не существует такой вещи, как по-настоящему «слепая к расовой принадлежности» или «слепая к гендерному признаку», и явное исключение расы или пола из модели может даже усугубить ситуацию; и 3) если демографические категории распределены в вашей организации неравномерно (а в большинстве случаев это не так), даже тщательно построенные модели не приведут к равным результатам среди групп.


HR-аналитика, применение научных и статистических методов к поведенческим данным, берет свое начало от классической книги Фредерика Уинслоу Тейлора «Принципы научного управления» 1911 года, в которой стремились применить инженерные методы к управлению людьми. Но только столетие спустя — после достижений в области вычислительной мощности, статистических методов и особенно искусственного интеллекта (ИИ) — эта область по-настоящему приобрела мощь, глубину и широкое применение, особенно, но не только, в сфере управления персоналом. (HR) менеджмент. Автоматизируя сбор и анализ больших наборов данных, искусственный интеллект и другие аналитические инструменты обещают улучшить каждый этап HR-процесса: от найма и вознаграждения до продвижения по службе, обучения и оценки.

Теперь алгоритмы используются, чтобы помочь менеджерам измерять производительность и принимать важные решения при найме, компенсации, продвижении по службе и возможностях обучения — все это может изменить жизнь сотрудников. Фирмы используют эту технологию для выявления и устранения разрыва в оплате труда по признаку пола, расы или других важных демографических категорий. HR-специалисты регулярно используют инструменты на базе искусственного интеллекта для проверки резюме, чтобы сэкономить время, повысить точность и выявить скрытые закономерности в квалификации, которые связаны с лучшей (или худшей) производительностью в будущем. Модели на основе искусственного интеллекта можно даже использовать, чтобы предположить, кто из сотрудников может уволиться в ближайшем будущем.

И все же, несмотря на всю многообещаемость инструментов HR-аналитики, они также могут серьезно сбить с пути менеджеров.

Amazon пришлось отказаться от инструмента проверки резюме, созданного ее инженерами, поскольку он был предвзятым в отношении женщин. Или возьмем LinkedIn, который используется профессионалами по всему миру для налаживания связей и поиска работы, а также специалистами по персоналу для найма персонала. Было обнаружено, что функция автозаполнения панели поиска платформы предлагает заменить женские имена, такие как «Стефани», на мужские имена, такие как «Стивен». Наконец, что касается набора персонала, реклама в социальных сетях о вакансиях в сфере науки, технологий, инженерии и математики (STEM), которая была тщательно разработана с учетом гендерной нейтральности, показывалась непропорционально мужчинам с помощью алгоритма, разработанного для максимизации эффективности рекламных бюджетов рекрутеров. , потому что женщины, как правило, более отзывчивы на рекламу, и поэтому реклама, показанная им, обходится дороже.

В каждом из этих примеров возник сбой в аналитическом процессе, что привело к непреднамеренному — и порой серьезному — предвзятому отношению к определенной группе. Однако подобные сбои можно и нужно предотвратить. Чтобы реализовать потенциал HR-аналитики на основе искусственного интеллекта, компании должны понять коренные причины алгоритмической предвзятости и то, как они проявляются в обычных инструментах HR-аналитики.

Аналитический процесс

Данные не нейтральны. Инструменты кадрового анализа обычно строятся на основе исторических данных работодателя о найме, удержании, продвижении по службе и вознаграждении своих сотрудников. Такие данные всегда будут отражать решения и отношения прошлого. Поэтому, пытаясь построить рабочее место завтрашнего дня, нам необходимо помнить о том, что наши ретроспективные данные могут отражать как старые, так и существующие предубеждения и не полностью отражать сложности управления людьми во все более разнообразной рабочей силе.

Данные могут иметь явную предвзятость, заложенную непосредственно в них — например, оценки эффективности вашей фирмы могли исторически быть предвзятыми в отношении определенной группы. С годами вы исправили эту проблему, но если предвзятые оценки используются для обучения инструмента искусственного интеллекта, алгоритм унаследует и распространит предвзятость дальше.

Есть и более тонкие источники предвзятости. Например, средний балл бакалавриата может использоваться в качестве показателя интеллекта, а профессиональные лицензии или сертификаты могут служить показателем навыков. Однако эти меры являются неполными и часто содержат предвзятости и искажения. Например, соискатели работы, которым приходилось работать во время учебы в колледже (которые, скорее всего, происходят из семей с низкими доходами), возможно, получили более низкие оценки, но на самом деле они могут стать лучшими кандидатами на работу, поскольку продемонстрировали стремление преодолевать препятствия. Понимание потенциальных несоответствий между тем, что вы хотите измерить (например, интеллект или способность к обучению), и тем, что вы на самом деле измеряете (например, успеваемость на учебных тестах), важно при создании любого инструмента HR-аналитики, особенно если цель состоит в том, чтобы создать более разнообразную рабочее место.

То, как работает инструмент HR-аналитики, зависит как от данных, которые он подает, так и от алгоритма, который он использует. Здесь мы предлагаем три вывода, которые вам следует учитывать при управлении своими людьми.

Во-первых, модель, которая максимизирует общее качество прогноза (наиболее распространенный подход), скорее всего, будет работать лучше всего в отношении людей из большинства демографических групп, но хуже в отношении менее хорошо представленных групп. Это связано с тем, что алгоритмы обычно максимизируют общую точность, и поэтому производительность для большинства населения имеет больший вес, чем производительность для меньшинства при определении параметров алгоритма. Примером может служить алгоритм, используемый для рабочей силы, состоящей в основном из состоящих в браке или одиноких и бездетных людей; алгоритм может определить, что внезапное увеличение использования личных дней указывает на высокую вероятность отказа от курения, но этот вывод может не относиться к родителям-одиночкам, которым время от времени приходится брать отпуск из-за болезни ребенка.

Во-вторых, не существует такой вещи, как по-настоящему «слепая» по расовому признаку или «гендерно-слепая» модель. Действительно, явное исключение расы или пола из модели может даже усугубить ситуацию.

Рассмотрим этот пример: представьте, что ваш инструмент HR-аналитики на основе искусственного интеллекта, которому вы старательно избегаете предоставлять информацию о поле, имеет успешный опыт прогнозирования того, какие сотрудники могут уволиться вскоре после приема на работу. Вы не уверены, на что именно зацепился алгоритм — ИИ часто действует для пользователей как черный ящик — но вы избегаете нанимать людей, которых алгоритм помечает как людей с высоким уровнем риска, и видите значительное снижение числа новых сотрудников, которые увольняются вскоре после этого. присоединяюсь. Однако через несколько лет на вас подали в суд за дискриминацию женщин при приеме на работу. Оказывается, алгоритм непропорционально отсеивал женщин из определенного почтового индекса, в котором нет детского сада, что создавало бремя для матерей-одиночек. Если бы вы только знали, вы могли бы решить проблему, предложив детский сад рядом с работой, не только избежав судебного процесса, но даже дав себе конкурентное преимущество при наборе женщин из этой области.

В-третьих, если демографические категории, такие как пол и раса, непропорционально распределены в вашей организации, что типично (например, если большинство менеджеров в прошлом были мужчинами, а большинство работников — женщинами), даже тщательно построенные модели не приведут к равным результатам во всех группах. . Это потому, что в этом примере модель, которая определяет будущих менеджеров, с большей вероятностью ошибочно классифицирует женщин как непригодных для управления, но ошибочно классифицирует мужчин как подходящих для управления, даже если пол не является частью критериев модели. Короче говоря, причина в том, что критерии выбора модели, вероятно, будут коррелировать как с полом, так и с управленческими способностями, поэтому модель будет иметь тенденцию быть «неправильной» по-разному для женщин и мужчин.

Как сделать это правильно

По вышеуказанным (и другим) причинам нам необходимо особенно осознавать ограничения моделей на основе ИИ и следить за их применением в различных демографических группах. Это особенно важно для HR, поскольку, в отличие от обычных приложений ИИ, данные, которые организации используют для обучения инструментам ИИ, скорее всего, будут отражать дисбаланс, над исправлением которого в настоящее время работает HR. Таким образом, компаниям следует уделять пристальное внимание тому, кто представлен в данных, при создании и мониторинге приложений ИИ. Более конкретно, им следует посмотреть, как состав обучающих данных может искажать рекомендации ИИ в ту или иную сторону.

Одним из инструментов, который может оказаться полезным в этом отношении, является панель мониторинга предвзятости, которая отдельно анализирует, как инструмент анализа людей работает в различных группах (например, расовой принадлежности), что позволяет заранее обнаружить возможную предвзятость. На этой информационной панели по различным группам показаны как статистические показатели, так и влияние. Например, для приложения, поддерживающего найм, панель мониторинга может суммировать точность и тип ошибок, которые допускает модель, а также долю каждой группы, которая прошла собеседование и в конечном итоге была принята на работу.

Помимо мониторинга показателей производительности, менеджеры могут явно проверять наличие предвзятости. Один из способов сделать это — исключить определенную демографическую переменную (например, пол) при обучении инструмента на основе ИИ, а затем явно включить эту переменную в последующий анализ результатов. Если пол сильно коррелирует с результатами — например, если один пол с непропорционально высокой вероятностью будет рекомендован для повышения — это признак того, что инструмент ИИ может неявно включать гендер нежелательным образом. Возможно, инструмент непропорционально часто выявляет женщин в качестве кандидатов на повышение, потому что в вашей организации женщинам, как правило, недоплачивают. Если да, то инструмент искусственного интеллекта помогает вам решить важную проблему. Но может быть и так, что инструмент ИИ усиливает существующую предвзятость. Для определения основной причины потребуется дальнейшее расследование.

Важно помнить, что ни одна модель не является полной. Например, личность сотрудника, скорее всего, влияет на его успех в вашей фирме, но не обязательно отражается в ваших данных по персоналу этого сотрудника. HR-специалисты должны быть внимательны к этим возможностям и документировать их, насколько это возможно. Хотя алгоритмы могут помочь интерпретировать прошлые данные и выявлять закономерности, HR-аналитика по-прежнему остается областью, ориентированной на человека, и во многих случаях, особенно в сложных, окончательные решения по-прежнему будут приниматься людьми, как это отражено в популярной фразе. «человеческая аналитика в цикле».

Чтобы быть эффективными, эти люди должны знать об ошибках машинного обучения и ограничениях модели, отслеживать развертывание моделей в режиме реального времени и быть готовыми принять необходимые корректирующие действия. Процесс с учетом предвзятости включает в себя человеческое суждение на каждом аналитическом этапе, включая понимание того, как инструменты ИИ могут усиливать предвзятость через петли обратной связи. Конкретным примером является случай, когда решения о найме принимаются на основе «культурного соответствия», и каждый цикл найма приводит в организацию все больше похожих сотрудников, что, в свою очередь, еще больше сужает культурное соответствие, потенциально работая против целей многообразия. В этом случае в дополнение к совершенствованию инструмента ИИ может потребоваться расширение критериев найма.

Кадровая аналитика, особенно на основе искусственного интеллекта, — невероятно мощный инструмент, ставший незаменимым в современном HR. Однако количественные модели призваны помогать, а не заменять человеческое суждение. Чтобы получить максимальную отдачу от ИИ и других инструментов HR-аналитики, вам необходимо постоянно отслеживать, как приложение работает в режиме реального времени, какие явные и неявные критерии используются для принятия решений и обучения инструмента, а также влияют ли результаты на различные группируются по-разному, непреднамеренным образом. Задавая правильные вопросы о данных, моделях, решениях и поставщиках программного обеспечения, менеджеры могут успешно использовать возможности People Analytics для создания высокоэффективных и справедливых рабочих мест завтрашнего дня.


Комментариев нет:

Отправить комментарий