.

Сделать репост в соц сети!

вторник, 28 ноября 2023 г.

Ценности Шепли: теория игр в HR-аналитике

Перевод статьи Shapely Values: Game Theory in People Analytics


Ценности Шепли: теория игр в HR-аналитике



Научные дисциплины часто извлекают выгоду из, казалось бы, несвязанных открытий в других дисциплинах. Ранее я писал о том, как экономисты Фишер Блэк и Майрон Шоулз использовали физическое уравнение теплопроводности для построения своей знаменитой формулы ценообразования опционов, которая долгое время была основным инструментом аналитика компенсаций. HR-аналитика во многом заимствована из различных областей, включая антропологию, психологию, экономику, статистику и науку о данных, и это лишь некоторые из них. Как экономист, я всегда отдавал предпочтение теории игр, формализованной фон Нейманом и Моргенштерном в их новаторском трактате 1944 года «Теория игр и экономического поведения».

Теорию игр часто называют наукой о стратегии. «Все начинается со стратегии» — это мантра, которую я читаю студентам на моем курсе по HR-аналитике в Стэнфордском университете. Вот почему меня привлекло использование «Ценностей Шепли», концепции теории кооперативных игр, для объяснения текучести персонала – почти обязательного базового анализа для всех команд HR-аналитики – Watercooler, глобального израильского стартапа по поведенческой аналитике людей. консультирования вместе с другими экспертами и лидерами мысли, такими как Саймон Синек.

Теория игр имеет два основных раздела. В теории некооперативных игр игроки соревнуются друг с другом и не могут или не могут координировать свои действия или заключать друг с другом обязательные соглашения. Равновесие Нэша, популяризированное фильмом 2001 года «Игры разума» о жизни экономиста Джона Нэша, является одним из возможных решений некооперативной игры. С другой стороны, в теории кооперативных игр игроки имеют возможность координировать свои действия и заключать друг с другом подлежащие исполнению контракты. Они могут вести переговоры и формировать коалиции для достижения выигрышной стратегии против противостоящих игроков и коалиций.




Ллойд Шейпли, американский экономист-математик и ведущий теоретик игр, получил Нобелевскую премию по экономике в 2012 году отчасти за ценность Шейпли — концепцию, связанную с решением кооперативных игр, которую он представил в 1951 году. Наука о данных приняла ценности Шейпли, и многие статистические программные платформы предлагают готовые процедуры для их оценки. Например, в Python библиотека SHAP (сокращение от SHapley Additive exPlanations) была представлена Скоттом Лундбергом и Су-Ин Ли в их статье 2017 года «Единый подход к интерпретации предсказаний модели».

SHAP — это теоретико-игровой подход, помогающий объяснить результаты моделей машинного обучения, то есть прогнозирование. Положительные значения SHAP положительно влияют на прогноз модели, а отрицательные значения SHAP оказывают отрицательное влияние. В книге «Интерпретация моделей машинного обучения с помощью SHAP» Кристофер Мольнар предполагает, что SHAP — это швейцарский армейский нож в области интерпретируемости машинного обучения. Другие полагают, что SHAP — наиболее мощный метод объяснения того, как модели машинного обучения делают прогнозы.

Какая связь между ценностями Шепли и машинным обучением? Все дело в объяснении того, какой вклад каждая функция вносит в прогноз модели. В линейных моделях вклад каждого признака — это просто значение признака, умноженное на вес признака. Однако в нелинейных моделях, которые в большей степени отражают реальность, взаимозависимости и взаимодействия между функциями затрудняют приписывание вклада какой-либо конкретной функции в прогноз. Взаимозависимость и интерактивность функций сродни координации и сотрудничеству игроков в совместной игре! Адитья Бхаттачарья, объяснимый исследователь искусственного интеллекта, предлагает прекрасное численное объяснение этой связи.



В кооперативной игре игроки образуют коалиции для сотрудничества ради достижения цели, скажем, получения прибыли. Это общая сумма выплат в игре. Каждый игрок получает долю от общей суммы выплаты. Значение Shapely позволяет назначать индивидуальные выплаты каждому игроку в зависимости от его вклада в общую выплату. Хотя это и не тривиальный математический расчет, он важен для определения того, какими должны быть справедливые индивидуальные выплаты. Создать коалицию будет сложно, если игроки не смогут договориться о справедливом разделе добычи. SHAP деконструирует прогноз модели машинного обучения в сумму вкладов каждой из функций модели. Обратите внимание, что значение Шепли не является разницей в прогнозе, когда признак удаляется из модели.

SHAP применяется к моделям регрессора и классификатора машинного обучения. В обоих случаях SHAP применяется после обучения модели машинного обучения и помогает интерпретировать прогнозы. Это отличная помощь, когда передовые модели машинного обучения кажутся «черным ящиком», а интерпретируемость все чаще становится проблемой при применении и внедрении машинного обучения. обучение и искусственный интеллект в целом. Давайте посмотрим на знакомый пример HR-аналитики, объясняющий причины истощения с помощью модели классификатора (кто-то либо уходит, либо остается), чтобы увидеть, как ценности Шепли помогают интерпретировать прогнозы модели.

Watercooler разработала модель машинного обучения, использующую HRIS и данные о цифровом следе сотрудников по более чем 150 различным переменным для организации за трехлетний период, чтобы предсказать причины увольнения. Данные HRIS включали типичную информацию об организационной структуре, демографических характеристиках, стаже работы, использовании отпуска, вознаграждении, производительности и других переменных для удержанных и уволенных сотрудников. Поведенческая информация из цифрового следа электронных устройств сотрудников включала метаданные о сообщениях Slack, электронных письмах, встречах и активности GitHub.

На схеме ниже показан силовой график, показывающий значения SHAP двух сотрудников – сотрудника (a) и сотрудника (b) – оба с относительно высоким риском увольнения (число, выделенное жирным шрифтом), но по совершенно разным причинам. Эйдан Купер любезно объясняет различные альтернативы построения графиков SHAP, включая графики водопада и пчелиного роя). На нашем графике сил красные секции представляют факторы, повышающие риск истощения, а синие секции — смягчающие факторы, снижающие риск истощения. Базовое значение представляет собой средний риск истощения в наборе данных и, следовательно, одинаково на обоих графиках. Переменные с большим значением SHAP (т. е. с большим влиянием) имеют более крупные стрелки. Значения скрыты для простоты.



Сотрудник (а) имеет высокую вероятность (0,86) увольнения. Причинами истощения являются относительно низкая оплата труда, высокая частота работы в нерабочее время, продолжительный рабочий день и большое количество прерванных выходных. Смягчающими факторами являются стаж, возраст сотрудника и достаточное количество личных встреч со своим руководителем. Эта модель отражает потенциальное выгорание.

Сотрудник (b) имеет высокую вероятность (0,82) уйти в отставку, но по другим причинам. Причинами увольнения являются недостаточный уровень личного общения со своим менеджером, нечастое взаимодействие с менеджером, низкий стаж работы (они были приняты на работу недавно) и возраст. Смягчением риска (и снижением вероятности увольнения) являются рабочее время сотрудника и низкая частота прерываний отпуска. Эта закономерность отражает потенциальную неудачную адаптацию.

График сил предлагает легко интерпретируемую визуализацию того, какие факторы действуют в различных ситуациях. На веб-сайте Watercooler вы можете прочитать более подробную версию примера в небольшой статье под названием «Является ли ИИ недостающим звеном между вовлечением и удержанием», написанной Ором Яиром, соучредителем и техническим директором.

Каковы выводы? Во-первых, будьте открыты идеям из других дисциплин и заимствуйте концепции, уравнения и результаты для продвижения своих конкретных проектов по HR-аналитике. Во-вторых, не забывайте об огромных преимуществах старого доброго машинного обучения, поскольку всеобщее внимание обращается к генеративному искусственному интеллекту, бросая тень на дискриминирующий искусственный интеллект. В-третьих, изучите значения Шепли – в какой бы форме их ни предлагал выбранный вами статистический пакет – чтобы открыть черный ящик сложных моделей машинного обучения и пролить свет на вклад каждой функции в прогнозирование. Объяснение моделей искусственного интеллекта, особенно с помощью убедительных визуализаций, повышает комфорт и уверенность в HR-аналитике среди лиц, принимающих решения в сфере управления персоналом и в бизнесе, что способствует внедрению и улучшению кадровых, клиентских и операционных результатов.

Комментариев нет:

Отправить комментарий