.

Сделать репост в соц сети!

пятница, 24 декабря 2021 г.

Walmart, Nike и другие стремятся избавиться от предвзятости алгоритмов ИИ при приеме на работу

Перевод статьи Walmart, Nike, and other giant employers aim to cut algorithmic bias from the hiring process


Walmart, Nike и другие стремятся избавиться от предвзятости алгоритмов ИИ при приеме на работу

Недобросовестная предвзятость, связанная с искусственным интеллектом, является проблемой для кандидатов на работу, компаний и экономики. Теперь новый альянс обещает помочь выявить и устранить его.




Сегодня крупные, популярные компании часто рассматривают миллионы заявлений о приеме на работу каждый год. Сама по себе эта обязанность могла бы заполнить несколько рабочих мест с полной занятостью, поэтому все они обучили алгоритмы, чтобы отсеять хотя бы первый раунд кандидатов. Это подход, который породил процветающую побочную экономику, «WorkTech». Но исследования показывают, что этот автоматизированный процесс отбора может отклонять квалифицированных работников, которые не сразу соответствуют критериям, запрограммированным машиной, - которые, как оказалось, также обычно основываются на прошлых сильных кандидатах, которые часто были белыми, американскими и мужчинами. Сегодня некоторые из крупнейших компаний Америки обещают ввести новые меры безопасности, направленные на устранение такого рода предубеждений.

Это первая инициатива новой группы под названием Data & Trust Alliance, цель которой - предложить компаниям, которые полагаются на ИИ, нанять набор инструментов для выявления и устранения несправедливой предвзятости. Среди деловых партнеров 21 крупная корпорация, в том числе Walmart, Nike, Meta, IBM, American Express, Mastercard, CVS, Deloitte, General Motors, Humana, Nielsen и Under Armour. Сам альянс был сформирован в прошлом году бывшим генеральным директором American Express Кеном Шено и бывшим генеральным директором IBM Сэмом Палмизано, которые считали, что возможность ИИ решать все проблемы бизнеса уже сопряжена с риском.

В корпоративных партнерах этой инициативы работает почти 4 миллиона человек, а совокупная рыночная стоимость составляет более 3 триллионов долларов. Его «Меры защиты от алгоритмической предвзятости» включают набор из 55 вопросов для оценки программного обеспечения для найма ИИ. Альянс заявляет, что этот инструмент можно использовать для выявления непреднамеренной дискриминации ИИ во всем: от данных обучения компании и дизайна модели найма до методов устранения предвзятости, приверженности разнообразию и прозрачности всего процесса. Как сообщается, критерии были разработаны рабочей группой профессионалов из HR, AI, IT, юриспруденции, разнообразия, справедливости и инклюзивности, а затем уточнены с учетом мнений сотен сторонних академических экспертов и руководителей бизнеса.

Критики предвзятости при приеме на работу ИИ, вероятно, возразят, что это звучит здорово, но было бы более уместно в руках независимого органа, а не бизнеса. Data & Trust Alliance решает эту проблему, отчасти подчеркивая, что группа не планирует становиться аналитическим центром или политикой влияния и будет делиться своими инструментами и передовым опытом со всеми, кто пытается продвигать ответственное использование данных и алгоритмов.

Комментариев нет:

Отправить комментарий