Аннотация: в статье приводится анализ искусственного интеллекта в качестве инструмента по борьбе с гендерной дискриминацией. В ходе исследования проанализированы сами понятия «искусственный интеллект» и «гендерное равенство» с целью понимания их соотношения и значимости друг для друга. Оба понятия новые и на настоящий момент недостаточно исследованы с точки зрения права, что подчеркивает актуальность исследования вопросов правовой определенности и практического применения названных категорий. Также проанализировано понятие «алгоритмическая предвзятость» как явление, выявленное в ходе практического применения искусственного интеллекта при разрешении социально-правовых вопросов, затрагивающих личностные признаки индивида, включая его половую принадлежность. Продвижение идеи с применением не предвзятого, вне алгоритмических изъянов, инструментария искусственного интеллекта, позволит достичь решения проблемы гендерного неравенства в вопросах общественного значения, где человеческое сознание, склонное к стереотипному мышлению, пока препятствует достижению такой цели.
Ключевые слова: искусственный интеллект, гендерное равенство, дискриминация, права мужчин, права женщин, национальная стратегия, сексизм.
Правовые категории, рассматриваемые в рамках настоящего исследования, не имеют достаточной научной изученности, регламентации, исключающей пробелы в законодательстве, которая разрешила бы все проблемные вопросы с точки зрения борьбы с гендерной дискриминацией с помощью использования возможностей искусственного интеллекта.
В связи с чем, целью настоящего исследования является рассмотрение в качестве инструмента по разрешению актуальной проблемы половой дискриминации – возможностей искусственного интеллекта.
Объектом настоящего исследования являются отношения по использованию искусственного интеллекта в социально-правовых отношениях лиц, связанных с влиянием их гендерной принадлежности на результаты таких взаимодействий, имеющих юридическое значение.
Предмет настоящего исследования включает в себя анализ нерегламентированных понятий «искусственный интеллект» и «гендерное равенство» на предмет их сущностных признаков и поиск преимуществ и недостатков в применении искусственного интеллекта в качестве инструмента по борьбе с гендерной дискриминацией.
Гендерное равенство, как правовая категория, только формируется в отечественной правовой науке. Отсутствует официальный термин, который бы раскрыл все необходимые признаки данного понятия.
Большинство авторов квалифицируют приведенную категорию, как принцип-идею, ведь в сущность понятия включены основы правоотношений и правового положения мужчины и женщины по отношению к социуму и друг к другу в различных сферах жизни – в частности трудовой и семейной.
Думаю, правовую категорию гендерного равенства можно отнести, в том числе, к межотраслевому принципу, так как учет прав и законных интересов женщин, как и мужчин, прослеживается в конституционной, гражданско-правовой, трудовой, семейной и др. отраслях права.
Основополагающей нормой, устанавливающей принцип запрета гендерной дискриминации на территории Российской Федерации, является статья 19 Конституции РФ [1], которая устанавливает недопустимость ограничения прав и законных интересов человек и гражданина в зависимости от пола. В пункте 3 статьи 19 Конституции РФ прямо закреплено, что мужчина и женщина имеют равные права и свободы и равные возможности для их реализации.
Из анализа нормы следует вывод, что гендерное равенство, по сути, является общеправовым конституционным принципом, что определяет ключевую значимость приведенной нормы высшего нормативно-правового акта РФ в правовом регулировании вопросов толерантности в той или иной сфере жизни женщины или мужчины.
Однако, это не отвечает вызовам современности, поскольку все изменчиво и находится в процессе постоянного совершенствования. Стремительное технологическое развитие заставляет ставить новые задачи перед учеными-правоведами, в частности касающиеся правовой взаимосвязи гендерного равенства и искусственного интеллекта.
Искусственный интеллект сейчас является центром внимания не только законодателей, но и социологов, при анализе перспектив искоренения предвзятости к гражданам по признаку половой принадлежности с помощью инструментария искусственного интеллекта.
Необходимо понять сущность искусственного интеллекта, как правовой категории. Сам по себе искусственный интеллект представляет собой компьютерную программу, цифровой продукт, который способен обучаться за счет антропогенного вмешательства, что реализуется за счет общения искусственного интеллекта с людьми при выполнении своего функционала.
С точки зрения права, как и принцип гендерного равенства, правовой статус искусственного интеллекта четко не установлен и вопросы, связанные с его деятельностью, не урегулированы на законодательном уровне.
Указом Президента РФ от 10.10.2019 №490 (ред. от 15.02.2024) «О развитии искусственного интеллекта в Российской Федерации» (вместе с «Национальной стратегией развития искусственного интеллекта на период до 2030 года») [2] задан курс развития технологий искусственного интеллекта для оптимизации общественных процессов в Российской Федерации. Данный Указ Президента РФ дает определение понятию «искусственный интеллект». Это комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.
Для моего исследования важно установить признаки понятия «перспективные методы искусственного интеллекта», определение которому также дано в приведенном Указе Президента РФ. Это совокупность технологий, включающая в себя компьютерное зрение, обработку естественного языка, распознавание и синтез речи, интеллектуальную поддержку принятия решений и перспективные методы искусственного интеллекта.
Из перечисленных признаков понятий «искусственный интеллект» и «перспективные методы искусственного интеллекта» очевидна их полезность и для решения проблем гендерного равенства, так как технологии искусственного интеллекта позволят заменить тот самый человеческий фактор, субъективный элемент, который есть в каждом из нас, основанный на стереотипном массовом человеческом мышлении, который оставляет след даже у предельно толерантного человека.
Тот самый субъективный элемент – предвзятость, который препятствует посмотреть на женщину или мужчину объективно, исключив не влияющие на их работоспособность, профессионализм, стабильность, перспективность и иные характеристики.
Искусственный интеллект в идеале не должен руководствоваться эмоциями и личными предпочтениями, так как их попросту у него нет.
Но есть опасность в обучении искусственного интеллекта этим человеческим чертам самими людьми, ведь он обучается именно за счет антропогенного воздействия на него в ходе принятия технологических решений.
В настоящий момент вошло в оборот понятие «алгоритмическая предвзятость» (Algorithmic Bias). Это явление, при котором алгоритмы искусственного интеллекта проявляют дискриминацию по отношению к тем или иным группам людей, в том числе по половому признаку. Харитонова Ю.С.,
Савина В.С., Паньини Ф. [3, с. 489] считают, что алгоритмическая предвзятость имеет место быть даже в условиях отсутствия умысла у разработчика к внедрению в алгоритмы искусственного интеллекта какого-либо дискриминационного отношения к женщинам или мужчинам, даже при программировании алгоритмов на исключение возможности к восприятию каких-либо половых признаков, именно в результате обучения в ходе выполнения своего функционала, алгоритм может выработать такое дискриминационное проявление в связи с постоянным анализом сходства индивидов и их выбора. Итого даже при недопущении в алгоритмы демографических сведений, искусственным интеллект рано или поздно в ходе взаимодействия с обществом выработает стереотипные предпочтения его пользователей.
То есть, искусственный интеллект может самостоятельно сформировать свои алгоритмы, которые будут приводить к выборочным технологическим решениям в отношении женщин или мужчин в зависимости, разделяя эти группы по самостоятельно выведенным признакам, что все равно приводит к проблеме гендерного неравенства. Такие алгоритмы исправимы и поддаются контролю со стороны разработчика цифровой технологии, но на следующем примере станет очевидно, что даже тщательная чистка алгоритмических предвзятостей не исключает риски выработки новых дискриминационных алгоритмов.
Уже были громкие ситуации, где искусственный интеллект проявил алгоритмическую предвзятость по гендерному признаку. Из их анализа будет видно, как искусственный интеллект приходит к предвзятости.
Ярким примером проявления сексизма со стороны искусственного интеллекта при отборе подходящих резюме работодателя является созданный Amazon алгоритм подбора сотрудников. Согласно статье с официального источника Reuters [4] Amazon прекратил деятельность созданного искусственного интеллекта из-за выявленных дискриминационных технологических решений, принимаемых искусственным интеллектом при отборе сотрудников на вакансии по резюме.
При разработке и испытаниях искусственного интеллекта Amazon самостоятельно устранял элементы предвзятости при проверке качества работы алгоритмов. Но даже такой подход, требующий непосредственного вмешательства человека, вплоть до выстраивания алгоритмов с нуля и устранения каждой деструктивной детали, не устранил дальнейший сексистский подход искусственного интеллекта к отбору потенциальных сотрудников Amazon.
По ходу обучения искусственный интеллект в результате анализа предпочтений работодателей в работниках при их приеме на работу за последние 10 лет. То есть, разработчики для обучения представили прошлые одобренные резюме с целью обучения искусственного интеллекта предпочитаемым работодателем профессиональным качествам сотрудников. Но в связи с тем, что Amazon выбирал преимущественно мужчин, то автоматически стал понижаться рейтинг резюме женщин. В связи с многочисленными неудобствами и неустранимостью изъянов созданных алгоритмов, Amazon пришлось отказаться от искусственного интеллекта по отбору сотрудников.
Искусственный интеллект никакой предвзятости не имеет, в приведенном примере разработчики Amazon поставили задачу – сформулировать критерии, по которым будет производиться отбор среди резюме по совокупности привлекательных для конкретных работодателей характеристик. Такой дискриминационный алгоритм неосознанно создали сами работодатели, при одобрении резюме преимущественно мужчин.
Следующий пример о проявлении гендерной предвзятости искусственного интеллекта как по отношению к женщинам, так и к мужчинам. Tinder использует секретные алгоритмы по повышению привлекательности пользователей [5], что повышает посещаемость и доверие пользователей социальной сети к представленным алгоритмом выбора потенциальных партнеров. Они проявились в навязывании традиционных предпочтений в характеристиках мужчин и женщин. Если мужчина много зарабатывает и обладает высшим образованием, то частота демонстрации его анкеты повышалась. Напротив, если же женщина успешна, то востребованность ее анкеты снижалась. Также с возрастом и статусом в обществе – мужчины старше и влиятельнее, женщины моложе и не имеют высокого общественного статуса.
Опять же, не сам искусственный интеллект сформировал такие алгоритмы, а предпочтения разработчиков и пользователей, которые заключаются в преимущественно традиционных патриархальных семейных ценностях.
И снова все зависит от человека. Получится ли создать представителя идеального правосознания, абсолютно беспристрастного и обладающего высшим уровнем правовой грамотности? Обучающему искусственный интеллект лицу будет необходимо фильтровать получаемые знания искусственным интеллектом с целью исключения у искусственного интеллекта процесса формирования «своего» мнения на предмет гендерных различий женщины и мужчины.
Выводы
Правила по разработке и профилактике работы искусственного интеллекта, деятельность которого будет сосредоточена на отборе лиц по различным признакам, должны быть урегулированы на законодательном уровне.
Если речь об отборе сотрудников по резюме, то исключить из критериев графу пол в резюме, иных характеристик, выдающих гендерную принадлежность потенциального работника.
В любом случае, использование искусственного интеллекта в рекрутинге и иных сферах – наиболее эффективное решение по борьбе с гендерной дискриминацией, т.к. алгоритмы возможно редактировать, в отличие от неизбежно стереотипного человеческого сознания.
Из проанализированных примеров видно, что задачей законодателя будет установление порядка по исключению из алгоритмов принятия технических решений искусственным интеллектом тех критериев отбора субъектов, которые позволяли бы отдавать искусственному интеллекту предпочтение мужчине или женщине.
Необходимо установить правовой статус разработчиков, владельцев, ответственных лиц за принятие дискриминационных технических решений их искусственным интеллектом, а именно их права и обязанности, ответственность за не устранение сформированных искусственным интеллектом предвзятых алгоритмов, которые привели к нарушению конституционного права мужчин и женщин на равенство их прав и свобод и равные возможности для их реализации.
В нашу жизнь стремительно ворвалась эпоха цифровизации, что является беспрецедентным этапом развития технологий и человечества, что влияет на юридическую науку в целом. Стремительное развитие формирует и ставит перед учеными-правоведами новые задачи, в частности по совершению процесса упорядочивания правовой категории «гендерное равенство».
В последующих трудах, считаю своим долгом поставить себе целью научно обосновать целесообразность правовой регламентации гендерного равенства.
Список литературы