Алгоритмическая предвзятость — одна из самых активных областей исследования индустрии искусственного интеллекта. Непреднамеренные системные ошибки рискуют привести к несправедливым или произвольным результатам, повышая потребность в стандартизированных этических и ответственных технологиях, особенно с учетом того, что к 2024 году рынок ИИ, как ожидается, достигнет 110 миллиардов долларов .
Есть несколько способов, которыми ИИ может стать предвзятым и привести к пагубным последствиям.
Во-первых, это сами бизнес-процессы, которые ИИ призван улучшить или заменить. Если эти процессы, контекст и то, к кому они применяются, предвзято относятся к определенным группам, независимо от намерений, то результирующее приложение ИИ также будет предвзятым.
Во-вторых, основополагающие предположения создателей ИИ о целях системы, о том, кто будет ее использовать, о ценностях затронутых лиц или о том, как она будет применяться, могут вносить вредную предвзятость. Далее, набор данных, используемый для обучения и оценки системы ИИ, может нанести вред, если данные не репрезентативны для всех, на кого они будут воздействовать, или если они представляют собой историческую систематическую предвзятость в отношении определенных групп.
Наконец, сама модель может быть предвзятой, если чувствительные переменные (например, возраст, раса, пол) или их прокси (например, имя, почтовый индекс) являются факторами в прогнозах или рекомендациях модели. Разработчики должны определить, где существует предвзятость в каждой из этих областей, а затем объективно проверить системы и процессы, которые приводят к несправедливым моделям (что легче сказать, чем сделать, поскольку существует как минимум 21 различное определение справедливости ).
Для ответственного создания ИИ первостепенное значение для смягчения последствий имеет построение этических норм на протяжении всего жизненного цикла разработки ИИ. Давайте посмотрим на каждый шаг.
Авторские права © 2021 IDG Communications, Inc.
[ad_2]