Искусственный интеллект. Большие данные. Преступность. Владимир Овчинский
Читать онлайн книгу.справедливость» – это метод принятия решений с помощью ИИ. Он предполагает, что компьютеры могут квалифицировать то или иное суждение о какой-либо личности как «справедливое», если такое же суждение было сделано в воображаемом мире, в котором личность относилась к другой демографической группе на основе «несправедливых ориентиров» – другими словами, если в параллельном мире женщина была бы фактически мужчиной, или белый мужчина был бы фактически темнокожим[22].
На конференции Think-2018 компания IBM спрогнозировала, что в ближайшие 5 лет ИИ должен стать менее предвзятым.
Как уже отмечалось, такая предвзятость уже сейчас приводит к дискриминации и некорректным решениям. IBM разработала и продолжает совершенствовать методику проверки наборов данных для выявления «предубеждений». Над избавлением ИИ от субъективных предвзятых оценок работают специалисты из множества различных областей, включая людей искусства, философов, юристов. Избавленный от человеческих слабостей ИИ в будущем станет подсказывать людям, если они их проявляют.
В мае 2018 г. компания Microsoft заявила, что хочет создать инструмент, который будет находить и предупреждать людей об алгоритмах ИИ, которые могут угрожать им. Новый алгоритм Microsoft для поиска предвзятых алгоритмов сможет найти и пометить только существующие проблемы. А значит программы, которые могут привести к увеличению уровня предвзятости в полиции, например, все так же будут создавать и использовать, просто не так долго, как раньше.
Чтобы создать ИИ, который будет справедливым и рассудительным, нужно привлекать независимую проверку, чтобы технические компании привлекали внешних экспертов для анализа своих алгоритмов и поиска признаков предвзятости либо в самом коде, либо в данных, которые он обрабатывает.
Идея ревизии ИИ набирает обороты, и некоторые компании по разработке ИИ начали привлекать аудиторов, которые могут взглянуть на их код. Но это также требует, чтобы ИИ был достаточно простым, либо чтобы аудитор хорошо разбирался в коде. В случае с более сложными алгоритмами глубокого обучения так не получится.
Другой возможный ответ – лучшая подготовка людей, которые фактически создают ИИ, чтобы они могли сами определять собственное мнение и предубеждение и держать их при себе, не позволяя алгоритму интерпретировать их как факт. У всех есть скрытые предубеждения, и мир технологий только выиграет от того, что поможет людям лучше понять их собственное мировоззрение.
Второй момент, на который следует обратить внимание, в известной степени носит устрашающий характер. Логика развития ИИ состоит в том, что он во все большей степени реализует принцип самодостраивания не только в программной, но и в аппаратной частях. Если пока по входу и выходу информации в нейронных сетях мы можем восстановить способы ее обработки и соответственно получить человекочитаемые правила и алгоритмы, то в ближайшее время ситуация изменится. Так, в разведывательном сообществе
22
См.: