Темная сторона искусственного интеллекта. Станислав Петровский
Читать онлайн книгу.долларов, теперь помещаются в кармане и стоят около тысячи долларов США. Скорость передачи данных выросла в тысячи раз. Современный уровень скорости вычислений и передачи данных позволяет широко применять новый вид компьютерных программ и устройств на базе технологий искусственного интеллекта (ИИ).
Сочетание гениальных человеческих умов и ИИ может дать фантастические возможности – лечение ранее неизлечимых болезней, продление жизни, значительное снижение количества аварий на транспорте и производствах, больший комфорт, экологичность и общественную безопасность.
Однако, как у любой технологии, есть и обратная, темная сторона огромной силы ИИ. Современная реальность все больше похожа на сюжеты Стивена Кинга. Некоторые обыденные вещи кажутся безобидными на первый взгляд, но таят в себе смертельную опасность. Это абсолютно новый вызов, не похожий на чуму или атомную бомбу. Интуиция и разум, сформировавшиеся за миллионы лет для выживания человека в природе, теперь подводят нас. Когда речь идет о компьютере – с виду безобидной коробке с разноцветными лампочками, трудно осознать скрытые в ней угрозы. У машины нет собственных эмоций, эволюционной истории с реакцией типа «бей или беги». Зачем ей завоевывать мир или причинять вред человеку?
Тем не менее ИИ может принести масштабный ущерб – массовую безработицу, усиление разрыва между бедными и богатыми, диктатуру полицейского государства, манипуляции общественным мнением в социальных сетях, гонку вооружений и войны.
В 2017 году на конференции в США были приняты Азиломарские принципы ИИ.1 Данные принципы отражают общие подходы к созданию и использованию систем ИИ. Ведущие мировые разработчики и эксперты по ИИ, включая Илона Маска, Стивена Хокинга и Рэя Курцвейла, а также представители Google, Apple, Facebook, IBM, Microsoft и другие согласились с тем, что инвестиции в ИИ должны сопровождаться исследованиями, позволяющими развивать правовые системы с учетом рисков, связанных с ИИ.
В соответствии с Азиломарскими принципами, в частности:
– системы ИИ должны быть совместимы с идеалами человеческого достоинства, его прав и свобод, многообразия культур;
– экономическое процветание, достигнутое благодаря ИИ, должно широко использоваться в интересах всего человечества;
– следует избегать гонки вооружений в разработке смертельного автономного оружия2 и так далее.
В 2020 году официальные лица Ватикана совместно с компаниями Микрософт и IBM утвердили этические принципы, по которым ИИ должен действовать прозрачно, работать надежно и беспристрастно, учитывать права человека, включая право на неприкосновенность частной жизни.
Папа Римский Франциск призвал молиться, чтобы достижения в области ИИ и робототехники служили на благо человечества и не привели «к новой форме варварства, где общее благо сброшено верховенством слова сильнейшего».3
К сожалению, следует констатировать: вопреки предостережениям, многие угрозы ИИ стали реальностью.
Стартовала гонка автономных вооружений. Невиданное ранее совершенство технологий подделки голоса, видео и фотографий используется для того, чтобы опорочить или шантажировать не только политиков или звезд, но и обычных людей, включая детей. В крупных городах каждый находится под полицейским надзором камер, подключенных к системе распознавания лиц. Растут технические возможности преступников для мошенничества, краж, шантажа, угроз, а также похищения людей.
Данные факты показывают необходимость совершенствования регулирования применения новых технологий.
По словам Эльвиры Талапиной, главного научного сотрудника Института государства и права Российской академии наук, доктора юридических наук, доктора права (Франция):
«Амбициозные планы человечества по использованию цифровых технологий во всех сферах жизнедеятельности впечатляют масштабами и футуристическими зарисовками, но не стоит забывать, что все это будет происходить непосредственно в нашем обществе. В обществе со сложившейся правовой культурой, традициями и ожиданиями. Было бы несомненной ошибкой концентрироваться лишь на радужных перспективах, игнорируя риски, которые таят цифровые технологии. Перед публичным правом стоит задача осмысления технологического обновления, с тем чтобы уберечь при этом устоявшиеся правовые ценности, одну из которых представляют собой фундаментальные права человека».4
Согласно Резолюции Европейского парламента: «Человечеству еще только предстоит осознать сущность искусственного интеллекта и создать непротиворечивое нормативное регулирование в области применения систем робототехники с учетом соблюдения фундаментальных прав личности, защиты информации, принципов пропорциональности, необходимости и ответственности».5
Эта книга написана, чтобы стучаться в каждую дверь. Эта книга – приглашение задуматься над социальными и правовыми проблемами в сфере ИИ. Их решение видится не только в технологиях,
1
Asilomar AI Principles. URL: https://futureoflife.org/ai-principles/
2
Автономное оружие – это система, которая сама находит и поражает цель. Например, в Израиле применяется беспилотный летательный аппарат, запрограммированный атаковать радиолокационные системы противника. В ходе применения таких систем остро встает вопрос отличия автономным оружием военных от гражданских лиц и распознавания своих и чужих войск, полицейских и охранных подразделений.
3
https://www.youtube.com/watch?v=cpc_fK_ZcCg&feature=emb_title
4
Талапина Э. Алгоритмы и искусственный интеллект сквозь призму прав человека // Журнал российского права. 2020. №10.
5
См. Резолюция Европейского парламента P8_TA-PROV (2017) 0051 «Нормы гражданского права о робототехнике».