Искусственный интеллект. Большие данные. Преступность. Владимир ОвчинскийЧитать онлайн книгу.
информации, полученной от алгоритма, оценивающего возможность повторного преступления. Подсудимый безуспешно оспаривал использование алгоритма для принятия такого решения, поскольку не были предоставлены критерии оценки, являющиеся коммерческой тайной. Французская стратегия предлагает развить прозрачность алгоритмов и возможностей по их проверке, а также определить этическую ответственность работающих в сфере ИИ, создать консультативные комитеты по этике и т. д.
В ЕС первым шагом в направлении регулирования вопросов ИИ стала Резолюция Европейского Парламента 2017 г. «Нормы гражданского права о робототехнике». Еще в 2015 г. в Европейском Парламенте была создана рабочая группа по правовым вопросам, связанным с развитием робототехники и ИИ в ЕС. Резолюция не является обязательным документом, но дает ряд рекомендаций Европейской
Комиссии для возможных действий в этом направлении, причем не только касательно норм гражданского права, но и этических аспектов робототехники.
Резолюция определяет «умного робота» как робота, получающего автономию через использование сенсоров и/или взаимосвязь с окружающей средой; при этом робот имеет по меньшей мере минимальную физическую поддержку, адаптирует свое поведение и действия в соответствии с условиями среды, но у него отсутствует жизнь с биологической точки зрения. Предлагается создать систему регистрации продвинутых роботов, которая управлялась бы Агентством ЕС по робототехнике и искусственному интеллекту. Данное агентство также предоставляло бы техническую, этическую и регулятивную экспертизу по робототехнике. Что касается ответственности, предлагаются два варианта: либо объективная ответственность (не требующая вины), либо подход риск-менеджмента (ответственность лица, которое могло минимизировать риски). Ответственность должна быть пропорциональной реальному уровню указаний, которые отдаются роботу и уровню его автономности. Правила ответственности могут быть дополнены обязательным страхованием для пользователей роботов и компенсационным фондом для выплаты компенсации в случае отсутствия страхового полиса, покрывающего риск.
Для решения этических вопросов резолюция предлагает два кодекса поведения: Кодекс этики для разработчиков робототехники и Кодекс комитетов по этике научных исследований. Первый, в частности, предлагает четыре этических принципа: 1) «делай благо» (роботы должны действовать в интересах людей); 2) «не навреди» (роботы не должны причинять вред человеку); 3) автономия (взаимодействие человека с роботами должно быть добровольным); 4) справедливость (выгоды, получаемые от деятельности роботов, должны быть распределены справедливо).
Парламентская Ассамблея Совета Европы в 2017 г. приняла Рекомендацию 102 (2017) «Технологическая конвергенция, искусственный интеллект и права человека».
В ней Ассамблея предложила разработать руководства по следующим вопросам:
«1. Повышение уровня транспарентности, государственное