Искусственный интеллект. Большие данные. Преступность. Владимир ОвчинскийЧитать онлайн книгу.
помощи, оказываемых пожилым лицам и инвалидам, общаться не с роботом, а с человеком».
Ассамблея также напомнила, что «в своей резолюции 2051 (2015) «БПЛА и целенаправленные убийства: необходимость соблюдения прав человека и норм международного права» она призвала все государства-члены и государства-наблюдатели, а также государства, парламенты которых имеют статус наблюдателя при Ассамблее, воздерживаться от использования любых автоматических (роботизированных) процедур определения лиц для целенаправленного убийства или любого причинения вреда на основе моделей коммуникационного поведения или иных данных, собранных с помощью средств массовой слежки. Это положение должно применяться не только в отношении БПЛА, но и в отношении других вооружений, оснащенных системами искусственного интеллекта, а также иного оборудования и/или программного обеспечения, которые потенциально могут причинить вред людям, имуществу, личным данным или информационным базам данных, или же нарушать право на частную жизнь, свободу выражения мнения или право на равенство и соблюдение принципа недопущения дискриминации».
В 2016 г. группа известных благотворителей учредила фонд для финансирования исследований в области права и контроля над ИИ. Среди учредителей П. Омидьяр, Фонд Гейтсов, основатель Linkedln Р. Хоффман, основатель Goggle Л. Пейдж и т. п. Сейчас в фонде находятся 30 млн. долларов, которые будут расходоваться на оплату работы юристов.
Серьезной и оправданной является инициатива международного Института инженеров электротехники и электроники (IEEE). Он представил первую версию «Стандартов по созданию роботов и искусственного интеллекта». Стандарт получил название Ethically Aligned Design. Документ был разработан при участии Google, Facebook, Amazon, IBM, и 300 членов Global Initiative.
Предполагается, что Ethically Aligned Design установит для производителей роботов и программ ИИ неписаные правила. В частности, предлагается на срок до четырех лет рекомендовать разработчикам не создавать нейронных сетей более пяти слоев. Такие сети являются, по сути, принципиально не-вскрываемым черным ящиком, и соответственно принципы принятия тех или иных решений невозможно будет записать в виде алгоритмов, переводимых на человекочитаемый язык.
В стандарте предусмотрено, что Институт рекомендует государствам, где развиваются робототехнические разработки, и компаниям, создающим программы с использованием ИИ, создать надзорные органы за процедурой разработки и применения интеллектуальных и автономных систем, а также руководствоваться при разработке национальных стандартов и технических регламентов выпущенным стандартом.
Среди юристов имеются различные точки зрения относительно юридического ограничения научно-технических и программных разработок. С одной стороны, какое-то законодательство необходимо. С другой стороны, как показывает история, еще ни разу путем применения юридических мер не удалось приостановить научно-технические разработки или распространение технологий. Даже применительно к чрезвычайно затратному