Планы ЕС по регулированию искуственного интеллекта
Еврокомиссия представила общественности первую в мире рамочную законодательную базу по искусственному интеллекту (ИИ). Для систем ИИ, которые могут представлять угрозу для безопасности или прав человека, в будущем должны будут действовать строгие правила и предписания. В случае особенно очевидных рисков, например, если речь идёт о нарушении свободы волеизъявления, в силу будут вступать запреты. Таким образом, согласно планам Еврокомиссии, доверие к ИИ должно возрасти.
Машинам придётся усваивать европейские ценности
Европа становится первопроходцем в деле установления этических границ с целью защиты демократии и неприкосновенности частной жизни граждан, - с воодушевлением отмечает La Repubblica:
«Идея состоит в том, чтобы найти свой, 'европейский путь' между цифровым авторитаризмом по китайскому образцу и абсолютной рыночной свободой в американском духе. Вот подход, учитывающий особенности европейской культуры, который в ходе своей многолетней работы подготовил Брюссель - и который найдёт своё отражение в одном из центральных пунктов новых правил: алгоритмы на нашем континенте должны обеспечиваться данными, отражающими европейские ценности. ... Если же, напротив, выяснится, что система ИИ снабжается данными, за которыми скрываются предрассудки, расизм или дискриминация, то тогда её придётся перепрограммировать с нуля.»
Регулированию должен подвергаться и частный сектор
Газета Politiken приветствует инициативу ЕС, однако при этом полагает, что ограничений должно быть больше:
«Система регулирования ИИ таким образом, как это представляет себе Еврокомиссия, пытается нащупать третий путь - между китайской моделью государственного надзирающего капитализма и американским принципом невмешательства. ... Среди прочего, такое регулирование должно поставить заслон на пути формирования государственной системы социального рейтинга в том виде, в каком она существует в Китае, - и ограничить возможности осуществления полицией массовой слежки с помощью использования биометрических данных. Ура! Но ведь вполне можно было бы пойти и дальше - в первую очередь в деле регулирования частного сектора, ведь тот также усердно использует непрозрачные алгоритмы.»
Лучше продумать использование ИИ со стороны государства
Планы ЕС ориентированы в верном направлении, - считает Der Standard, - но не обошлось и без досадного промаха:
«Искусственный интеллект не нейтрален. ... Так, например, можно проследить, на основе какой информации он приходит к тому или иному результату, - и как этот результат в результате звучит. Но никто не знает наверняка, каким именно образом этот результат достигается. И это открывает двери для труднообъяснимых ошибок. А ведь когда речь идёт о выявлении возможных правонарушений, сомнений быть не должно. Сей аспект комиссия не предусмотрела, разрешив в своём законопроекте дальнейшее использование ИИ с целью наблюдения со стороны государства. ... Тем самым комиссия упустила шанс представить ЕС сообществом, в равной степени нацеленным на будущее - и при этом уделяющим большое внимание защите основных гражданских прав.»
Главная игра ведётся на другом поле
Решающим фактором будет то, удастся ли ЕС вывести своё видение на глобальный уровень, - таков комментарий Süddeutsche Zeitung:
«Ведь большая игра тут ведётся между державами, лидирующими в сфере разработки искусственного интеллекта, - США и Китаем. ... Евросоюзу следует сформулировать свои правила настолько дальновидно и доходчиво, чтобы по крайней мере США пожелали бы на них ориентироваться. При Байдене на это появляется вполне реальный шанс - ведь его администрация вновь обращает свой взор к Европе. Некоторый отпор мощному влиянию со стороны лидеров ИК в своей собственной стране - будь то Facebook, Google и Microsoft - едва ли способен повредить, если речь идёт о формировании невидимой стороны будущего.»