ДомойВ миреЕС принимает первый закон о защите от рисков искусственного интеллекта. Главной угрозой... В мире ЕС принимает первый закон о защите от рисков искусственного интеллекта. Главной угрозой считают не вымирание человека 14 июня, 2023 28 Евросоюз первым в мире принимает закон, который будет регулировать развитие систем искусственного интеллекта (ИИ) и защищать от них граждан. В среду за законопроект проголосовал Европарламент. Это не конец процесса: три ветви власти ЕС — Комиссия, Парламент и Совет — должны будут согласовать окончательный вариант закона, его вступление в силу ожидается не ранее 2025 года. В законе системы ИИ разделены на группы по степеням риска, который они несут для европейских граждан и потребителей, и для каждой группы введены свои ограничения и меры контроля. Совсем запрещены будут, например, системы, созданные для того, чтобы влиять на подсознание людей, а также системы биометрического распознавания, работающие в режиме реального времени. Системы, создающие контент — такие, как ChatGPT — должны будут, в частности, четко маркировать свою продукцию и не выдавать ее за творчество живых людей. "Депутаты Европарламента хотят гарантировать, чтобы системы ИИ контролировались людьми, были безопасны, прозрачны, отслеживаемы, не дискриминировали пользователей и способствовали защите окружающей среды", — объясняла пресс-служба Европарламента в мае, по ходу подготовки законопроекта. В дебатах, которые прошли 13 июня, депутаты Европарламента больше всего внимания обратили на пункты о системах распознавания лиц. В проекте предлагается разрешить применение таких систем только "постфактум" (а не в режиме реального времени), только для поиска преступников, террористов и пропавших людей и только по решению суда. Уверенное большинство евродепутатов — за такое решение, но небольшое меньшинство призывает совсем запретить системы распознавания лиц. От этого меньшинства в дебатах выступил, в частности, Патрик Брайер — единственный в Европарламенте представитель Пиратской партии Германии. "Мы открываем ящик Пандоры, мы создаем тотальное полицейское государство, как в Китае", — заявил Брайер (цитата по синхронному переводу). Немецкий "пират" заявил, что системы распознавания лиц ошибаются в 99% случаев, и это ведет к задержаниям невиновных людей. "Требование о санкции суда, предложенное жесткими консерваторами — это чистая формальность, дымовая завеса для прикрытия массовой слежки […] Нельзя делать нормой культуру недоверия и становиться на сторону авторитарных режимов, которые применяют ИИ для подавления гражданского общества", — заявил Брайер перед дебатами. Его многочисленные оппоненты возражали с трибуны Европарламента, что требовать полного запрета систем распознавания наивно, что они очень полезны в поиске террористов или, например, пропавших детей, и что сравнение с Китаем некорректно, поскольку в Европе правоохранительные органы и суды реально защищают права граждан. Дискриминация По мнению заместительницы председателя Еврокомиссии Маргрете Вестагер, отвечающей за антимонопольную политику, одна из самых насущных проблем, связанная с развитием искусственного интеллекта, — это дискриминация. В эксклюзивном интервью Би-би-си Вестагер заявила, что более актуальной, по сравнению с вымиранием человечества в стиле "Терминатора", проблемой является потенциал ИИ по усилению предвзятости или дискриминации. По ее словам, этому способствует огромный объем данных, получаемых из интернета и используемых для обучения моделей и инструментов. Металлопрокат в Актобе от AlphametВестагер заявила Би-би-си, что регулирование ИИ необходимо для противодействия самым большим рискам, которые несет новая технология. По ее словам, это имеет ключевое значение в тех случаях, когда искусственный интеллект используется для принятия решений, могущих повлиять на способность человека добывать средства к существованию, например, на получение ипотечного кредита. "Вероятно, [риск вымирания] может существовать, но по-моему, вероятность этого довольно мала. Я думаю, что риски ИИ больше связаны с тем, что люди будут подвергаться дискриминации, их не будут воспринимать такими, какие они есть, — сказала она. — Если банк использует ИИ для решения вопроса о том, можете ли вы получить ипотечный кредит, или если это социальные службы вашего муниципалитета, то хочется быть уверенным, что вы не подвергаетесь дискриминации из-за вашего пола, цвета кожи или места жительства". Поскольку ИИ продолжает быстро развиваться, при выработке новых правил нужно проявлять прагматизм, считает Вестагер. "Лучше получить, скажем, 80% сейчас, чем 100% никогда, поэтому давайте начнем, а когда научимся — вернемся к этому вопросу и скорректируем правила", — сказала она. По ее мнению, риск того, что ИИ может быть использован для влияния на следующие выборы, "определенно существует". Группы риска В Законе об ИИ, который центральные европейские органы разрабатывали два года — и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 — системы искусственного интеллекта разделены на четыре группы: группа "неприемлемого риска", группа "высокого риска", "генерирующие" системы и группа "ограниченного риска". В группу "неприемлемого риска" зачислены: системы, созданные для воздействия на подсознание людей системы социального рейтинга, разделяющего людей на категории по их поведению, социально-экономическому положению и прочим личным характеристикам системы распознавания в режиме реального времени Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда. В группу "высокого риска" попали системы, применяющиеся в товарах и услугах, которые в ЕС попадают под лицензирование в рамках защиты потребителей. Это, например, игрушки, автомобили, авиация, медицинская аппаратура системы управления критически важной инфраструктурой системы, применяемые в образовательных учреждениях или в работе с персоналом фирм и учреждений системы, применяемые в правоохранительных органах, работе с мигрантами и беженцами и в охране границ Все эти системы ИИ будут оцениваться до их внедрения и по ходу применения и регистрироваться в специальной базе данных ЕС. Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут помечать созданный ими контент программировать их так, чтобы они не создавали противозаконный контент обнародовать списки данных, которые защищены авторским правом и на которых обучалась система Все прочие системы ИИ включены в группу "низкого риска", от них требуется лишь быть достаточно открытыми — чтобы пользователь знал, что имеет дело с ИИ, и имел достаточно информации, чтобы принять обоснованное решение, пользоваться ли им дальше. Предыдущая статьяПутин: В России нет необходимости вводить военное положениеСледующая статьяГосдума одобрила поправки об аресте за нарушение режима военного положения ПОХОЖИЕ НОВОСТИ В мире Катар выходит из переговоров между Израилем и ХАМАС. Почему на этот раз ему не удалась роль посредника? 16 ноября, 2024 В мире Первый разговор за два года: о чем говорили Шольц и Путин раскрыли в России и Германии 16 ноября, 2024 В мире Главу аппарата Нетаньяху подозревают в фальсификации документа о 7 октября 16 ноября, 2024 НОВОЕ НА САЙТЕ Катар выходит из переговоров между Израилем и ХАМАС. Почему на этот раз ему не удалась роль посредника? 16 ноября, 2024 Первый разговор за два года: о чем говорили Шольц и Путин раскрыли в России и Германии 16 ноября, 2024 Установка замков на калитку: советы и рекомендации 16 ноября, 2024 Главу аппарата Нетаньяху подозревают в фальсификации документа о 7 октября 16 ноября, 2024 Зеленский назвал звонок Шольца Путину «ящиком Пандоры» 15 ноября, 2024 Члены парламента Новой Зеландии прервали заседание внезапным ритуальным танцем (видео) 15 ноября, 2024 Сможет ли Трамп баллотироваться на третий срок 15 ноября, 2024