За последнее время рынок в ЕС существенно изменился в свете общей цифровизации сектора и новых типов финансовых услуг. В рамках Европейской стратегии, направленной на усовершенствование законодательной базы на территории ЕС, были определены основные цели по укреплению механизмов эффективности регулирования процессов рынка для повышения их доступности, прозрачности и безопасности.
Для ЕС это огромный скачок вперед, как через пандемию, ускорившую цифровую трансформацию до нового уровня экономического пространства - цифровой экономики, устанавливая новые стандарты AML / CFT , так и через создание огромного количества виртуальных платежных средств, что ускорило создание регулятора по регулированию рынка крипто активов ( MICA ) , и, в частности, на основе появления такой стремительной цифровизации, в ЕС был принят закон о Данных ( Data Act ) от 27.11.2023 года.
Если кратко по каждому из вышеупомянутых нормативных актов, то можно определить следующее :
Стандарты AML / CFT , или, иначе говоря, правила по противодействию отмыванию доходов и финансированию терроризма – это три новых Директивы, принятые 28 марта 2023 года. Их цель заключается в прозрении любых и всех операций, имеющих статус потенциально рисковых и представляющих прямую угрозу в соответствии с уровнем риска в рамках ЕС. При этом каждое государство-член должно создать подразделение финансовой разведки (ПФР) для предотвращения, отчетности и борьбы с отмыванием денег и финансированием терроризма. Кроме того, организации, такие как банки, менеджеры активов и криптоактивов, агенты по недвижимости и виртуальной недвижимости и другие организации высокого уровня риска, будут обязаны проверять и устанавливать личность своих клиентов, чем они владеют и кто контролер юридического лица. Организации также должны будут установить детальные типы рисков отмывания и финансирования терроризма в своей сфере деятельности и передавать соответствующую информацию в центральный реестр конечных бенефициарных владельцев (Central Central) . Register of Ultimate Beneficial Owner , сокращ. CRUBO ). Это один из шагов, который ЕС делает для улучшения борьбы с преступностью и терроризмом, а также обеспечения стабильности и безопасности финансовой системы в государствах-членах ЕС и, в общем-то, для измерения текущего отношения ЕС к пространству цифровых активов. Хотя окончательное обсуждение регулирования рынков крипто активов (MiCA), равно как и доработка Европейским парламентом пакета AML/CFT все еще рассматривается, можно уверенно сказать, что они уже на своем финальном этапе согласования.
Закон о рынке крипто активов ( MiCA regulation ) – это первый прописанный регулятор деятельности крипт рынка, в основу которого положено контролирование деятельности поставщиков виртуальных активов, определение основных условий и требований для ведения такой деятельности, а также ответственность за их несоблюдение, контроль за которыми будет вестись через компетентные национальные органы государств-членов и будут представлены отчеты в Европейский банковский орган ( EBA ) и Европейский орган по ценным бумагам и рынкам ( ESMA ). Благодаря единому лицензированию поставщиков криптоактивов, тем самым их полной проверке компетентными органами бизнес сможет повысить доверие перед финансовыми учреждениями, в частности перед банками, вызрев свою экономическую деятельность. Ожидается, что данный закон начнет действовать с конца 2024, а полностью вступит в действие со всеми дополнениями с 2025 года.
Закон о Данных ( Data Act ) – это следующий шаг по регулированию данных в сети, обусловленный обязательством по обмену данными владельцев таких данных, в частности это касается как «бизнес для потребителя» («B2C»), так и «бизнес для бизнеса» («B2B») , в частности, и «бизнес к государству» («B2G » ). После принятия Закона об Управлении данными, закон о Данных будет способствовать добровольному обмену данными между предприятиями (отдельными лицами и государственным сектором). В этом контексте закон о Данных является вторым ключевым законодательным актом, имеющим целью сделать сгенерированные данные более доступными для повторного использования пользователями. Цель этого проекта заключается в повышении конкурентоспособности бизнеса, разработке генерируемых ими инноваций и поощрении большего количества участников к рынку данных (информации). Несмотря на то, что этот закон распространяется не только на неличные данные, но и на персональные, он никоим образом не нарушает регламент защиты персональных данных GDPR (и другие национальные законы и законы ЕС о защите персональных данных и конфиденциальности), включая полномочия и полномочия компетенцию надзорных органов и права субъектов данных Если персональные данные генерируются с помощью связанных продуктов или связанных услуг, должны соблюдаться требования как Закона о данных, так и GDPR. По прогнозам, данный закон должен вступить в силу уже в 2026 году.
Кроме того, недавно был принят Закон об Искусственном интеллекте (ИИ) (ссылка) , согласно которой определен приоритет обеспечения того, чтобы все системы ИИ, разработанные, развернутые и используемые в ЕС, были безопасными, прозрачными, доступными для отслеживания и недискриминационными. Регулирование ИИ и обеспечение человеческого контроля над системами ИИ являются частью цифровой стратегии ЕС. В европейской законодательной схеме термин "система искусственного интеллекта" занимает центральное место. Его юридическое определение можно найти в нашей предыдущей статье об освещении нового закона о ИИ, предложенном Европейской комиссией со ссылкой на общеизвестное определение Организации экономического сотрудничества и развития (ОЭСР): «машинная система, разработанная для работы с разными уровнями автономности, которая может демонстрировать адаптивность после развертывания и которая, для явных или неявных целей, делает вывод на основе входных данных, которые она получает, как генерировать результаты, такие как прогнозы, содержание, рекомендации или решения, которые могут влиять на физическую или виртуальную среду».
Соответственно, Закон о ИИ преследует цель сбалансировать инновации, обеспечив защиту прав и безопасности граждан в ЕС. Для этого Закон предлагает классифицировать системы ИИ по категориям риска, устанавливая требования к ним в соответствии с уровнем риска систем ИИ, запрещает определенные практики ИИ, которые могут нести прямую угрозу правам и безопасности граждан (пользователей), а также устанавливает регуляторный надзор, предусматривающий наказание за несоблюдение требований Закона. Закон о ШИ относительно частично является формой законодательства о безопасности продукции. Такое законодательство направлено на предотвращение и уменьшение рисков путем установления стандартов безопасности. Одной из его основных целей является минимизация рисков, связанных с системами ИИ , прежде чем они будут размещены на рынке или развернуты для использования в сети . Законодательство о безопасности продукции обычно сопровождается законодательством об ответственности. Не все риски, возникающие при использовании продукта, можно избежать, поэтому законодательство об ответственности направлено на то, чтобы пострадавшие имели возможность получить соответствующую компенсацию.
Данный закон рассматривается не как единая нормативная база по регулированию ИИ . В контексте подхода к обеспечению эффективного регулирования новых технологий Европейской Комиссией было предложено усовершенствовать закон двумя директивами, в связи с тем , что Комиссия выявила потенциальный пробел в системе законодательства об ответственности, а именно отсутствие возможности получения потерпевшим эффективной компенсации в случае возникновения вреда, причиненного ШИ . Именно поэтому было решено присоединить директиву с правками об ответственности за продукцию ( PLD ) и новую директиву об ответственности за ШИ ( AILD ). Обе эти директивы направлены на гармонизацию и усиление режима ответственности за продукцию, цель которых состоит в том, чтобы обеспечить надлежащую компенсацию лицам, которые понесли ущерб, нанесенный использованием систем ИИ . Этот вопрос имеет большое значение, поскольку он гарантирует, что конечные пользователи систем ШИ будут более уверены в использовании технологии, зная, что они имеют право на определенные базовые средства защиты в случае ущерба. Это также обеспечит большую уверенность для компаний, занимающихся снабжением или развертыванием систем ИИ , поскольку они будут знать, с какими рисками ответственности они сталкиваются.
Директива ответственности по ИИ (англ. AI liability directive, сокращ. AILD )
В то время как закон о ШИ направленный на предотвращение ущерба, причиненного ИИ , директива AILD направлена на регулирование компенсации за ущерб, причиненный ИИ , путем применения законодательства об ответственности.
Посредством директивы AILD Комиссия ЕС стремится урегулировать компенсацию за ущерб, причиненный умышленно или по неосторожности системами ИИ . Как отмечается Комиссией ЕС, даже если с момента вступления в силу Закона о ШИ уменьшится риск безопасности и основных прав людей, ШИ не прекратит использование и обработку получаемой информации, а значит, остаточный риск потенциального вреда (опосредованно или прямо), вызванного ИИ , будет продолжать существовать. Таким образом, Комиссия стремится установить общие правила гражданской ответственности за ущерб, причиненный использованием систем ИИ .
AILD оказывает экстерриториальное действие, поскольку применяется к поставщикам и/или пользователям систем ИИ , доступных или действующих на рынке Европейского Союза. Эти правила ответственности будут иметь рычаг влияния для содействия надежной работе. ШИ и полное использование его преимуществ на внутреннем рынке. Такое действие будет гарантировать, что защита от вреда, вызванного ИИ , будет иметь такую же равную защиту, как и от вреда, причиненного любыми другими технологиями. AILD создаст опровергнутую презумпцию причинной связи, тем самым уменьшив бремя доказывания для потерпевшего лица, нанесенного вред.
Кроме того, AILD будет регулировать полномочия национальных судов требовать раскрытия «темной стороны» систем ШИ высокого риска в целях получения доказательств. Данная директива ограничивается претенциозной работой. В случае если повреждение было вызвано системой ШИ или неспособностью системы ШИ создать определенный результат, потерпевшей стороной преподносится претензия. Для обеспечения согласованности его определение AILD состоит из двух ключевых процедурных устройств.
Первое касается возможности потерпевших сторон получить доступ к соответствующим доказательствам. Истцы могут потребовать от национальных судов распоряжения о раскрытии или сохранении доказательств от соответствующих сторон в случае систем ШИ с высоким уровнем риска, подозреваемых в причинении вреда. На стороны, не выполняющие требований, распространяется презумпция неисполнения, что облегчает процедуру для истца и поощряет соответствующие стороны выполнять приказы.
Второе процедурное изменение, которое вводит AILD, облегчит доказательство причинно-следственной связи между виной соответствующей стороны и результатом работы системы. ШИ путём введения ряда опровергаемых презумпций.
Действие этих правил дает потерпевшим сторонам процессуальное преимущество в доказывании своей правоты. Однако им все равно придется доказать все существенные элементы своего требования в соответствии с законодательством каждого государства-члена.
После принятия Закона о ШИ и AILD, они станут первыми в мире правилами по ИИ . После вступления их в силу организации, использующие и производящие системы ИИ , будут иметь 24 месяца, чтобы выполнить все требования и их ввести.
Директива ответственности за продукцию (англ. Product Liability Directive, сокращ. PLD )
Данная директива PLD , как и предыдущая AILD , является неотъемлемой частью нормативной базы по регулированию ШИ в сочетании с Законом о ИИ .
В отличие от новой директивы AILD , PLD был принят в 1985 году и вводил строгий режим ответственности за материальный ущерб, причиненный из-за использования дефектной продукции. Однако время идет, и необходимость обновить директиву для цифровой эры уже наступила. В декабре прошлого года было предложено реформирование этой директивы, выходя за рамки простого обновления для учета технологии ИИ . Эти изменения предполагают общее расширение сферы применения, включая более широкое определение продуктов и ответственных сторон. Среди таких реформ, можно определить следующие :
- четкое признание того, что системы ШИ подпадают под действие PLD из-за включения «программного обеспечения» в определение «продукта». Согласно этой расширенной области применения поставщики системШИ потенциально будут нести ответственность за любые дефектные системы ИИ , размещенные на рынке. Директива также охватывает любые системы ИИ , интегрированные в продукты, стирая традиционную разницу между материальными и нематериальными продуктами ;
- несмотря на то, что PLD не будет распространяться на бесплатное программное обеспечение с открытым кодом, поставляемое вне коммерческой деятельности, производители, интегрирующие любое бесплатное программное обеспечение с открытым кодом в свои продукты, потенциально будут нести ответственность за любые дефекты возникнут в результате ;
- директива PLD предполагает возмещение любого материального ущерба, вызванного дефектом продукта, тогда как компенсация нематериального ущерба подпадает под действие законодательства каждого государства-члена;
- Концепция «вреда» в PLD расширена несколькими способами. Потерю или повреждение данных можно восстановить, но не в случае использования данных в профессиональных целях. Уничтожение или повреждение данных не приводит автоматически к материальному ущербу, если потерпевшая сторона все еще может получить данные бесплатно. Повреждение любого имущества, не используемого в профессиональных целях, по-прежнему не подлежит восстановлению ;
- обновленная концепция дефектности в PLD для учета систем ИИ . Продукты также можно считать «дефектными» из-за уязвимости кибербезопасности, что будет особенно актуально в контексте использования и развертывания систем ИИ . В обновленном тексте отмечается, что производители, разрабатывающие продукты со способностью развивать неожиданное поведение, остаются ответственными за наносящее вред поведение. В контексте системШИ это означает, что способности системы действовать будет недостаточно, чтобы разработчик освободился от ответственности. Действия или бездействие третьих сторон также не увольняют поставщиков систем ШИ от ответственности за наличие дефекта в продукте Это может быть в случае, когда третья сторона использует уязвимость кибербезопасности в системе ИИ , что приводит к причиненному ущербу. И наоборот, ответственность поставщиков ШИ может быть уменьшена или отменена, если потерпевшая сторона сама способствовала ущербу, например, не установила обновление в приложении (программе) или обновление системы ИИ ;
- традиционная защита согласно директиве PLD относительно дефекта в продукте, возникшего после размещения на рынке, имеет новое исключение, объясняющее тот факт, что продукты все еще могут находиться под контролем производителя после размещения на рынке. Это означает, что поставщики систем ШИ не смогут полагаться на эту защиту, если дефект системы ШИ вызванный определенным аспектом продукта, оставшегося под их контролем, включая предоставление обновлений или обновлений программного обеспечения или любых существенных модификаций.
Данное реформирование предусматривает 24-месячный адаптивный период, как и для предыдущей директивы, для государств-членов, чтобы имплементировать ее в национальном законодательстве. Это означает, что компании и физические лица должны ожидать введения местных законов примерно в 2026 году (если PLD вступит в силу в этом году). Этот срок будет соответствовать Закону о ИИ , который также составляет 24 месяца после его вступления в силу.
Следует отметить, что согласования директив, готовящихся к выполнению Закона о ИИ , должны будут переноситься на местный уровень каждого государства-участника, тогда как закон о ИИ , как Регламент, будет применяться непосредственно при его запуске.
В последнее время ИИ в Европейском Союзе приобретает все большее значение, поскольку технологии продолжают развиваться быстрыми темпами. ЕС признал потенциальные преимущества и вызовы, которые ИИ может принести в разные секторы общества. От здравоохранения к транспорту, от финансов к сельскому хозяйству – искусственный интеллект все больше интегрируется в повседневную деятельность, стимулируя инновации, повышая эффективность и конкурентоспособность.
В общем, согласно тексту Закона о Искусственном интеллекте, системы ШИ можно использовать в следующей деятельности :
1) Критическая инфраструктура: компоненты безопасности в управлении и эксплуатации критической цифровой инфраструктуры, дорожного движения и поставки воды, газа, отопления и электроэнергии.
Одной из ключевых сфер, где ИИ оказывает значительное влияние в ЕС, является здравоохранение. Инструменты и приложения на основе искусственного интеллекта разрабатываются, чтобы помочь медицинским работникам в диагностике заболеваний, прогнозировании результатов лечения и персонализации планов лечения. Используя ИИ, медицинские работники могут улучшить уход за пациентами, уменьшить количество медицинских ошибок и оптимизировать распределение ресурсов.
В транспортном секторе искусственный интеллект используется для повышения безопасности, эффективности и устойчивого развития. Автономные транспортные средства, работающие на алгоритмах искусственного интеллекта, испытываются и внедряются в разных странах ЕС для повышения безопасности дорожного движения и уменьшения пробок на дорогах. Кроме того, искусственный интеллект используется для оптимизации систем общественного транспорта, прогнозирования маршрутов и внедрения разумных решений по управлению дорожным движением.
2) Образование и профессиональная подготовка: разработка систем ШИ для определения доступа, поступления или назначения в учебные заведения всех уровней. Оценка результатов обучения, включая их использование для управления процессом обучения студентов. Определение уровня образования личности. Контроль и выявление запрещенного поведения учащихся в ходе контрольных работ.
3) Трудоустройство: системы ШИ используются для найма и отбора работников, особенно в целевых объявлениях о работе, анализе и фильтрации заявок и оценке кандидатов. Также они используются для повышения по службе и разрыва контрактов, распределения задач на основе личных черт или характеристик и поведения, а также для контроля и оценки производительности работников.
4) Государственные услуги : системы ИИ , которые используются государственными органами для определения права на получение льгот и услуг, включая их распределение, сокращение, отмену или восстановление. Определение кредитоспособности, кроме выявления финансового мошенничества. Анализ и классификация экстренных вызовов, включая установку приоритетов для диспетчеров полиции, пожарных, медицинской помощи и срочных служб сортировки пациентов. Оценка рисков и формирование цен в страховании здоровья и жизни. Оценка нелегальной передвижения либо рисков для здоровья. Рассмотрение заявок на получение убежища, визы и вида на жительство, а также связанных жалоб о соответствии требованиям. Выявление, распознавание или идентификация лиц, кроме проверки проездных документов.
5) Правоохранительные органы : системы ШИ для оценки риска того, что лицо может стать жертвой преступления. Также они используют полиграфы для оценки достоверности доказательств в ходе уголовного расследования или судебного преследования. Оценка индивидуального риска совершения правонарушения или повторного совершения преступления осуществляется не только на основе профилирования или оценки личностных черт или преступного поведения в прошлом. Также проводится профилирование при обнаружении преступлений, расследования или судебного преследования. Незапрещенная биометрия указывает на системы дистанционной биометрической идентификации, позволяющие устанавливать личность человека, учитывая исключения из биометрической проверки, что подтверждает, что лицо является тем, кем он утверждает. Кроме того, это также охватывает биометрические системы категоризации, определяющие конфиденциальные или защищенные атрибуты, или характеристики, а также системы распознавания эмоций.
6) Правосудие : применение ШИ для обеспечения справедливости и демократических процессов заключается в использовании систем для анализа и интерпретации фактов, применения Закона к конкретным ситуациям, а также для поиска альтернативных путей разрешения конфликтов. Это также может влиять на результаты выборов, референдумов и поведение во время голосования, за исключением ситуаций, которые не взаимодействуют непосредственно с людьми, например инструменты для оптимизации политических кампаний.
7) Финансы : в финансовой отрасли ИИ трансформирует способ предоставления банковских и инвестиционных услуг. Чат-боты и виртуальные ассистенты на основе ИИ используются для персонализированного обслуживания клиентов, а алгоритмы машинного обучения используются для выявления мошенничества, оценки кредитного риска и автоматизации торговых стратегий. Используя возможности искусственного интеллекта, финансовые учреждения в ЕС могут оптимизировать сделки, улучшить процесс принятия решений и повысить качество обслуживания клиентов.
8) Агро сектор : революция в использовании систем ИИ позволяет точное и эффективное земледелие. Анализируя данные с датчиков, дронов и спутников, алгоритмы искусственного интеллекта могут предоставить фермерам ценную информацию о состоянии посевов, почвы и погодных условиях. Такой подход, основанный на данных, позволяет фермерам оптимизировать урожайность, снизить потери ресурсов и минимизировать влияние на окружающую среду.
Внедрение ИИ в ЕС открывает многочисленные возможности для экономического роста и общественного развития, но в то же время вызывает обеспокоенность этикой, конфиденциальностью и регулированием. ЕС активно работает над решением этих проблем, разрабатывая руководящие принципы и правила для обеспечения нравственного и ответственного использования технологий искусственного интеллекта. Европейская комиссия выпустила "Руководящие принципы этики для надежного ИИ", чтобы способствовать развитию ИИ, ориентированного на человека, уважающего фундаментальные права, ценящего разнообразие и обеспечивающего прозрачность и подотчетность.
Закон ЕС о защите персональных данных, конфиденциальности и конфиденциальности коммуникаций будет применяться к обработке персональных данных в связи с Законом о ИИ , прямо не влияющим на GDPR. Одним из главных отличий между законом о ШИ и GDPR есть область их применения. Закон о ШИ применяется к поставщикам, пользователям и другим участникам цепочки создания стоимости систем ШИ (например, импортеров и дистрибьюторов), размещенных на рынке ЕС или используемых на нем, независимо от их местонахождения. В отличие от Закона, GDPR применяется к контролерам и процессорам, которые обрабатывают персональные данные в контексте деятельности учреждения контроллера или процессора в ЕС, или предлагают товары или услуги, или контролируют поведение субъектов данных в ЕС. Это означает, что системы ИИ , не обрабатывающие или наоборот, обрабатывающие персональные данные субъектов данных, не являющихся гражданами ЕС, могут подпадать под действие Закона о ИИ , но не под действие GDPR. Кроме того, GDPR основывается на фундаментальном праве на неприкосновенность личной жизни. Субъекты данных могут реализовывать свои права против сторон, обрабатывающих их персональные данные. Кроме того, закон сосредотачивается на ШИ как на продукте, и при этом стремится внедрить "человекоцентрический подход", регулируя ШИ через концепцию регулировки продукта. Это означает, что люди косвенно защищены от неисправных систем. ШИ и не имеют четко определенной роли в законе о ИИ . Иными словами, остановка незаконной системы ИИ , использующей персональные данные, осуществляется в соответствии с Законом о ИИ , но реализация прав субъектов данных по их персональным данным осуществляется в соответствии с GDPR. Другим отличием между Законом о ШИ и GDPR является требованием к поставщикам внедрять инструменты интерфейса человеческого надзора, чтобы сделать возможным надзор со стороны человека, а также необходимо принять меры для обеспечения надзора со стороны человека. Однако в Законе о ИИ конкретно не определено, какие меры следует принять, и, в частности, отсутствуют дополнительные указания по этому аспекту. Люди, принимающие решения, должны получить четкие инструкции и обучение, например, как работает система ИИ , какие данные будут использоваться для введения, какого результата следует ожидать, и как оценить рекомендации системы ИИ . Следует учесть, что провайдеры обязаны предоставлять своим пользователям инструкции по работе систем ИИ , а также обязательства пользователей информировать и обучать своих людей, принимающих решения по элементам системы. ШИ . Это необходимо для того, чтобы люди, принимающие решения, могли принимать значимые, обоснованные решения и избегать (автоматизированной) предвзятости. Если надзор со стороны человека не имеет определенной степени определенности из-за отсутствия соответствующей подготовки лиц, принимающих решения, это может привести к тому, что система ШИ не будет считаться частично автоматизированной, и таким образом GDPR и соответствующие его обязательства должны применяться.
В общем, ИИ в ЕС готовы трансформировать различные сектора общества, стимулируя инновации, улучшая эффективность и повышая конкурентоспособность.
Согласно пресс-релизу Европарламента, закон о Искусственный Интеллект (далее – ИИ) был одобрен 523 положительными голосами. Окончательное согласование принятия Закона было достигнуто после предварительной договоренности – Пакта по решению Европейского Парламента и Совета в декабре (CPR, 11 декабря 2023 года). Согласно данной политической договоренности между Европарламентом и Советом ЕС главной целью сотрудничества было сосредоточение внимания с учетом всех возможных рисков в обеспечении юридической определенности и прозрачности в открытии новейших инновационных технологий на базе ИИ . Этим проектом-договоренностью реализовано адаптационный период для всех желающих и заинтересованных принять участие в процессе ускоренного обучения в использовании ИИ . По данному Пакту, было согласовано поддерживать стартапы в разработке ШИ и выделить более 1 миллиарда евро инвестиций из программ Horizon Europe и Digital Europe в исследования и инновации системы ИИ .
Внедряя технологии искусственного интеллекта, соблюдая этические стандарты и нормативно-правовую базу, ЕС может использовать весь потенциал искусственного интеллекта для создания более устойчивого и инклюзивного будущего для своих граждан.
Для ЕС это огромный скачок вперед, как через пандемию, ускорившую цифровую трансформацию до нового уровня экономического пространства - цифровой экономики, устанавливая новые стандарты AML / CFT , так и через создание огромного количества виртуальных платежных средств, что ускорило создание регулятора по регулированию рынка крипто активов ( MICA ) , и, в частности, на основе появления такой стремительной цифровизации, в ЕС был принят закон о Данных ( Data Act ) от 27.11.2023 года.
Если кратко по каждому из вышеупомянутых нормативных актов, то можно определить следующее :
Стандарты AML / CFT , или, иначе говоря, правила по противодействию отмыванию доходов и финансированию терроризма – это три новых Директивы, принятые 28 марта 2023 года. Их цель заключается в прозрении любых и всех операций, имеющих статус потенциально рисковых и представляющих прямую угрозу в соответствии с уровнем риска в рамках ЕС. При этом каждое государство-член должно создать подразделение финансовой разведки (ПФР) для предотвращения, отчетности и борьбы с отмыванием денег и финансированием терроризма. Кроме того, организации, такие как банки, менеджеры активов и криптоактивов, агенты по недвижимости и виртуальной недвижимости и другие организации высокого уровня риска, будут обязаны проверять и устанавливать личность своих клиентов, чем они владеют и кто контролер юридического лица. Организации также должны будут установить детальные типы рисков отмывания и финансирования терроризма в своей сфере деятельности и передавать соответствующую информацию в центральный реестр конечных бенефициарных владельцев (Central Central) . Register of Ultimate Beneficial Owner , сокращ. CRUBO ). Это один из шагов, который ЕС делает для улучшения борьбы с преступностью и терроризмом, а также обеспечения стабильности и безопасности финансовой системы в государствах-членах ЕС и, в общем-то, для измерения текущего отношения ЕС к пространству цифровых активов. Хотя окончательное обсуждение регулирования рынков крипто активов (MiCA), равно как и доработка Европейским парламентом пакета AML/CFT все еще рассматривается, можно уверенно сказать, что они уже на своем финальном этапе согласования.
Закон о рынке крипто активов ( MiCA regulation ) – это первый прописанный регулятор деятельности крипт рынка, в основу которого положено контролирование деятельности поставщиков виртуальных активов, определение основных условий и требований для ведения такой деятельности, а также ответственность за их несоблюдение, контроль за которыми будет вестись через компетентные национальные органы государств-членов и будут представлены отчеты в Европейский банковский орган ( EBA ) и Европейский орган по ценным бумагам и рынкам ( ESMA ). Благодаря единому лицензированию поставщиков криптоактивов, тем самым их полной проверке компетентными органами бизнес сможет повысить доверие перед финансовыми учреждениями, в частности перед банками, вызрев свою экономическую деятельность. Ожидается, что данный закон начнет действовать с конца 2024, а полностью вступит в действие со всеми дополнениями с 2025 года.
Закон о Данных ( Data Act ) – это следующий шаг по регулированию данных в сети, обусловленный обязательством по обмену данными владельцев таких данных, в частности это касается как «бизнес для потребителя» («B2C»), так и «бизнес для бизнеса» («B2B») , в частности, и «бизнес к государству» («B2G » ). После принятия Закона об Управлении данными, закон о Данных будет способствовать добровольному обмену данными между предприятиями (отдельными лицами и государственным сектором). В этом контексте закон о Данных является вторым ключевым законодательным актом, имеющим целью сделать сгенерированные данные более доступными для повторного использования пользователями. Цель этого проекта заключается в повышении конкурентоспособности бизнеса, разработке генерируемых ими инноваций и поощрении большего количества участников к рынку данных (информации). Несмотря на то, что этот закон распространяется не только на неличные данные, но и на персональные, он никоим образом не нарушает регламент защиты персональных данных GDPR (и другие национальные законы и законы ЕС о защите персональных данных и конфиденциальности), включая полномочия и полномочия компетенцию надзорных органов и права субъектов данных Если персональные данные генерируются с помощью связанных продуктов или связанных услуг, должны соблюдаться требования как Закона о данных, так и GDPR. По прогнозам, данный закон должен вступить в силу уже в 2026 году.
Кроме того, недавно был принят Закон об Искусственном интеллекте (ИИ) (ссылка) , согласно которой определен приоритет обеспечения того, чтобы все системы ИИ, разработанные, развернутые и используемые в ЕС, были безопасными, прозрачными, доступными для отслеживания и недискриминационными. Регулирование ИИ и обеспечение человеческого контроля над системами ИИ являются частью цифровой стратегии ЕС. В европейской законодательной схеме термин "система искусственного интеллекта" занимает центральное место. Его юридическое определение можно найти в нашей предыдущей статье об освещении нового закона о ИИ, предложенном Европейской комиссией со ссылкой на общеизвестное определение Организации экономического сотрудничества и развития (ОЭСР): «машинная система, разработанная для работы с разными уровнями автономности, которая может демонстрировать адаптивность после развертывания и которая, для явных или неявных целей, делает вывод на основе входных данных, которые она получает, как генерировать результаты, такие как прогнозы, содержание, рекомендации или решения, которые могут влиять на физическую или виртуальную среду».
Соответственно, Закон о ИИ преследует цель сбалансировать инновации, обеспечив защиту прав и безопасности граждан в ЕС. Для этого Закон предлагает классифицировать системы ИИ по категориям риска, устанавливая требования к ним в соответствии с уровнем риска систем ИИ, запрещает определенные практики ИИ, которые могут нести прямую угрозу правам и безопасности граждан (пользователей), а также устанавливает регуляторный надзор, предусматривающий наказание за несоблюдение требований Закона. Закон о ШИ относительно частично является формой законодательства о безопасности продукции. Такое законодательство направлено на предотвращение и уменьшение рисков путем установления стандартов безопасности. Одной из его основных целей является минимизация рисков, связанных с системами ИИ , прежде чем они будут размещены на рынке или развернуты для использования в сети . Законодательство о безопасности продукции обычно сопровождается законодательством об ответственности. Не все риски, возникающие при использовании продукта, можно избежать, поэтому законодательство об ответственности направлено на то, чтобы пострадавшие имели возможность получить соответствующую компенсацию.
Данный закон рассматривается не как единая нормативная база по регулированию ИИ . В контексте подхода к обеспечению эффективного регулирования новых технологий Европейской Комиссией было предложено усовершенствовать закон двумя директивами, в связи с тем , что Комиссия выявила потенциальный пробел в системе законодательства об ответственности, а именно отсутствие возможности получения потерпевшим эффективной компенсации в случае возникновения вреда, причиненного ШИ . Именно поэтому было решено присоединить директиву с правками об ответственности за продукцию ( PLD ) и новую директиву об ответственности за ШИ ( AILD ). Обе эти директивы направлены на гармонизацию и усиление режима ответственности за продукцию, цель которых состоит в том, чтобы обеспечить надлежащую компенсацию лицам, которые понесли ущерб, нанесенный использованием систем ИИ . Этот вопрос имеет большое значение, поскольку он гарантирует, что конечные пользователи систем ШИ будут более уверены в использовании технологии, зная, что они имеют право на определенные базовые средства защиты в случае ущерба. Это также обеспечит большую уверенность для компаний, занимающихся снабжением или развертыванием систем ИИ , поскольку они будут знать, с какими рисками ответственности они сталкиваются.
Директива ответственности по ИИ (англ. AI liability directive, сокращ. AILD )
В то время как закон о ШИ направленный на предотвращение ущерба, причиненного ИИ , директива AILD направлена на регулирование компенсации за ущерб, причиненный ИИ , путем применения законодательства об ответственности.
Посредством директивы AILD Комиссия ЕС стремится урегулировать компенсацию за ущерб, причиненный умышленно или по неосторожности системами ИИ . Как отмечается Комиссией ЕС, даже если с момента вступления в силу Закона о ШИ уменьшится риск безопасности и основных прав людей, ШИ не прекратит использование и обработку получаемой информации, а значит, остаточный риск потенциального вреда (опосредованно или прямо), вызванного ИИ , будет продолжать существовать. Таким образом, Комиссия стремится установить общие правила гражданской ответственности за ущерб, причиненный использованием систем ИИ .
AILD оказывает экстерриториальное действие, поскольку применяется к поставщикам и/или пользователям систем ИИ , доступных или действующих на рынке Европейского Союза. Эти правила ответственности будут иметь рычаг влияния для содействия надежной работе. ШИ и полное использование его преимуществ на внутреннем рынке. Такое действие будет гарантировать, что защита от вреда, вызванного ИИ , будет иметь такую же равную защиту, как и от вреда, причиненного любыми другими технологиями. AILD создаст опровергнутую презумпцию причинной связи, тем самым уменьшив бремя доказывания для потерпевшего лица, нанесенного вред.
Кроме того, AILD будет регулировать полномочия национальных судов требовать раскрытия «темной стороны» систем ШИ высокого риска в целях получения доказательств. Данная директива ограничивается претенциозной работой. В случае если повреждение было вызвано системой ШИ или неспособностью системы ШИ создать определенный результат, потерпевшей стороной преподносится претензия. Для обеспечения согласованности его определение AILD состоит из двух ключевых процедурных устройств.
Первое касается возможности потерпевших сторон получить доступ к соответствующим доказательствам. Истцы могут потребовать от национальных судов распоряжения о раскрытии или сохранении доказательств от соответствующих сторон в случае систем ШИ с высоким уровнем риска, подозреваемых в причинении вреда. На стороны, не выполняющие требований, распространяется презумпция неисполнения, что облегчает процедуру для истца и поощряет соответствующие стороны выполнять приказы.
Второе процедурное изменение, которое вводит AILD, облегчит доказательство причинно-следственной связи между виной соответствующей стороны и результатом работы системы. ШИ путём введения ряда опровергаемых презумпций.
Действие этих правил дает потерпевшим сторонам процессуальное преимущество в доказывании своей правоты. Однако им все равно придется доказать все существенные элементы своего требования в соответствии с законодательством каждого государства-члена.
После принятия Закона о ШИ и AILD, они станут первыми в мире правилами по ИИ . После вступления их в силу организации, использующие и производящие системы ИИ , будут иметь 24 месяца, чтобы выполнить все требования и их ввести.
Директива ответственности за продукцию (англ. Product Liability Directive, сокращ. PLD )
Данная директива PLD , как и предыдущая AILD , является неотъемлемой частью нормативной базы по регулированию ШИ в сочетании с Законом о ИИ .
В отличие от новой директивы AILD , PLD был принят в 1985 году и вводил строгий режим ответственности за материальный ущерб, причиненный из-за использования дефектной продукции. Однако время идет, и необходимость обновить директиву для цифровой эры уже наступила. В декабре прошлого года было предложено реформирование этой директивы, выходя за рамки простого обновления для учета технологии ИИ . Эти изменения предполагают общее расширение сферы применения, включая более широкое определение продуктов и ответственных сторон. Среди таких реформ, можно определить следующие :
- четкое признание того, что системы ШИ подпадают под действие PLD из-за включения «программного обеспечения» в определение «продукта». Согласно этой расширенной области применения поставщики системШИ потенциально будут нести ответственность за любые дефектные системы ИИ , размещенные на рынке. Директива также охватывает любые системы ИИ , интегрированные в продукты, стирая традиционную разницу между материальными и нематериальными продуктами ;
- несмотря на то, что PLD не будет распространяться на бесплатное программное обеспечение с открытым кодом, поставляемое вне коммерческой деятельности, производители, интегрирующие любое бесплатное программное обеспечение с открытым кодом в свои продукты, потенциально будут нести ответственность за любые дефекты возникнут в результате ;
- директива PLD предполагает возмещение любого материального ущерба, вызванного дефектом продукта, тогда как компенсация нематериального ущерба подпадает под действие законодательства каждого государства-члена;
- Концепция «вреда» в PLD расширена несколькими способами. Потерю или повреждение данных можно восстановить, но не в случае использования данных в профессиональных целях. Уничтожение или повреждение данных не приводит автоматически к материальному ущербу, если потерпевшая сторона все еще может получить данные бесплатно. Повреждение любого имущества, не используемого в профессиональных целях, по-прежнему не подлежит восстановлению ;
- обновленная концепция дефектности в PLD для учета систем ИИ . Продукты также можно считать «дефектными» из-за уязвимости кибербезопасности, что будет особенно актуально в контексте использования и развертывания систем ИИ . В обновленном тексте отмечается, что производители, разрабатывающие продукты со способностью развивать неожиданное поведение, остаются ответственными за наносящее вред поведение. В контексте системШИ это означает, что способности системы действовать будет недостаточно, чтобы разработчик освободился от ответственности. Действия или бездействие третьих сторон также не увольняют поставщиков систем ШИ от ответственности за наличие дефекта в продукте Это может быть в случае, когда третья сторона использует уязвимость кибербезопасности в системе ИИ , что приводит к причиненному ущербу. И наоборот, ответственность поставщиков ШИ может быть уменьшена или отменена, если потерпевшая сторона сама способствовала ущербу, например, не установила обновление в приложении (программе) или обновление системы ИИ ;
- традиционная защита согласно директиве PLD относительно дефекта в продукте, возникшего после размещения на рынке, имеет новое исключение, объясняющее тот факт, что продукты все еще могут находиться под контролем производителя после размещения на рынке. Это означает, что поставщики систем ШИ не смогут полагаться на эту защиту, если дефект системы ШИ вызванный определенным аспектом продукта, оставшегося под их контролем, включая предоставление обновлений или обновлений программного обеспечения или любых существенных модификаций.
Данное реформирование предусматривает 24-месячный адаптивный период, как и для предыдущей директивы, для государств-членов, чтобы имплементировать ее в национальном законодательстве. Это означает, что компании и физические лица должны ожидать введения местных законов примерно в 2026 году (если PLD вступит в силу в этом году). Этот срок будет соответствовать Закону о ИИ , который также составляет 24 месяца после его вступления в силу.
Следует отметить, что согласования директив, готовящихся к выполнению Закона о ИИ , должны будут переноситься на местный уровень каждого государства-участника, тогда как закон о ИИ , как Регламент, будет применяться непосредственно при его запуске.
В последнее время ИИ в Европейском Союзе приобретает все большее значение, поскольку технологии продолжают развиваться быстрыми темпами. ЕС признал потенциальные преимущества и вызовы, которые ИИ может принести в разные секторы общества. От здравоохранения к транспорту, от финансов к сельскому хозяйству – искусственный интеллект все больше интегрируется в повседневную деятельность, стимулируя инновации, повышая эффективность и конкурентоспособность.
В общем, согласно тексту Закона о Искусственном интеллекте, системы ШИ можно использовать в следующей деятельности :
1) Критическая инфраструктура: компоненты безопасности в управлении и эксплуатации критической цифровой инфраструктуры, дорожного движения и поставки воды, газа, отопления и электроэнергии.
Одной из ключевых сфер, где ИИ оказывает значительное влияние в ЕС, является здравоохранение. Инструменты и приложения на основе искусственного интеллекта разрабатываются, чтобы помочь медицинским работникам в диагностике заболеваний, прогнозировании результатов лечения и персонализации планов лечения. Используя ИИ, медицинские работники могут улучшить уход за пациентами, уменьшить количество медицинских ошибок и оптимизировать распределение ресурсов.
В транспортном секторе искусственный интеллект используется для повышения безопасности, эффективности и устойчивого развития. Автономные транспортные средства, работающие на алгоритмах искусственного интеллекта, испытываются и внедряются в разных странах ЕС для повышения безопасности дорожного движения и уменьшения пробок на дорогах. Кроме того, искусственный интеллект используется для оптимизации систем общественного транспорта, прогнозирования маршрутов и внедрения разумных решений по управлению дорожным движением.
2) Образование и профессиональная подготовка: разработка систем ШИ для определения доступа, поступления или назначения в учебные заведения всех уровней. Оценка результатов обучения, включая их использование для управления процессом обучения студентов. Определение уровня образования личности. Контроль и выявление запрещенного поведения учащихся в ходе контрольных работ.
3) Трудоустройство: системы ШИ используются для найма и отбора работников, особенно в целевых объявлениях о работе, анализе и фильтрации заявок и оценке кандидатов. Также они используются для повышения по службе и разрыва контрактов, распределения задач на основе личных черт или характеристик и поведения, а также для контроля и оценки производительности работников.
4) Государственные услуги : системы ИИ , которые используются государственными органами для определения права на получение льгот и услуг, включая их распределение, сокращение, отмену или восстановление. Определение кредитоспособности, кроме выявления финансового мошенничества. Анализ и классификация экстренных вызовов, включая установку приоритетов для диспетчеров полиции, пожарных, медицинской помощи и срочных служб сортировки пациентов. Оценка рисков и формирование цен в страховании здоровья и жизни. Оценка нелегальной передвижения либо рисков для здоровья. Рассмотрение заявок на получение убежища, визы и вида на жительство, а также связанных жалоб о соответствии требованиям. Выявление, распознавание или идентификация лиц, кроме проверки проездных документов.
5) Правоохранительные органы : системы ШИ для оценки риска того, что лицо может стать жертвой преступления. Также они используют полиграфы для оценки достоверности доказательств в ходе уголовного расследования или судебного преследования. Оценка индивидуального риска совершения правонарушения или повторного совершения преступления осуществляется не только на основе профилирования или оценки личностных черт или преступного поведения в прошлом. Также проводится профилирование при обнаружении преступлений, расследования или судебного преследования. Незапрещенная биометрия указывает на системы дистанционной биометрической идентификации, позволяющие устанавливать личность человека, учитывая исключения из биометрической проверки, что подтверждает, что лицо является тем, кем он утверждает. Кроме того, это также охватывает биометрические системы категоризации, определяющие конфиденциальные или защищенные атрибуты, или характеристики, а также системы распознавания эмоций.
6) Правосудие : применение ШИ для обеспечения справедливости и демократических процессов заключается в использовании систем для анализа и интерпретации фактов, применения Закона к конкретным ситуациям, а также для поиска альтернативных путей разрешения конфликтов. Это также может влиять на результаты выборов, референдумов и поведение во время голосования, за исключением ситуаций, которые не взаимодействуют непосредственно с людьми, например инструменты для оптимизации политических кампаний.
7) Финансы : в финансовой отрасли ИИ трансформирует способ предоставления банковских и инвестиционных услуг. Чат-боты и виртуальные ассистенты на основе ИИ используются для персонализированного обслуживания клиентов, а алгоритмы машинного обучения используются для выявления мошенничества, оценки кредитного риска и автоматизации торговых стратегий. Используя возможности искусственного интеллекта, финансовые учреждения в ЕС могут оптимизировать сделки, улучшить процесс принятия решений и повысить качество обслуживания клиентов.
8) Агро сектор : революция в использовании систем ИИ позволяет точное и эффективное земледелие. Анализируя данные с датчиков, дронов и спутников, алгоритмы искусственного интеллекта могут предоставить фермерам ценную информацию о состоянии посевов, почвы и погодных условиях. Такой подход, основанный на данных, позволяет фермерам оптимизировать урожайность, снизить потери ресурсов и минимизировать влияние на окружающую среду.
Внедрение ИИ в ЕС открывает многочисленные возможности для экономического роста и общественного развития, но в то же время вызывает обеспокоенность этикой, конфиденциальностью и регулированием. ЕС активно работает над решением этих проблем, разрабатывая руководящие принципы и правила для обеспечения нравственного и ответственного использования технологий искусственного интеллекта. Европейская комиссия выпустила "Руководящие принципы этики для надежного ИИ", чтобы способствовать развитию ИИ, ориентированного на человека, уважающего фундаментальные права, ценящего разнообразие и обеспечивающего прозрачность и подотчетность.
Закон ЕС о защите персональных данных, конфиденциальности и конфиденциальности коммуникаций будет применяться к обработке персональных данных в связи с Законом о ИИ , прямо не влияющим на GDPR. Одним из главных отличий между законом о ШИ и GDPR есть область их применения. Закон о ШИ применяется к поставщикам, пользователям и другим участникам цепочки создания стоимости систем ШИ (например, импортеров и дистрибьюторов), размещенных на рынке ЕС или используемых на нем, независимо от их местонахождения. В отличие от Закона, GDPR применяется к контролерам и процессорам, которые обрабатывают персональные данные в контексте деятельности учреждения контроллера или процессора в ЕС, или предлагают товары или услуги, или контролируют поведение субъектов данных в ЕС. Это означает, что системы ИИ , не обрабатывающие или наоборот, обрабатывающие персональные данные субъектов данных, не являющихся гражданами ЕС, могут подпадать под действие Закона о ИИ , но не под действие GDPR. Кроме того, GDPR основывается на фундаментальном праве на неприкосновенность личной жизни. Субъекты данных могут реализовывать свои права против сторон, обрабатывающих их персональные данные. Кроме того, закон сосредотачивается на ШИ как на продукте, и при этом стремится внедрить "человекоцентрический подход", регулируя ШИ через концепцию регулировки продукта. Это означает, что люди косвенно защищены от неисправных систем. ШИ и не имеют четко определенной роли в законе о ИИ . Иными словами, остановка незаконной системы ИИ , использующей персональные данные, осуществляется в соответствии с Законом о ИИ , но реализация прав субъектов данных по их персональным данным осуществляется в соответствии с GDPR. Другим отличием между Законом о ШИ и GDPR является требованием к поставщикам внедрять инструменты интерфейса человеческого надзора, чтобы сделать возможным надзор со стороны человека, а также необходимо принять меры для обеспечения надзора со стороны человека. Однако в Законе о ИИ конкретно не определено, какие меры следует принять, и, в частности, отсутствуют дополнительные указания по этому аспекту. Люди, принимающие решения, должны получить четкие инструкции и обучение, например, как работает система ИИ , какие данные будут использоваться для введения, какого результата следует ожидать, и как оценить рекомендации системы ИИ . Следует учесть, что провайдеры обязаны предоставлять своим пользователям инструкции по работе систем ИИ , а также обязательства пользователей информировать и обучать своих людей, принимающих решения по элементам системы. ШИ . Это необходимо для того, чтобы люди, принимающие решения, могли принимать значимые, обоснованные решения и избегать (автоматизированной) предвзятости. Если надзор со стороны человека не имеет определенной степени определенности из-за отсутствия соответствующей подготовки лиц, принимающих решения, это может привести к тому, что система ШИ не будет считаться частично автоматизированной, и таким образом GDPR и соответствующие его обязательства должны применяться.
В общем, ИИ в ЕС готовы трансформировать различные сектора общества, стимулируя инновации, улучшая эффективность и повышая конкурентоспособность.
Согласно пресс-релизу Европарламента, закон о Искусственный Интеллект (далее – ИИ) был одобрен 523 положительными голосами. Окончательное согласование принятия Закона было достигнуто после предварительной договоренности – Пакта по решению Европейского Парламента и Совета в декабре (CPR, 11 декабря 2023 года). Согласно данной политической договоренности между Европарламентом и Советом ЕС главной целью сотрудничества было сосредоточение внимания с учетом всех возможных рисков в обеспечении юридической определенности и прозрачности в открытии новейших инновационных технологий на базе ИИ . Этим проектом-договоренностью реализовано адаптационный период для всех желающих и заинтересованных принять участие в процессе ускоренного обучения в использовании ИИ . По данному Пакту, было согласовано поддерживать стартапы в разработке ШИ и выделить более 1 миллиарда евро инвестиций из программ Horizon Europe и Digital Europe в исследования и инновации системы ИИ .
Внедряя технологии искусственного интеллекта, соблюдая этические стандарты и нормативно-правовую базу, ЕС может использовать весь потенциал искусственного интеллекта для создания более устойчивого и инклюзивного будущего для своих граждан.