Технологии

В ЕС разработали правила защиты людей от манипуляций искусственного интеллекта

В ЕС разработали правила защиты людей от манипуляций искусственного интеллекта

В ЕС разработали правила защиты людей от манипуляций искусственного интеллекта

21.04.2021 18:20

Укринформ

Еврокомиссия разработала и обнародовала предложения к регуляторным правилам, которые должны создать условия для безопасного и этичного использования искусственного интеллекта в интересах граждан Евросоюза.

Как сообщает Укринформ, такая информация была обнародована в среду на сайте Европейской Комиссии.

«В сфере искусственного интеллекта доверие к нему людей является обязанностью, а не чем-то таким, что хорошо иметь. Предлагая эти основополагающие правила, Евросоюз демонстрирует лидерство в разработке глобальных норм, которые будут гарантировать доверие к искусственному интеллекту. Устанавливая такие стандарты, мы можем проложить путь для этического использования таких технологий во всем мире и обеспечить конкурентоспособность ЕС в этой сфере. Устремленные в будущее и благоприятные для инноваций, наши правила применяются там, где они прямо необходимы: когда речь идет о безопасности и фундаментальных правах наших граждан», — отметила по этому поводу вице-президент Еврокомиссии по цифровому развитию Маргрете Вестайгер (Margrethe Vestager).

Читайте также: Apple скупила больше всего компаний, занимающихся искусственным интеллектом

Услуги, связанные с широким применением цифровых и компьютерных технологий, уже используются и открывают новые перспективы во многих сферах деятельности человека, включая здравоохранение, транспорт, энергетику, сельское хозяйство, туризм, кибернетическую безопасность и многие другие. Предлагая новые правила, ЕС стремится сохранить за собой лидерство в развитии этой сферы и одновременно обеспечить уважение к ценностям и универсальным свободам, на которых основано все европейское общество, безопасность технологий искусственного интеллекта в условиях их широкого применения.

В частности, предложенные правила предусматривают критерии для оценки рисков использования технологий искусственного интеллекта.

Читайте также: Google уволил исследовательницу искусственного интеллекта за нарушение его «прав»

К первой категории «неприемлемого риска» будут отнесены все системы искусственного интеллекта, вызывающие угрозу для безопасности, образа жизни или для прав людей, например, системы или приложения, которые позволяют манипулировать поведением людей, или технологии, позволяющие власти сегментацию общества по признаку произведенных системами искусственного интеллекта «социальных рейтингов». Использование таких технологий прямо запрещается.

Ко второй категории относятся технологии искусственного интеллекта «высокого риска», которые применяются, в частности, в сферах общественного транспорта и в других объектах критической инфраструктуры в сфере образования и профессиональной подготовки, в сфере безопасности и трудоустройства, общественного порядка, миграции и убежища, правосудия и других, которые прямо затрагивают безопасность личности или права человека, в том числе на получение адекватных социальных услуг, качественного образования или обеспечения права на достойный труд. К такого рода услугам будет применяться особенно тщательный контроль перед тем, как допустить их использование на европейском рынке, с целью минимизировать потенциальные риски для жизни, здоровья и фундаментальных прав граждан стран ЕС.

Читайте также: Искусственный интеллект будет «считывать» эмоции учеников и спрогнозирует их оценки

Интересно, что к «рискованным» технологиям отнесены системы визуального распознавания лица, предусматривающие его биометрическую идентификацию. Их использование в публичных местах, в том числе, в интересах правоохранительных органов, прямо запрещается европейским законодательством, за очень редкими исключениями, например, для поиска потерянных детей, для предотвращения террористической деятельности или для определения места нахождения особо опасных преступников, — для каждого из таких исключений необходимо разрешение от судебной власти или от других уполномоченных органов.

При этом большинство технологий искусственного интеллекта относятся к категории «ограниченного» или «минимального» риска, такие как «чат-боты» для коммуникаций с электронными устройствами, видеоигры, фильтры компьютерного спама и другие, которые не несут угрозу для безопасности или прав пользователей . Для использования таких технологий не нужно дополнительного разрешения или авторизации.

Читайте также: Microsoft хочет купить разработчика технологий искусственного интеллекта — СМИ

Приведенные предложения Еврокомиссии должны быть рассмотрены и приняты Европейским парламентом и поддержаны на уровне стран-членов ЕС. После такого принятия они будут применяться на всей территории Европейского Союза.

Как сообщалось, в 2020 году Еврокомиссия обнародовала «Белую книгу» по развитию искусственного интеллекта в Европе, которая предусматривает этические нормы использования таких технологий, меры доверия и учета лучшего опыта. Все эти параметры нашли отражение в предлагаемых сегодня регуляторных правилах по применению искусственного интеллекта на территории ЕС.

По материалам: Укринформ

Материалы по теме

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Back to top button