Звязацца з намі

Штучны інтэлект

Закон ЕС аб ​​штучным інтэлекце: Першы рэгламент аб штучным інтэлекце 

Доля:

апублікаваны

on

Мы выкарыстоўваем вашу рэгістрацыю, каб прадастаўляць змест так, як вы далі згоду, і палепшыць наша разуменне вас. Вы можаце адмяніць падпіску ў любы час.

Выкарыстанне штучнага інтэлекту ў ЕС будзе рэгулявацца Законам аб AI, першым у свеце ўсёабдымным законам аб AI. Даведайцеся, як гэта абароніць вас, Грамадства.

У рамках сваёй лічбавая стратэгія, ЕС хоча рэгуляваць штучны інтэлект (AI), каб забяспечыць лепшыя ўмовы для распрацоўкі і выкарыстання гэтай інавацыйнай тэхналогіі. AI можа стварыць шмат пераваг, напрыклад, паляпшэнне аховы здароўя; больш бяспечны і чысты транспарт; больш эфектыўная вытворчасць; і больш танная і ўстойлівая энергія.

У красавіку 2021 года Еўрапейская камісія прапанавала першую нарматыўную базу ЕС для ІІ. У ім гаворыцца, што сістэмы штучнага інтэлекту, якія можна выкарыстоўваць у розных праграмах, аналізуюцца і класіфікуюцца ў залежнасці ад рызыкі, якую яны ўяўляюць для карыстальнікаў. Розныя ўзроўні рызыкі будуць азначаць большае ці меншае рэгуляванне. Пасля зацвярджэння гэта будуць першыя ў свеце правілы ІІ.

Даведацца больш пра што такое штучны інтэлект і як ён выкарыстоўваецца.

Што парламент хоча ад заканадаўства аб штучным інтэлекце

Прыярытэт парламента заключаецца ў тым, каб пераканацца, што сістэмы штучнага інтэлекту, якія выкарыстоўваюцца ў ЕС, з'яўляюцца бяспечнымі, празрыстымі, прасочваемымі, недыскрымінацыйнымі і экалагічна чыстымі. Сістэмы штучнага інтэлекту павінны кантралявацца людзьмі, а не аўтаматызацыяй, каб прадухіліць шкодныя вынікі.

Парламент таксама хоча стварыць тэхналагічна нейтральнае, адзінае вызначэнне штучнага інтэлекту, якое можа прымяняцца да будучых сістэм штучнага інтэлекту.

Даведацца больш пра Праца парламента па ІІ і яе бачанне будучыні штучнага інтэлекту.

рэклама

Закон аб AI: розныя правілы для розных узроўняў рызыкі

Новыя правілы ўстанаўліваюць абавязацельствы для правайдэраў і карыстальнікаў у залежнасці ад узроўню рызыкі з боку штучнага інтэлекту. Хаця многія сістэмы штучнага інтэлекту ўяўляюць мінімальную небяспеку, іх неабходна ацаніць.

Непрымальны рызыка

Сістэмы AI з непрымальнай рызыкай - гэта сістэмы, якія лічацца пагрозай для людзей і будуць забароненыя. Яны ўключаюць у сябе:

  • Кагнітыўнае паводніцкае маніпуляванне людзьмі ці пэўнымі ўразлівымі групамі: напрыклад, галасавыя цацкі, якія заахвочваюць да небяспечных паводзін дзяцей
  • Сацыяльная адзнака: класіфікацыя людзей на аснове паводзін, сацыяльна-эканамічнага статусу або асабістых характарыстык
  • Сістэмы біяметрычнай ідэнтыфікацыі ў рэжыме рэальнага часу і на адлегласці, такія як распазнаванне твараў

Могуць быць дазволеныя некаторыя выключэнні: напрыклад, «пост» дыстанцыйных біяметрычных сістэм ідэнтыфікацыі, калі ідэнтыфікацыя адбываецца пасля значнай затрымкі, будзе дазволена пераследваць сур'ёзныя злачынствы, але толькі пасля дазволу суда.

высокая рызыка

Сістэмы штучнага інтэлекту, якія негатыўна ўплываюць на бяспеку або асноўныя правы, будуць лічыцца высокай рызыкай і будуць падзелены на дзве катэгорыі:

1) Сістэмы AI, якія выкарыстоўваюцца ў прадуктах, якія падпадаюць пад заканадаўства ЕС аб ​​бяспецы прадукцыі. Гэта ўключае ў сябе цацкі, авіяцыю, аўтамабілі, медыцынскія прылады і ліфты.

2) Сістэмы штучнага інтэлекту, якія адносяцца да васьмі спецыфічных абласцей, якія павінны быць зарэгістраваны ў базе дадзеных ЕС:

  • Біяметрычная ідэнтыфікацыя і катэгарызацыі фізічных асоб
  • Кіраванне і эксплуатацыя крытычнай інфраструктуры
  • Адукацыя і прафесійнае навучанне
  • Працаўладкаванне, кіраванне працоўнымі і доступ да самазанятасці
  • Доступ і выкарыстанне асноўных прыватных і дзяржаўных паслуг і выгод
  • Правапрымяненне
  • Кіраванне міграцыяй, прадастаўленнем прытулку і памежным кантролем
  • Дапамога ў тлумачэнні і прымяненні права.

Усе сістэмы штучнага інтэлекту высокай рызыкі будуць ацэньвацца перад выхадам на рынак, а таксама на працягу ўсяго іх жыццёвага цыкла.

Генератыўны ІІ

Генератыўны штучны інтэлект, як ChatGPT, павінен адпавядаць патрабаванням празрыстасці:

  • Паведамленне аб тым, што кантэнт быў створаны штучным інтэлектам
  • Распрацоўка мадэлі для прадухілення стварэння незаконнага кантэнту
  • Публікацыя зводак абароненых аўтарскім правам даных, якія выкарыстоўваюцца для навучання

Абмежаваны рызыка

Сістэмы штучнага інтэлекту з абмежаванай рызыкай павінны адпавядаць мінімальным патрабаванням празрыстасці, якія дазволяць карыстальнікам прымаць абгрунтаваныя рашэнні. Пасля ўзаемадзеяння з праграмамі карыстальнік можа вырашыць, ці жадаюць яны працягваць яе выкарыстоўваць. Карыстальнікі павінны быць у курсе, калі яны ўзаемадзейнічаюць з ІІ. Гэта ўключае ў сябе сістэмы штучнага інтэлекту, якія ствараюць або маніпулююць малюнкамі, аўдыя- або відэакантэнтам, напрыклад, дыпфейкі.

Наступныя крокі

14 чэрвеня 2023 года дэпутаты Еўрапарламента прынялі Перамоўная пазіцыя парламентаў па Законе аб AI. Зараз пачнуцца перамовы з краінамі ЕС у Радзе аб канчатковай форме закона.

Мэта - дасягнуць пагаднення да канца гэтага года.

Больш падрабязна пра лічбавыя меры ЕС

Брыфінг 

Падзяліцеся гэтым артыкулам:

EU Reporter публікуе артыкулы з розных знешніх крыніц, якія выказваюць шырокі спектр пунктаў гледжання. Пазіцыі, выказаныя ў гэтых артыкулах, не абавязкова адпавядаюць пазіцыі EU Reporter.

Актуальныя