Звязацца з намі

Штучны інтэлект

Закон аб штучным інтэлекце: Савет і парламент заключылі здзелку аб першых у свеце правілах ІІ

Доля:

апублікаваны

on

Пасля трохдзённых «марафонскіх» перамоў старшынства Савета і ўдзельнікі перамоваў Еўрапарламента дасягнулі папярэдняга пагаднення па прапанове аб узгодненых правілах штучнага інтэлекту (AI), так званым законе аб штучным інтэлекце. Праект рэгламенту накіраваны на тое, каб сістэмы штучнага інтэлекту, якія размяшчаюцца на еўрапейскім рынку і выкарыстоўваюцца ў ЕС, былі бяспечнымі і паважалі асноўныя правы і каштоўнасці ЕС. Гэтая знакавая прапанова таксама накіравана на стымуляванне інвестыцый і інавацый у галіне штучнага інтэлекту ў Еўропе.

Кармэ Арцігас, дзяржсакратар Іспаніі па лічбавізацыі і штучнаму інтэлекту

Гэта гістарычнае дасягненне і велізарная вяха ў будучыню! Сённяшняе пагадненне эфектыўна вырашае глабальную праблему ў тэхналагічным асяроддзі, якое хутка развіваецца, у ключавой сферы для будучыні нашых грамадстваў і эканомік. І ў гэтай спробе нам удалося захаваць надзвычай далікатны баланс: стымуляваць інавацыі і распаўсюджванне штучнага інтэлекту ва ўсёй Еўропе, у той жа час цалкам паважаючы асноўныя правы нашых грамадзян. Карме Арцігас, дзяржаўны сакратар Іспаніі па лічбавізацыі і штучнаму інтэлекту

Дзеянне ІІ - гэта а флагман заканадаўчая ініцыятыва з патэнцыялам спрыяць распрацоўцы і распаўсюджванню бяспечнага і надзейнага ІІ на адзіным рынку ЕС як прыватнымі, так і дзяржаўнымі суб'ектамі. Асноўная ідэя заключаецца ў рэгуляванні штучнага інтэлекту на аснове здольнасці апошняга наносіць шкоду грамадству пасля а "на аснове рызыкі" падыход: чым вышэй рызыка, тым больш жорсткія правілы. Як першая заканадаўчая прапанова такога роду ў свеце, яна можа ўсталяваць a сусветны стандарт для рэгулявання штучнага інтэлекту ў іншых юрысдыкцыях, як гэта зрабіў GDPR, прасоўваючы такім чынам еўрапейскі падыход да тэхнічнага рэгулявання на сусветнай арэне.

Асноўныя элементы часовага пагаднення

У параўнанні з першапачатковай прапановай Камісіі асноўныя новыя элементы папярэдняга пагаднення можна абагульніць наступным чынам:

  • правілы на высокаўдарныя мадэлі AI агульнага прызначэння якія могуць выклікаць сістэмную небяспеку ў будучыні, а таксама з высокай рызыкай Сістэмы штучнага інтэлекту
  • перагледжаная сістэма ст кіраванне з некаторымі правамоцнымі паўнамоцтвамі на ўзроўні ЕС
  • пашырэнне спісу забароны але з магчымасцю выкарыстання дыстанцыйная біяметрычная ідэнтыфікацыя праваахоўнымі органамі ў грамадскіх месцах пры захаванні мер бяспекі
  • лепшая абарона правоў праз абавязацельства распрацоўшчыкаў сістэм штучнага інтэлекту з высокай рызыкай праводзіць a ацэнка ўздзеяння на асноўныя правы да ўводу ў эксплуатацыю сістэмы штучнага інтэлекту.

Калі казаць больш канкрэтна, часовае пагадненне ахоплівае наступныя аспекты:

Азначэнні і сфера прымянення

Для таго, каб вызначэнне сістэмы штучнага інтэлекту забяспечвае дастаткова выразныя крытэрыі адрознення штучнага інтэлекту ад больш простых праграмных сістэм, кампраміснае пагадненне ўзгадняе вызначэнне з падыходам, прапанаваным АЭСР.

У часовым пагадненні таксама ўдакладняецца, што рэгламент не распаўсюджваецца на сферы, якія не ўваходзяць у дзеянне заканадаўства ЕС, і ні ў якім разе не павінен закранаць кампетэнцыю дзяржаў-членаў у нацыянальная бяспека або любая арганізацыя, якой даручана выконваць задачы ў гэтай галіне. Акрамя таго, закон аб AI не будзе прымяняцца да сістэм, якія выкарыстоўваюцца выключна для ваенны or абарона мэтах. Аналагічным чынам пагадненне прадугледжвае, што рэгламент не будзе прымяняцца да сістэм штучнага інтэлекту, якія выкарыстоўваюцца з адзінай мэтай даследаванні і інавацыі, або для людзей, якія выкарыстоўваюць штучны інтэлект у непрафесійных мэтах.

рэклама

Класіфікацыя сістэм штучнага інтэлекту як высокарызыкоўных і забароненых метадаў штучнага інтэлекту

Кампраміснае пагадненне прадугледжвае а гарызантальны пласт абароны, уключаючы класіфікацыю высокай рызыкі, каб гарантаваць, што сістэмы штучнага інтэлекту, якія не могуць прывесці да сур'ёзных парушэнняў фундаментальных правоў або іншых істотных рызык, не будуць зафіксаваны. Толькі прэзентацыя сістэм штучнага інтэлекту абмежаваны рызыка будзе падвяргацца вельмі лёгкаму абавязацельствы па празрыстасці, напрыклад, паведамляючы, што кантэнт быў створаны штучным інтэлектам, каб карыстальнікі маглі прымаць абгрунтаваныя рашэнні аб далейшым выкарыстанні.

шырокі дыяпазон высокая рызыка Сістэмы штучнага інтэлекту будуць дазволеныя, але пры ўмове выканання шэрагу патрабаванняў і абавязацельстваў для атрымання доступу на рынак ЕС. Гэтыя патрабаванні былі ўдакладнены і скарэкціраваны сузаканадаўцамі такім чынам, каб іх было больш тэхнічна выканальна і менш абцяжарвае для зацікаўленых бакоў, якія павінны выконваць, напрыклад, у дачыненні да якасці даных або ў дачыненні да тэхнічнай дакументацыі, якая павінна быць складзена МСП, каб прадэманстраваць, што іх сістэмы штучнага інтэлекту высокай рызыкі адпавядаюць патрабаванням.

Паколькі сістэмы штучнага інтэлекту распрацоўваюцца і распаўсюджваюцца праз складаныя ланцужкі стварэння кошту, кампраміснае пагадненне ўключае змены, якія ўдакладняюць размеркаванне абавязкаў і ролі розных акцёраў у гэтых сетках, у прыватнасці, пастаўшчыкі і карыстальнікі сістэм штучнага інтэлекту. Ён таксама ўдакладняе ўзаемасувязь паміж абавязкамі ў адпаведнасці з Законам аб AI і абавязкамі, якія ўжо існуюць у адпаведнасці з іншым заканадаўствам, такім як адпаведнае заканадаўства ЕС аб ​​абароне даных або галіновае заканадаўства.

Для некаторых відаў выкарыстання штучнага інтэлекту лічыцца рызыка непрымальна і, такім чынам, гэтыя сістэмы будуць забароненыя ў ЕС. Часовая дамова забараняе, напрыклад, кагнітыўную паводніцкая маніпуляцыя, нямэтавае злом выявы твараў з Інтэрнэту або запісы камер відэаназірання, распазнаванне эмоцый на працоўным месцы і ў навучальных установах, сацыяльны бал, біяметрычная катэгарызацыі для атрымання канфідэнцыяльных даных, такіх як сэксуальная арыентацыя або рэлігійныя перакананні, і некаторыя выпадкі прагнастычныя паліцэйскі для фізічных асоб.

Выключэнні з праваахоўных органаў

Улічваючы спецыфіку в праваахоўныя органы і неабходнасць захаваць іх здольнасць выкарыстоўваць штучны інтэлект у сваёй жыццёва важнай працы, былі ўзгоднены некалькі змяненняў у прапанову Камісіі, якія тычацца выкарыстання сістэм штучнага інтэлекту ў праваахоўных мэтах. Пры ўмове адпаведнага ахоўныя меры, гэтыя змены закліканы адлюстраваць неабходнасць захавання канфідэнцыяльнасці канфідэнцыйных аперацыйных даных у дачыненні да іх дзейнасці. Напрыклад, была ўведзена надзвычайная працэдура, якая дазваляе праваахоўным органам разгарнуць інструмент штучнага інтэлекту высокай рызыкі, які не прайшоў праверку ацэнка адпаведнасці працэдура ў выпадку тэрміновасці. Але для гэтага ўведзены і пэўны механізм асноўныя правы будуць дастаткова абаронены ад любых магчымых злоўжыванняў сістэмамі штучнага інтэлекту.

Больш за тое, што тычыцца выкарыстання рэжыму рэальнага часу дыстанцыйная біяметрычная ідэнтыфікацыя сістэмы ў агульнадаступных месцах, часовае пагадненне ўдакладняе мэты, у якіх такое выкарыстанне з'яўляецца строга неабходным для праваахоўных мэт і для якіх праваахоўным органам павінна быць дазволена выкарыстоўваць такія сістэмы ў выключных выпадках. Кампраміснае пагадненне прадугледжвае дадатковыя гарантыі і абмяжоўвае гэтыя выключэнні выпадкамі ахвяр пэўных злачынстваў, прадухіленнем сапраўдных, цяперашніх або прадказальных пагроз, такіх як тэрарыстычныя напады, і вышукам людзей, падазраваных у найбольш сур'ёзных злачынствах.

Сістэмы штучнага інтэлекту агульнага прызначэння і фундаментальныя мадэлі

Новыя палажэнні былі дададзены для ўліку сітуацый, калі сістэмы штучнага інтэлекту можна выкарыстоўваць для розных мэтаў (АІ агульнага прызначэння), і дзе тэхналогія штучнага інтэлекту агульнага прызначэння пасля інтэгруецца ў іншую сістэму высокай рызыкі. У часовым пагадненні таксама разглядаюцца канкрэтныя выпадкі сістэм штучнага інтэлекту агульнага прызначэння (GPAI).

Таксама былі ўзгоднены канкрэтныя правілы мадэлі падмурка, вялікія сістэмы, здольныя кампетэнтна выконваць шырокі спектр адметных задач, такіх як стварэнне відэа, тэксту, малюнкаў, размова на бакавой мове, вылічэнні або стварэнне камп'ютэрнага кода. Папярэдняя дамова прадугледжвае, што мадэлі падмуркаў павінны адпавядаць канкрэтным абавязацельствы па празрыстасці перш чым яны будуць размешчаны на рынку. Быў уведзены больш жорсткі рэжым для "моцны ўплыў" мадэлі падмурка. Гэта асноўныя мадэлі, падрыхтаваныя з вялікім аб'ёмам даных і з пашыранай складанасцю, магчымасцямі і прадукцыйнасцю, значна вышэйшымі за сярэднія, якія могуць распаўсюджваць сістэмныя рызыкі па ланцужку стварэння кошту.

Новая архітэктура кіравання

Пасля новых правілаў мадэляў GPAI і відавочнай неабходнасці іх выканання на ўзроўні ЕС, an Офіс AI у рамках Камісіі створана задача назіраць за гэтымі самымі перадавымі мадэлямі штучнага інтэлекту, садзейнічаць развіццю стандартаў і метадаў тэсціравання і забяспечваць выкананне агульных правілаў ва ўсіх дзяржавах-членах. А навуковая група незалежных экспертаў будзе кансультаваць Упраўленне штучнага інтэлекту аб мадэлях GPAI, уносячы ўклад у распрацоўку метадалогій для ацэнкі магчымасцей мадэляў падмуркаў, кансультуючы па прызначэнні і з'яўленні мадэляў падмуркаў з вялікім уздзеяннем, а таксама адсочваючы магчымыя рызыкі бяспекі матэрыялаў, звязаныя з мадэлямі падмуркаў.

,en Дошка ІІ, які будзе складацца з прадстаўнікоў дзяржаў-членаў, застанецца ў якасці каардынацыйнай платформы і кансультатыўнага органа Камісіі і будзе аддаваць важную ролю дзяржавам-членам у выкананні рэгламенту, у тым ліку ў распрацоўцы кодэксаў практыкі для базавых мадэляў. Нарэшце, ан кансультацыйны форум для зацікаўленых бакоў, такіх як прадстаўнікі прамысловасці, малыя і сярэднія прадпрыемствы, стартапы, грамадзянская супольнасць і акадэмічныя колы, будуць створаны для забеспячэння тэхнічнай экспертызы Савета AI.

Пакарання

Штрафы за парушэнне закона аб штучным інтэлекту былі ўсталяваны ў працэнтах ад сусветнага гадавога абароту кампаніі-парушальніка за папярэдні фінансавы год або загадзя вызначанай сумы, у залежнасці ад таго, што вышэй. Гэта будзе 35 мільёнаў еўра або 7% за парушэнне забароненых прыкладанняў штучнага інтэлекту, 15 мільёнаў еўра або 3% за парушэнне абавязацельстваў закона аб штучным інтэлекце і 7,5 мільёна еўра або 1,5% за прадастаўленне няправільнай інфармацыі. Аднак часовае пагадненне прадугледжвае больш прапарцыйныя шапкі аб адміністрацыйных штрафах для малых і сярэдніх прадпрыемстваў і пачынаючых прадпрыемстваў у выпадку парушэння палажэнняў акта AI.

У кампрамісным пагадненні таксама прапісана, што фізічная або юрыдычная асоба можа звярнуцца са скаргай у адпаведны орган орган па наглядзе за рынкам адносна невыканання акта AI і можа чакаць, што такая скарга будзе разгледжана ў адпаведнасці са спецыяльнымі працэдурамі гэтага органа.

Празрыстасць і абарона асноўных правоў

Часовае пагадненне прадугледжвае а ацэнка ўздзеяння на асноўныя правы да таго, як сістэма штучнага інтэлекту высокай рызыкі будзе выпушчана на рынак яе распрацоўшчыкамі. Часовае пагадненне таксама прадугледжвае павелічэнне празрыстасць адносна выкарыстання сістэм ІІ высокай рызыкі. У прыватнасці, некаторыя палажэнні прапановы Камісіі былі зменены, каб паказаць, што некаторыя карыстальнікі сістэмы штучнага інтэлекту высокай рызыкі, якія з'яўляюцца дзяржаўнымі арганізацыямі, таксама будуць абавязаны зарэгістравацца ў База дадзеных ЕС для сістэм штучнага інтэлекту высокай рызыкі. Больш за тое, новыя дададзеныя палажэнні падкрэсліваюць абавязацельствы карыстальнікаў ан сістэма распазнавання эмоцый інфармаваць фізічных асоб, калі яны падвяргаюцца ўздзеянню такой сістэмы.

Меры па падтрымцы інавацыйнай дзейнасці

З мэтай стварэння заканадаўчай базы, якая больш спрыяе інавацыям, і прасоўвання нарматыўнага навучання на аснове фактычных дадзеных, палажэнні, якія тычацца меры па падтрымцы інавацый былі істотна зменены ў параўнанні з прапановай Камісіі.

Характэрна, што ўдакладняецца, што А.І нарматыўныя пясочніцы, якія павінны стварыць кантраляванае асяроддзе для распрацоўкі, тэсціравання і праверкі інавацыйных сістэм штучнага інтэлекту, таксама павінны дазволіць тэставанне інавацыйных сістэм штучнага інтэлекту ў рэальных умовах. Акрамя таго, былі дададзены новыя палажэнні, якія дазваляюць тэставанне сістэм штучнага інтэлекту ў рэальныя ўмовы свету, пры пэўных умовах і гарантыях. Каб палегчыць адміністрацыйную нагрузку для невялікіх кампаній, папярэдняе пагадненне ўключае ў сябе спіс дзеянняў, якія неабходна распачаць для падтрымкі такіх аператараў, і прадугледжвае некаторыя абмежаваныя і дакладна вызначаныя адступленні.

Уступленне ў сілу

Часовае пагадненне прадугледжвае прымяненне акта ІІ два гады пасля ўступлення ў сілу, з некаторымі выключэннямі для асобных палажэнняў.

Наступныя крокі

Пасля сённяшняга папярэдняга пагаднення праца будзе працягвацца на тэхнічным узроўні ў бліжэйшыя тыдні, каб завяршыць дэталі новага рэгламенту. Старшыня перадасць кампрамісны тэкст прадстаўнікам дзяржаў-членаў (Coreper) на зацвярджэнне пасля завяршэння гэтай працы.

Увесь тэкст павінен быць пацверджаны абедзвюма ўстановамі і прайсці юрыдычна-лінгвістычную рэвізію перад афіцыйным прыняццем сузаканадаўцамі.

Зыходная інфармацыя

Прапанова Камісіі, прадстаўленая ў красавіку 2021 года, з'яўляецца ключавым элементам палітыкі ЕС па садзейнічанні развіццю і распаўсюджванню на адзіным рынку бяспечнага і законнага ІІ, які паважае асноўныя правы.

Прапанова прытрымліваецца падыходу, заснаванага на рызыцы, і ўстанаўлівае адзіную гарызантальную прававую базу для ІІ, якая накіравана на забеспячэнне прававой пэўнасці. Праект рэгламенту накіраваны на садзейнічанне інвестыцыям і інавацыям у галіне штучнага інтэлекту, паляпшэнне кіравання і эфектыўнага выканання дзеючага заканадаўства аб асноўных правах і бяспецы, а таксама садзейнічанне развіццю адзінага рынку прыкладанняў штучнага інтэлекту. Гэта ідзе рука аб руку з іншымі ініцыятывамі, у тым ліку з скаардынаваным планам па штучным інтэлекце, які накіраваны на паскарэнне інвестыцый у штучны інтэлект у Еўропе. 6 снежня 2022 года Савет дасягнуў пагаднення аб агульным падыходзе (мандат на вядзенне перамоваў) па гэтым файле і ў сярэдзіне чэрвеня 2023 года пачаў міжінстытуцыйныя перамовы з Еўрапейскім парламентам («трыялогі»).

Падзяліцеся гэтым артыкулам:

EU Reporter публікуе артыкулы з розных знешніх крыніц, якія выказваюць шырокі спектр пунктаў гледжання. Пазіцыі, выказаныя ў гэтых артыкулах, не абавязкова адпавядаюць пазіцыі EU Reporter.

Актуальныя