Megjelent az Európai Bizottság állásfoglalása az AI törvényi szabályozására vonatkozó javaslatról

Az Euralarm, Gabriele Mazzini, a DG Connect vezető ügyvédjének véleményét kérdezte a témáról azt követően, hogy megjelent egy állásfoglalás a mesterséges intelligenciáról szóló törvényjavaslatról.

A mesterséges intelligencia első jogi kerete

A mesterséges intelligenciáról szóló törvény egy folyamat eredménye, amelynek kezdete  2018- ra tehető, amikor egy szakértői csoportot neveztek ki, tanácsadási feladatkörrel a téma áttekintésére, egyben javaslattételi feladatkörrel a Bizottság számára. A javaslat általános célja, hogy a mesterséges intelligencia fejlesztésére és használatára vonatkozó szabályokat egységessé tegye az Unióban és ezáltal biztosítsa a jogbiztonságot. Egyúttal arra is törekszik, hogy ösztönözze a mesterséges intelligenciába történő befektetést és innovációt és növelje a lakosság bizalmát abban, hogy az AI rendszereket az alapvető jogok és az európai értékek tiszteletben tartása figyelembevételével alkalmazzák.

2020 -ban a Bizottság a témában elfogadott egy fehér könyvet, amelyet konzultációra küldtek ki és több mint 1200 megjegyzést kapott. Ez a hozzájárulás segített megalapozni a mesterséges intelligenciára vonatkozó harmonizált szabályozási keretre vonatkozó javaslatot.

Az AI törvény jelenleg az első javasolt jogi keret a mesterséges intelligenciára vonatkozóan.

Forrás: euronews

Tág definíció

Az AI kifejezést először az 1950 -es években használták. Gabriele kifejti, hogy a Bizottság Közös Kutatóközpontja nemrégiben készített jelentése alapján a mesterséges intelligenciának több mint 50 definíciója létezik, azaz igencsak összetett kérdésről beszélünk.

Tekintettel arra, hogy az uniós országok túlnyomó többsége tagja az OECD-nek is az a döntés született, hogy a szabályozási irányelvek alapjait az OECD AI elvek elfogadott meghatározásából merítik. A törvényben a mesterséges intelligencia fogalmát a 3. cikkely határozza meg és ezt egészíti ki az I. számú melléklet, amely a szoftverfejlesztési keretrendszert tartalmazza, ami magában foglalja a gépi tanulást, a szakértői és logikai rendszereket, a statisztikai megközelítéseket. Azokat a szoftvertermékeket, amelyek ezeket a megközelítéseket tartalmazzák és megfelelnek a 3. cikkelyben meghatározott definíció követelményeinek, a törvény alkalmazásában AI – nak tekintik.

A törvény a mesterséges intelligencia felhasználásának három kategóriáját különbözteti meg: a tiltott mesterséges mesterséges felhasználásokat, a nagy kockázatú AI felhasználásokat és az átláthatósági kockázatokat hordozó rendszereket. A javaslat nema technológiát szabályozza, hanem a konkrét alkalmazásokat. Általánosságban elmondható, hogy minél nagyobb a kockázat, annál szigorúbbak a szabályok (kockázatalapú megközelítés).

Az AI tiltott használata

Jelenleg négy fő kategória létezik a tiltott AI használat tekintetében.

Az első kettő a személy viselkedésének manipulálására, vagy életkorának, testi, vagy szellemi fogyatékosságából adódó sebezhetőségének kihasználására vonatkozik.

A harmadik kategória szerint: tilos az állami szociális hitel jogosultságok megállapításához   kapcsolódó diszkriminatív alkalmazás.

A negyedik kategória a valós idejű távoli biometrikus azonosításra vonatkozik a bűnüldöző szervek által nyilvánosan hozzáférhető helyeken. Kivételt képeznek bizonyos, korlátozott ideig tartó közbiztonsági esetek, például súlyos bűncselekmények ( A tagállamokon múlik, hogy mikor kívánnak élni ezzel a kivétellel.). Az AI törvényt „lex specialis” -ként kell alkalmazni a biometrikus adatok feldolgozására vonatkozó, a bűnüldözési irányelv 10. cikkében foglalt szabályok tekintetében.  Továbbá a biometrikus azonosítás felhasználását a hatályos GDPR törvény is már szabályozza .

Magas kockázatú besorolás

Az AI törvény meghatározza a magas kockázatú AI felhasználásokat is.

Gabriele kifejti, hogy a mesterséges intelligencia-törvény magas kockázatúnak tekinti a mesterséges intelligencia-rendszert, ha azt egy olyan termék biztonsági összetevőjeként használják, amelyre a meglévő egységes piacra vonatkozó harmonizációs jogszabályok vonatkoznak és a terméken harmadik fél megfelelőségi értékelését kell elvégezni.

Ezek a kötelező harmadik féltől származó megfelelőségi ellenőrzések a jogszabály elfogadását követően magukban foglalják az AI törvény követelményeit. Ezenkívül más, konkrétan felsorolt ​​AI-rendszerek, amelyeket számos ágazatban telepítenek, szintén magas kockázatot jelentenek a biztonság vagy az alapvető jogok szempontjából. A Bizottság új jogszabályok nélkül, egyszerűsített eljárással bővítheti ezt a listát.

A törvény végrehajtása és szankciói a tagállami szabályozó hatóságokra támaszkodik, de a következetességet európai szintű testület biztosítja.

Hatékony együttműködés az érdekeltekkel

Gabriele szerint az érintettek megjegyzései és javaslatai az AI törvény megalkotásához igen jelentős volt. Rendkívül fontos a szabályozási keretek kialakítása során konzultálni, és lehetőség szerint következetes párbeszédet folytatni az érdekelt felekkel.

A javaslat most az Európai Parlament és a Tanács elé kerül, amelyek lefolytatják saját vitáikat. Az előkészítő munkáért felelős parlamenti bizottságok és maga a Parlament nyilvánosan üléseznek, így az érdekelt felek nyomon követhetik a javaslattal kapcsolatos vitákat, és kifejthetik álláspontjukat.

Forrás: IfsecGlobal

Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük