tudományos-szakmai folyóirat

A mesterséges intelligencia hatása a büntetőjogi felelősségre¹


Szerző(k): Szathmáry Zoltán

A mesterséges intelligencia és büntetőjog kifejezések együttes hallatán sokak lelki szemei előtt egy alarmista disztópia jelenik meg, ahogy egy bilincsbe vert robotot bíróság elé állítanak, vagy épp szenvtelen számítógépek ítélkeznek felettünk. Úgy vélem, félrevezető lenne gondolkodásunkat e kétségtelenül fantáziadús képzetek köré szervezni. A jelenben és a belátható közeli jövőben a mesterséges intelligencia (a továbbiakban: MI) büntetőjogi kérdései a technológia társadalmi hatásainak eredményeként és az emberi felelősséggel kapcsolatosan jelennek meg. Mindez nyilvánvalóan unalmasabban hangzik az előző vízióknál, újszerűsége mégsem vitatható el. Ez az újszerűség két gondolati ágon, ha úgy tetszik, absztrakciós szinten is megjeleníthető: az MI bűncselekmények eszközeként való felhasználása kapcsán és a káros eredményekért való emberi felelőtlenség terén. Az MI büntetőjogi kihívásait egy problématérkép felvázolásával, egy megközelítési mód bemutatásával törekszem megvilágítani.

Proaktív büntetőjogi gondolkodás

Ha ez félig-meddig csak jövő, akkor miért kell egyáltalán foglalkozni a kérdéssel? Az információs társadalom új, társadalmilag káros jelenségei előzmény és kész büntetőjogi válaszok nélkül, többször nagy visszhangot kiváltva jelentek meg. Gondoljunk példának okáért kezdetekben az információs rendszerrel elkövetett csalás dogmatikai problémáira, a cyberbullying-ra, majd az ún. Blue Whale, vagy Momó-jelenségre, a kriptovaluták pénzmosásra való használatára stb. Törvényszerű, hogy a társadalmi-gazdasági viszonyok változásai új devianciákat is kitermelnek, és sok esetben nem lehet előre látni, hogy gyorsan múló és elszigetelt trendekről van-e szó, amelyek eltűnnek, mire a jogalkotás reagálni tud rájuk, vagy tartósan kell majd együtt élnünk velük. Ez nagyban meghatározza a jogtudomány hozzáállását is az informatikai környezetet érintő büntetőjogi kérdéshez: Kell-e egyáltalán vizsgálni őket? Kell-e és tudunk-e megfelelő válaszokat kidolgozni rájuk?

A trendekkel szemben nagyságrendekkel nagyobb és állandó kihívást jelent az a strukturális mélységű változás, ahogy az ember szimbiotikus kapcsolatban kezd élni a technológiával. Az információs társadalomban az emberi együttélés olyan új módja formálódik, amelyben az információ információs rendszerekkel szervezett előállítása, tárolása, előhívása és felhasználása játssza a fő szerepet, az új strukturális elemek (hálózatok) révén a már ismert társadalmi intézmények átalakulnak, újjászerveződik a politika, a gazdaság, a kultúra, és az egyéni identitások.2 A mesterséges intelligencia mindezt tovább mélyíti, ezért a büntetőjogi vonatkozásait e változás kapcsán lehet vizsgálni.

Ez a büntetőjogtól némiképpen idegen, mégis célravezetőnek tűnik, ha proaktív és nem reakciós szemlélettel közelítünk a kihívások felé. A büntetőjog alapvetően nem primer szabályozó jogág, eredményessége a társadalmi rend fenntartásában nagyban függ a társadalmi viszonyokat elsődlegesen szabályozó normaanyagtól. Ez a normaanyag várhatóan az algoritmusokat, a mesterséges intelligenciát hasznosító gazdasági szférát szabályozó ágazati joganyagban meg fog jelenni. Akkor járunk el tehát helyesen, ha addig is, a várható büntetőjogi jogalkotás számára feltárjuk, hogy dogmatikai rendszerének fogalmi kategóriái mennyire fenntarthatók, hol lesz szükség reformra, paradigmaváltásra, adott esetben új bűncselekményi tényállásra.

Gondoljunk egy pillanatra a kriptovalutákat a megjelenésük óta körülvevő szabályozói tanácstalanságra. Merőben újszerű, hogy e téren a hazai és az európai uniós büntetőjogi jogalkotás azáltal vállalt szabályozó szerepet, hogy nincs a kriptovalutákra vonatkozó gazdasági jogi norma. Sajátos helyzetet teremtett, hogy a virtuális fizetőeszközökre az 2018/843/EU irányelv3 a pénzmosás elleni fellépés területén, míg az 2019/713/EU irányelv4 a büntető anyagi jogi területén tartalmaz jogi rendelkezéseket. Nem feltétlenül tekinthető ideálisnak, hogy úgy kell büntető anyagi jogi védelemben részesíteni egy vagyonelemet, hogy arra vonatkozóan nem áll rendelkezésre a vagyon elleni bűncselekmények dogmatikájának alapját képező polgári jogi szabályozás, pénzügyi jogi koncepció. Az MI kapcsán ezért talán nem elvetendő előre gondolkodni az egyes problémás szituációkon.

A büntetőjog bátran megfogalmazhat szabályozási igényeket az ágazati jogalkotás területén is. E közegben ugyanis a jog szerepvállalása is átalakulhat amiatt, hogy az egyes algoritmusok a joggal részben azonos funkciót láthatnak el, nevezetesen társadalmi cselekvéseket szabályozhatnak. Az algoritmusokba már most is képesek vagyunk egyes technikai normákat belefoglalni. Egy roppant egyszerű példával élve: az önvezető autó programozása arra, hogy lakott területen belül – ellentétes tartalmú jelzőtábla hiányában – legfeljebb 50 km/óra sebességgel közlekedhet. Ez egyszerre technológiai kód és jogszabály végrehajt(tat)ása. A közlekedési jog „kódolását” jelentené az egyszer talán hálózatba kapcsolt önvezető járművek és az intelligens városok egységes közlekedésirányítási rendszere, de a kontraktuális jog kódba „vitelét” jelenti a jelenben már megjelent ún. intelligens szerződések5 alkalmazása is.6

Az előttünk álló kihívások felméréséhez és a lehetőségeink felismeréséhez, azaz a jogalkotás előtt álló feladatok tervezéséhez a szabályozandó közeg megértése tehát elemi fontosságú. A változás folyamatának technológiai állomásait, illetve a társadalmi átalakulás fázisait szükségtelen részleteiben is bemutatni, ehhez számos szakirodalmi mű7 áll rendelkezésre, olyan is, amely kifejezetten büntetőjogi szempontból folytatott vizsgálatot8. Az egyes társadalmi szférák (gazdaság, közszféra, magánszféra) átalakulásának jelenlegi stádiumát úgy jellemezhetjük, hogy egyre inkább algoritmusok által vezérelt társadalomban élünk, egyre növekvő mértékben alkalmazzák az algoritmusokat az emberre kiható döntések meghozatalakor, az MI-vel ez csak fokozódni fog.

Egy képzelt riport

Képzeljük el, ahogyan egy üzletember beül az önvezető autóba, hogy orvosi vizsgálatra menjen. Az úton hitel- illetve kölcsönszerződéseket köt, ún. szövegfelismerő chatbotokkal kommunikálva, amelyek quasi képviselőként járnak el ügyletkötés és a hitelbírálat során. A háziorvosa már az IDx-DR képfelismerő diagnosztikai szoftvert használja, amelynek forgalmazására az Amerikai Egyesült Államok egészségügyi hatósága már 2018. április hónapban engedélyt adott.9 Az eszköz a súlyosabb diabéteszes retinopathia korai kimutatására használható. Ez az első olyan mesterséges intelligenciára épülő eszköz, ami alkalmazásánál egy szűrővizsgálati döntéshez nincs szükség az eredményeket interpretáló orvosra, így akár olyan orvosok is használhatják, akiknek nem szakterülete a szemészet.

Hazafelé olyan híradást lát, amelyben országának gazdaságpolitikáért felelős állami vezetője egy kiszivárgott magánbeszélgetés során arról beszél, hogy az országa csődben van. Nem tudja eldönteni, hogy ún. deepfake videóról van-e szó, vagy a valóságról. A hírt nem ok nélkül kapta. A telefonja személyi asszisztense tudja, hogy milyen téma érdekli. A Big Data korában a személyes adatok és preferenciák profilozásával készített adatelemzésekkel a döntéseire kiható híreket kap, egyfajta információs buborékban él. A hír hallatán aggódni kezd a befektetéseiért. Az online kereskedelem és marketing interakcióit már jó ideje algoritmusok formálják, alakítják, emberi aktus nélkül keletkeztetve jogviszonyokat. A tőzsdén is elterjedt a tőzsdei robotok alkalmazása. Az úgynevezett HFT (High Frequency Trading), nagyfrekvenciájú kereskedési technika lényege, hogy a szoftver – az előre programozott vagy választott stratégia alapján – a másodperc töredéke alatt ad vételi és eladási ajánlatokat különböző eszközökre, a pozícióit nagyon gyorsan nyitja és zárja. Az algoritmikus kereskedés előbb-utóbb kiegészül a már megjelent, befektetési stratégiát is választó robottanácsadókkal10, és majd egyszer a híreket is elemző MI-vel.

Mindezek példaként kiragadott, nagyrészt már a jelen felhasználási területei voltak, és az MI-vel kapcsolatosan más-más problémákra hívják fel a figyelmet. Az algoritmusok mellett a mesterséges intelligenciát használó eszközök az életszféráinkat, a társadalom alrendszereit egyre jobban átszövik, az egyes felhasználási területeken az ember helyett egyre több, életviszonyainkra közvetlenül kiható „döntéseket hoznak”, vagy közvetlenül emberi döntések épülnek rájuk. Ennek egyszerű oka az, hogy a technika egy-egy területen nagyobb teljesítményértékre képes az embernél.

A büntetőjogi kérdések alapvetőnek tűnnek. Ki a felelős az önvezető autó által okozott balesetért? Egyszerű termékfelelősségről lenne szó? Pedig számtalan releváns emberi döntés lehet mellette. Például ki, mikor és milyen körülmények között kapcsolhatja be vagy ki az önvezető funkciót? Milyen minőségben van jelen az utas? Lehet-e ittas? A szoftver frissítése, a gépkocsi karbantartása üzembentartói felelősség stb. mind-mind kötelezettség.

Milyen tényállás jöhet szóba, ha a chatbotot mint quasi „passzív alanyt” az ügyletkötési szándékot illetően „megtévesztik”? Ez nem az eddig ismert adatbevitel, amely a Btk. 375. §-ának tényállásszerűségéhez szükséges. Ki a felelős a téves orvosi diagnózisért? Felelős az orvos, ha igénybe vette a technológiát és arra építve hozott rossz döntést? Felelős az orvos, ha nem vette igénybe az egyébként nála hatékonyabb technológiát? Egyszerű személyes adattal visszaélés lenne az említett deepfake videó, vagy állam elleni bűncselekmény? Melyik tényállás lenne arányos?

Ki a felelős a tőzsdei krachért, amelyet a hibásan működő vagy megtévesztett tőzsdei robotok okoznak, mint például a 2010-es flash crash idején, amely a Wall Streeten 1 trillió dolláros piaci kapitalizáció eltűnéséhez vezetett? A személyre szabott hírszolgáltatás egyben erős predikciós potenciállal rendelkezik és befolyásolni képes az egyén világlátását és a cselekményeit, amellyel választásokat lehet befolyásolni.

Az MI szándékos bűncselekmények eszközeként való felhasználása egyszerűbben kezelhető kérdés. Jogalkotási feladat e téren is jósolható, úgy vélem, a deepfake egyértelműen felveti új Btk.-tényállás megalkotásának szükségességét. A deepfake-technológiához való hozzáférés megakadályozása kizárt, így csak az egyes felhasználási módok tilalmazása lehet járható út. Nem állítom, hogy egy új büntetőjogi tényállás megoldaná az alkotmányos rend ellen irányuló cselekményekkel szembeni védelmet, de e téren a büntetőjogi reakció sosem maradt el. Az anyagi jogi kérdések terén érdekesebb dogmatikai feladat lesz az MI quasi ügynökként való felhasználása esetén – pl. ügyletkötések során – az ágensek quasi passzív alanyként való kezelésének kérdése.

A mesterséges intelligencia

A büntetőjogi előrelátásra egy másik téren lehet nagyobb szükség. Egy technológia által vezérelt társadalomban minden eddiginél nehezebb lesz bizonyos tényállásszerű cselekmények elkövetőit, felelőseit meghatározni, és őket felelősségre vonni. Egyre nehezebb lesz felfejteni, hogy egy káros eredmény mögött van-e, volt-e bűnös – szándékos vagy gondatlan – emberi magatartás, vagy sem. A korábban említett flash crash ügyében az ügy felderítésére éveket kellett várni, az első gyanúsított őrizetbe vételére 2015-ben került sor. Ezért ahogy a szabályok érvényesítésének egyre inkább automatizált rendszereivel nézünk szembe, alapvető fontosságú, hogy lehetőségünk legyen átlátni egy-egy algoritmikus döntés kritériumait, működését, a rendszer haszonélvezőit. Ezért is lényeges a jogalkotási, normaalkotási igények megfogalmazása az elsődleges szabályozó jogágak, a technikai normák szintjén, annak hatása a büntetőjog funkciójára is kihathat. De hogyan is ragadjuk meg az MI mibenlétét, mit akarunk szabályozni?

Elméleti és technológia konstrukció

A jogalkotás általában a szabályozás tárgyának meghatározásával kezdi a jogi normát.11 A jelen esetben az egységes fogalom megalkotása azonban kétséges, magát az intelligencia mibenlétét is nehéz meghatározni, a globalizáció és a világgazdaság miatt a fogalomnak ráadásul egyetemesnek kellene lennie. A mesterséges intelligenciával kapcsolatos jogalkotói feladatok meghatározása kizárólag úgy lehetséges, ha az MI-t körülvevő misztériumot megszüntetjük, és a tárgyszerű elemzés során nem bocsátkozunk utópisztikus jóslatokba, illetve helyén kezeljük a divatos disztópiákat.12 Ne legyenek kétségeink, az elméleti-tudományos diskurzus sincs egyetértésben abban, hogy miként határozza meg az MI-kutatás tárgyát, ideálját, ugyanakkor az tűnik helyesnek, ha már jó előre szakítunk az antropomorfizáló képekkel.13 Ezért úgy vélem, hogy nem magát a szókapcsolatot kell definiálnunk, a szabályozás nem feltétlenül igényel egységes és központi fogalmat. A szabályozás az MI egy felhasználási területeinél, alulról felfelé fog kialakulni.

A mesterséges intelligencia helyes jogtudományi kezeléséhez célszerű emlékeztetni magunkat annak funkciójára: az MI egy technika, eszköz. A technológia görög eredetű kifejezés, amely a „mesterség” (τεχνολογια < τεχνη), a „tan” (λογος) és egy toldalék (ια) összetételekből épül fel. A technológia az ember által készített olyan célszerű, az egyéni, emberi képességeit megnövelő eszközökről (gépek, anyagok és eljárások) szóló ismeretek gyűjtőneve, amelyek segítségével az emberiség egyre többet tud megismerni, megváltoztatni, megőrizni az őt körülvevő világból.14 A mesterséges intelligencia technológiája sem szól másról. A mesterséges intelligenciával az ember különféle kognitív képességei válnak gépi úton is elvégezhetővé: észlelés, mintafelismerés, értékelés stb. Az algoritmizálható szellemi tevékenységek a számítógép konvencionális rutinfeladatai közé tartoznak, a mesterséges intelligencia azonban ezen túlmutat.15

Az MI-fejlesztések ideálja egy racionálisan cselekvő ágens, amely a nem determinisztikus, olyan problémák megoldására szolgál, amelyek megoldására hiányos vagy pontatlan információk állnak rendelkezésre, továbbá amelyekre nem dolgozható ki algoritmus.16 A racionális ágens minden egyes észlelési sorozathoz a benne található tények és a beépített tudása alapján minden elvárható dolgot megtesz a teljesítménymérték maximalizálásáért. Rendelkezik az információ észlelésének és tudásként való elraktározásának képességével abból a célból, hogy azt a jövőbeni adaptív magatartásformát tanúsítva egy adott környezetben vagy kontextusban alkalmazza.

Egy racionális ágens a legjobb kimenetel érdekében vagy – bizonytalanság jelenlétében – a legjobb várható kimenetel érdekében cselekszik.17

Összefoglalva, az MI egy újabb állomás az ember biológiailag adott információkezelő képessége meghaladásának útján, az MI az emberi értelem egy adott tartományban történő kiterjesztését szolgálja, nem generális intelligencia tehát, hanem csak azokra a területekre terjed ki, ahol az említett paraméternöveléshez a teljesítmény növelésére van szükség.18

Az MI hatása a döntési autonómiára

A mesterséges intelligenciaként jelölt program-ágensnek nincs akaraton alapuló, szuverén döntése, kizárólag előfeltételeknek és szabályoknak olyan együtteseivel bír, amelyet a rendszert megalkotó ember a számára rendelkezésre bocsát.19 Ezért középtávon meddő vitákhoz vezet azt fontolgatni, miképpen tehető önálló jogalannyá, jogok szuverén birtokosává, illetve morális, a cselekedeteiért felelős entitássá egy képzet.20 Mindez a felelősségi kérdések kereteit is alapvetően meghatározza.

Ez az alaptétel ugyanakkor közel sem jelenti azt, hogy az ember és gép kapcsolata, az emberi és gépi jelkezelés konvergenciája ne eredményezne minőségileg is új életformát, élethelyzeteket, amelyeknek végső soron az ember büntetőjogi felelősségére is kihatása lehet. Célszerű tehát a mesterséges intelligencia lényegét az emberi felhasználással együtt értelmezni.

Az ember elme kognitív funkcióinak kiváltása, ezáltal az ezt igénylő területeken egy rendszer embertől független működésének (önállósulásának) lehetősége az MI fejlesztésének egyik fő irányát képező gépi tanulás módszeréből fakadhat. Russel és Norvig szerint21 az ágens addig nem autonóm, amíg az ágens kizárólag a tervezői által beépített tudásra épít és nem saját megfigyeléseire. Egy racionális ágensnek szükségszerűen autonómnak kell lennie, hiszen ahhoz, hogy a hiányos vagy hibás előzetes tudását kompenzálja, mindent meg kell tanulnia, amit csak tud. Ha egy ágensnek nincs vagy csak kevés tapasztalata van, akkor véletlenszerűen cselekszik, amelynek racionalizálásához a tervezőjének kezdeti segítsége szükséges. A mesterséges intelligens ágensek kezdő tudásuk és tanulási képességük révén, a környezetüktől megszerzett tapasztalatok birtokában, mint racionális ágensek viselkedésüket tekintve gyakorlatilag függetlenné válhatnak a beépített előzetes tudásuktól. A mesterséges intelligencia fejlesztésének egyik fő célkitűzése a felügyelet nélküli tanulás, amelynél az MI egyedül – közvetlenül a nyers tapasztalatból vagy adatból – tanul, anélkül, hogy előzetesen gondos kiképzést kapna. A tanulás képessége e rendszer szerves része kell, hogy legyen, hatékonyan kell tudni bánni a bizonytalansággal és a valószínűségi információkkal, ezen kívül képesnek kell lennie arra, hogy az érzékszervi adatokból és a belső állapotokból hasznos fogalmakat definiáljon és ezekből kombinatorikai reprezentációkat alkosson logikai és intuitív következtetéseihez.22

Az MI azon képességéből, hogy a környezetével képes interakcióba lépni, és a gépi tanulás révén az emberi beavatkozás viszonylatában indeterminisztikus lehet a működése, valóban nem következik az, hogy az emberhez hasonlatosan tudatos a cselekménye. Az is igaz, hogy az MI programjának megfelelően viselkedik, jelentésértelmezési képessége nincs, nem állítható erkölcsi kihívások elé. Ugyanakkor éppen az emberi racionalitást meghaladó következtetési képességei miatt az ember által előre nem látott vagy nem értett döntések függetlenedhetnek az emberi ráhatástól, ezért az ember-gép szimbiózison belül önállóként értelmezhetők. Ha egy adott területen az MI racionalitása meghaladja az emberét, előfordulhat, hogy a döntéseit nem fogjuk érteni, vagy egy probléma megoldására más eredményt fogunk racionálisnak tekinteni. Az emberét adott területen meghaladó racionalitása és az abból eredő cselekvési képessége miatt, a cselekménye a validálását illetően függetlenedhet az embertől, döntése egyre nehezebben és időigényesebben visszafejthető. Autonómiáját az aktusának az emberi értelemtől való elszakadásából eredeztethetjük.

A mesterséges intelligencia és az ember hibrid kapcsolata

A mesterséges intelligencia tévesen antropomorf képzete szerinti öntudata helyett az MI autonómiája máshogy értelmezhető. A fenti ideálnak többé-kevésbé megfelelő mesterséges intelligencia mint technika számos eszközben jelenik meg, a szórakoztatóipari termékektől a tőzsdei robotokon át az orvosi diagnosztikáig. Az MI különösen ott vet fel majd kérdéseket, ahol közvetlenül jogviszonyokat hoz létre, alakít, vagy ha emberi döntések közvetlenül az MI következtetéseire épülnek (pl. orvosi diagnosztika, automatizált ügyletkötések, önvezető autók). Ahogyan utaltam rá, az MI egyik fő célja a kognitív funkciók kiszervezése és feljavítása.23 A megoldandó felelősségi kérdések is ebből fakadnak: az ember által nem ellenőrizhető, automata vagy automatizált döntési rendszerekre való ráutaltság.

Meghatározó, az ember-gép szimbiózisát formáló változásként tekinthető az a folyamat, ahogyan az ember az egyes intellektuális feladatokat kiszervezi, és az a szituáció, ahogyan mindezek eredményeihez viszonyul. Alapvetően meghatározza a körültekintés és a mérlegelés eredményeként születő emberi döntések megítélését az a körülmény, hogy az ember a döntései kiváltásához vagy segítéséhez nagyobb hatásfokkal működő eszközöket vehet igénybe. Talán a következő két kérdés hosszabb elméleti fejtegetések nélkül is megfelelően érzékelteti a megoldandó helyzetet: Egy káros eredményért felelősségre vonható-e az ember, ha a döntéséhez nem veszi igénybe a mesterséges intelligenciát? Felelősségre vonható-e, ha a döntését a mesterséges intelligencia elemzésére alapította?24

Összefoglalva, a környezetükhöz való adaptáció, illetve a hatékonyságuk növelése érdekében tanuló rendszerek esetében a programozó és az üzemeltető személye és az autonóm rendszer tevékenysége, pontosabban konkrét aktusa közötti kauzális kapcsolat nehezen lesz azonosítható. Nem lehet majd tudni, hogy egy adott esetben tényállásszerű cselekmény (vagy éppen történés) mögött van-e bűnös emberi szándék, vagy felróható mulasztás. Azaz az autonóm döntéshozó rendszerek egyre több területen való alkalmazása a káros eredményekért való közvetlen emberi felelősséget, így a büntetőjogi felelősséget is könnyen elmoshatja.

Megoldás: Szabályozás és összetett felelősségi rendszer

Kérdés, hogy miként társuljon a korábban bemutatott szimbiózishoz társadalmikontroll-igény. A felmerülő vitás esetekben egyértelműen meg kell határozni, ki kell jelölni a döntés felülbírálására alkalmas eljárásrendet. A kontroll fenntartása érdekében az MI-t alkalmazó eszközök fejlesztésének életciklusát (fejlesztés, próbaüzem, engedélyezés, karbantartás) minden olyan területen szabályozás alá kell vonni, ahol lényeges életviszonyra vagy társadalmi érdekre kihatása lehet. Ez természetesen nem büntetőjogi szabályozás, de a büntetőjog építhet rá.

Ez végső soron egy összetett felelősségi rendszerként jelenhet meg, amely gondossági kötelezettségekre, illetve azok megszegésére épülhet. Ott, ahol az MI közvetlenül jogviszonyokat hoz létre, alakít, vagy ha emberi döntések közvetlenül az MI következtetéseire épülnek (pl. diagnosztika, befektetési stratégiák, automatizált ügyletkötések, önvezető autók), megfontolandó egyes felhasználási területeken az MI-t egyfajta lőfegyver-analógiára kezelni, és az életciklusához igazodóan – fejlesztési, tesztelési, engedélyezési, karbantartási fázisokban – ágazati szinten gondossági kötelezettséget és ezáltal a felelősséget megalapozó szabályokat bevezetni. Rendezni kell az ember és gép szimbiózisából eredő konfliktusok közül azt, hogy kié a végső szó, ha az emberi és a gépi következtetés eltérő eredményekhez vezet. Az MI-ember kapcsolatában meg kell határozni az emberi tényező elsőbbségét, az MI működésének utólagos ellenőrizhetőségéhez szükséges mechanizmusokat.

Mindez tehát az adott eszköz gyártására és felhasználási területére vonatkozó ágazati szabályozás alapos kimunkálását igényli, betartatása pedig erősen rendészeti jellegű. Ám végső soron, ha a szabályozás kialakul, az MI-vel kapcsolatos felelőtlen emberi tevékenységek a foglalkozás körében elkövetett gondatlan veszélyeztetés bűncselekmény tényállása (Btk. 165. §) alá eshetnek. Mivel e tényállás csak a testi épséget és az életet védi, megfontolandó a meghatározott összegű vagyoni kárt okozó szabályszegésekre is ugyanilyen tényállást alkotni.

Zárszó

A felmerült kérdésekre jelenleg nincsenek megnyugtató válaszok. Ezen esszé nyugodt lelkiismerettel nem is vállalhatja, hogy tudományos igényességgel kísérletet tesz megoldásukra, hiszen részben a jövőbe tekint, és ezért kénytelen bizonyos víziókkal dolgozni. E víziók azonban nem légből kapottak, alapjai jól érezhetően formálódnak a jelenben. Annyi bizonyos, hogy a feltett kérdéseket illetően a szabályozás indokoltnak tűnik.

Szathmáry Z. PhD, ügyész, Legfőbb Ügyészség


Your browser does not support the canvas element.